JPH1139464A - Image processor for vehicle - Google Patents

Image processor for vehicle

Info

Publication number
JPH1139464A
JPH1139464A JP9194193A JP19419397A JPH1139464A JP H1139464 A JPH1139464 A JP H1139464A JP 9194193 A JP9194193 A JP 9194193A JP 19419397 A JP19419397 A JP 19419397A JP H1139464 A JPH1139464 A JP H1139464A
Authority
JP
Japan
Prior art keywords
vehicle
white line
image processing
road
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9194193A
Other languages
Japanese (ja)
Inventor
Tomohiro Fukumura
友博 福村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP9194193A priority Critical patent/JPH1139464A/en
Publication of JPH1139464A publication Critical patent/JPH1139464A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To accurately estimate a road shape by processing an image of circumferential roads, detecting the position of the horizontal surface, current position, and traveling direction of a vehicle, detecting the position of a road node in the traveling direction by retrieving three-dimensional road map data, and calculating a road slope and correcting the whole line position. SOLUTION: An image process controller 3 is equipped with an image memory 31 which stores the video signal from a camera 2 and an image process part 32 which detects the white line by processing the image. A navigation controller 4 is equipped with a storage device 41 for storing 3D map data and a road slope calculation part 42 which calculates a road slope on the basis of the 3D map data. A vehicle controller 6 is provided with a synchronizing signal generation part 62 and a vehicle control part 62 which controls a steering actuator and runs a control program to generate a synchronizing signal and also corrects the white line found through the image processing with the road slope, thereby controlling the steering angle so that the vehicle travels within the white line.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は自車両周辺の環境認
識を行なう車両用画像処理装置に関し、特に、画像を分
析して先行車を認識しながら一定の車間距離で追従する
追従走行装置、道路の白線を検出して自車両を車線内に
自動的に維持するレーンキープ装置、道路白線を検出し
て自車両が車線内を維持しているかを監視する車線逸脱
警報装置などに用いられるものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus for a vehicle for recognizing an environment around a host vehicle, and more particularly, to a follow-up traveling apparatus that analyzes an image and recognizes a preceding vehicle while following the vehicle at a fixed inter-vehicle distance, Used in lane keeping devices that automatically detect and maintain the vehicle in the lane by detecting white lines, and in lane departure warning devices that detect whether the vehicle is maintaining the lane by detecting road white lines. is there.

【0002】[0002]

【従来の技術とその問題点】カメラにより撮像した道路
の画像を処理して道路の形状を認識すると、道路の勾配
により正確な形状が認識できないことがある。例えば図
1に示すように、実際には同一形状の道路の同じ地点を
走行している場合であっても、カメラの画面上では道路
が平坦な場合(a)よりも道路が上り坂の場合(b)の
方が緩いカーブとして認識され、所定の距離に設定され
た注視点(図中に破線で示す)における白線の位置も上
り坂の場合(b)の方が右側にあると認識される。この
結果、白線に対する相対的な自車位置は、上り坂の場合
(b)の方が左側にあると誤認されてしまう。したがっ
て、このような車両用画像処理装置をレーンキープ装置
に用いると、車両を車線に沿って正確に走行させること
ができなくなる。
2. Description of the Related Art When a road image captured by a camera is processed to recognize the shape of the road, an accurate shape may not be recognized due to the gradient of the road. For example, as shown in FIG. 1, even when the vehicle is actually traveling on the same point on a road having the same shape, the road on the camera screen is more uphill than in the case where the road is flat (a). (B) is recognized as a gentle curve, and the position of the white line at the gazing point (indicated by a broken line in the figure) set at a predetermined distance is recognized as being on the right side in the case of (b) on the uphill. You. As a result, the own vehicle position relative to the white line is erroneously recognized to be on the left side in the case of (b) on an uphill. Therefore, when such an image processing device for a vehicle is used for a lane keeping device, the vehicle cannot run accurately along the lane.

【0003】上記の問題は、平面情報である画像から立
体の道路形状を推定しようとするために生じる問題であ
る。例えば図1に示す道路の場合には、道路が平坦路で
あるか、あるいは上り坂であるかは、何らかの付加情報
がない限り判断できない。
The above problem is a problem that arises when trying to estimate a three-dimensional road shape from an image that is plane information. For example, in the case of the road shown in FIG. 1, it cannot be determined whether the road is a flat road or an uphill unless there is some additional information.

【0004】このような道路勾配の影響を考慮した道路
形状の推定方法が種々提案されている。第1の方法は、
一枚の道路の画像から道路幅が一定、すなわち両側の白
線の間隔が一定であるという条件を用いて道路の立体形
状を推定するものである(例えば、特開平6−2018
9号公報参照)。しかしこの方法によれば、曲線路や合
流点、分岐点の前後などでは白線間隔が変化する場合が
あり、これによる推定誤差を排除できない。また、両側
の白線が検出できない時もあり、その時には推定不能に
なる。
Various methods for estimating a road shape in consideration of the influence of such a road gradient have been proposed. The first method is
The three-dimensional shape of the road is estimated from the image of one road using the condition that the road width is constant, that is, the interval between the white lines on both sides is constant (for example, Japanese Patent Application Laid-Open No. 6-2018).
No. 9). However, according to this method, the white line interval may change before and after a curved road, a junction, or a branch point, and the estimation error due to this may not be eliminated. In some cases, white lines on both sides cannot be detected. At that time, estimation becomes impossible.

【0005】第2の方法は、2台のカメラを用い、人間
の目と同様に視差をもって道路を立体視するものである
(例えば、特願平4−70377号、特願平4−322
174号、特願平4−76499号など)。しかしこの
方法でも、視差が距離に反比例して小さくなるため、遠
い所を正確に立体視するためには、カメラの取り付け精
度、キャリブレーション、分解能を上げなければなら
ず、実用上は困難である。また、カメラを2台使用しな
ければならない上に、2台のカメラにより撮像した画像
を処理しなければならず、膨大な画像処理を行なう高速
なマイクロコンピュータが必要となって装置がコストア
ップする。
A second method is to stereoscopically view a road with parallax in the same manner as human eyes using two cameras (for example, Japanese Patent Application Nos. 4-70377 and 4-322).
174, Japanese Patent Application No. 4-76499). However, even with this method, since the parallax is reduced in inverse proportion to the distance, in order to accurately stereoscopically view a distant place, the mounting accuracy, calibration, and resolution of the camera must be increased, which is practically difficult. . In addition, two cameras must be used, and images taken by the two cameras must be processed. This requires a high-speed microcomputer that performs enormous image processing, which increases the cost of the apparatus. .

【0006】本発明の目的は、道路形状を正確に推定す
る車両用画像処理装置を提供することにある。
An object of the present invention is to provide a vehicular image processing apparatus for accurately estimating a road shape.

【0007】[0007]

【課題を解決するための手段】本発明の原理を説明す
る。上り坂にさしかかった場合を例に上げて、図2に示
すような座標系を考える。この座標系はX−Y平面を車
両に対して水平な面とし、Z軸がカメラの設置位置を通
るXYZ座標系であり、以下では車両固定座標系と呼
ぶ。図中の点Pは実際の道路の白線上の点であり、点P
oは点PのX−Y平面への投影点である。投影中心はカ
メラの設置点C(0,0,Hc)である。点Oは車両位
置である。また、道路の勾配に関しては、道路の高さZ
が距離Xだけで決るとし、カント(道路の横傾斜)分は
考慮しないものとする。すなわち、
The principle of the present invention will be described. Taking the case of approaching an uphill as an example, consider a coordinate system as shown in FIG. This coordinate system is an XYZ coordinate system in which the XY plane is a plane horizontal to the vehicle and the Z axis passes through the installation position of the camera, and is hereinafter referred to as a vehicle fixed coordinate system. Point P in the figure is a point on the white line of the actual road.
o is a projection point of the point P on the XY plane. The projection center is the camera installation point C (0, 0, Hc). Point O is the vehicle position. As for the gradient of the road, the height Z of the road
Is determined only by the distance X, and the cant (lateral inclination of the road) is not considered. That is,

【数1】Z=Z(X)## EQU1 ## Z = Z (X)

【0008】ここで、投影中心Cと投影点Poを結ぶ直
線上の点は画面上ではすべて重なってしまう。つまり、
道路勾配が変化して点Pの位置が投影中心Cと投影点P
oを結ぶ直線上を移動しても、画面上では点Pの移動が
判別できず、水平面上の点Poとして認識される。そこ
で、本発明では、画像処理の段階では道路の勾配変化を
無視し、道路上の点P(X,Y,Z)とそのX−Y平面
への投影点Po(Xo,Yo,0)だけを求めることにす
る。投影は次のように表わすことができる。
Here, all points on a straight line connecting the projection center C and the projection point Po overlap on the screen. That is,
As the road gradient changes, the position of point P is changed to projection center C and projection point P.
Even if it moves on the straight line connecting o, the movement of the point P cannot be determined on the screen, and is recognized as the point Po on the horizontal plane. Therefore, in the present invention, the change in the gradient of the road is ignored in the image processing stage, and only the point P (X, Y, Z) on the road and its projection point Po (Xo, Yo, 0) on the XY plane are ignored. I will ask for. The projection can be expressed as:

【数2】Yo=Yo(X)## EQU2 ## Yo = Yo (X)

【0009】次に、実際の白線上の点P(X,Y,Z)
とその投影点Po(Xo,Yo,0)との関係を考える。
図2から明らかなように、道路の勾配変化に関わらず次
の関係が成立する。
Next, a point P (X, Y, Z) on the actual white line
And its projection point Po (Xo, Yo, 0).
As is clear from FIG. 2, the following relationship is established regardless of the change in road gradient.

【数3】 X/Xo+Z/Hc=1, X/Xo=Y/Yo ここで、勾配変化を表わす数式1を数式3に代入する
と、次の関係が得られる。
X / Xo + Z / Hc = 1, X / Xo = Y / Yo Here, the following relationship is obtained by substituting Equation 1 representing the gradient change into Equation 3.

【数4】Xo=X/{1−Z(X)/Hc}Xo = X / {1-Z (X) / Hc}

【数5】Y=Yo{1−Z(X)/Hc} また、数式4、数式5を微分することにより、ヨー角に
関する次の関係が得られる。
Y = Yo {1−Z (X) / Hc} Further, by differentiating Expressions 4 and 5, the following relationship regarding the yaw angle is obtained.

【数6】dY/dX=dYo/dXo+{(Xo/Hc)
(dYo/dXo)−Yo/Hc}{dZ(X)/dX} さらに微分することにより、曲率に関する以下のような
関係も得られる。
DY / dX = dY / dXo + {(Xo / Hc)
(DYo / dXo) -Yo / Hc {dZ (X) / dX} By further differentiating, the following relationship regarding the curvature is also obtained.

【数7】ρ(X)=ρ{Xo,Yo,dYo/dXo,ρo
(Xo),dZ(X)/dX,d2Z(X)/dX2
Ρ (X) = ρ {Xo, Yo, dYo / dXo, ρo
(Xo), dZ (X) / dX, d 2 Z (X) / dX 2}

【0010】以上の4式を用いることにより、勾配変化
が数式1の形で与えられれば、白線の投影線上の点Po
(Xo,Yo,0)とその点における傾きおよび曲率か
ら、対応する実際の白線上の点P(X,Y,Z)とその
点における傾きおよび曲率を求めることができる。
[0010] By using the above four equations, if the gradient change is given in the form of Equation 1, the point Po on the projected white line is obtained.
From (Xo, Yo, 0) and the slope and curvature at that point, the corresponding actual point P (X, Y, Z) on the white line and the slope and curvature at that point can be obtained.

【0011】なお、上記説明では、説明を解りやすくす
るために道路勾配の内のカント分を考慮しない場合を示
したが、より一般的に道路の高さZが、
In the above description, the case where the cant component of the road gradient is not taken into consideration for easy understanding, but more generally, the height Z of the road is

【数8】Z=Z(X,Y) のように表わされる場合でも、同様な理論が展開でき
る。
## EQU8 ## The same theory can be applied to the case where Z = Z (X, Y).

【0012】次に、実際の道路上の点P(X,Y,Z)
と、点Pに対応する画面上の点(x,y)の関係を求め
る。図3に示す座標系X’Y’Z’は、原点O’をカメ
ラのレンズ中心に設定し、X軸をレンズの光軸に設定
し、Y軸を道路平面と並行に設定したものである。この
座標系における点Pの位置を(X’,Y’,Z’)とす
ると、対応する画面上の点(x,y)は次式で与えられ
る。
Next, a point P (X, Y, Z) on the actual road
And the point (x, y) on the screen corresponding to the point P is determined. The coordinate system X'Y'Z 'shown in FIG. 3 has the origin O' set at the center of the lens of the camera, the X axis set at the optical axis of the lens, and the Y axis set parallel to the road plane. . Assuming that the position of the point P in this coordinate system is (X ′, Y ′, Z ′), the corresponding point (x, y) on the screen is given by the following equation.

【数9】 x=−fc・Y’/X’, y=−fc・Z’/X’X = −fc · Y ′ / X ′, y = −fc · Z ′ / X ′

【0013】次に、点(X’,Y’,Z’)は点(X,
Y,Z)をZ軸方向へHcだけ平行移動し、Y軸回りに
θcだけ回転することにより求められるから、
Next, the point (X ', Y', Z ') is changed to the point (X,
Y, Z) is translated by Hc in the Z-axis direction and rotated by θc about the Y-axis.

【数10】 X’=Xcosθc−(Z−Hc)sinθc, Y’=Y, Z’=Xsinθc+(Z−Hc)cosθc となる。これを数式9に代入すると、X ′ = Xcosθc− (Z−Hc) sinθc, Y ′ = Y, Z ′ = Xsinθc + (Z−Hc) cosθc. Substituting this into Equation 9 gives

【数11】 x=−fc・Y/{Xcosθc−(Z−Hc)sinθc}, y=−fc・{Xsinθc+(Z−Hc)cosθc}/{Xco
sθc−(Z−Hc)sinθc} となる。
X = −fc · Y / {Xcosθc− (Z−Hc) sinθc}, y = −fc × {Xsinθc + (Z−Hc) cosθc} / ΔXco
sθc− (Z−Hc) sin θc}.

【0014】特に、点P(X,Y,Z)が平坦な道路上
にある場合は、Z=0となるから、数式11は、
In particular, when the point P (X, Y, Z) is on a flat road, Z = 0, so that equation 11

【数12】 x=−fc・Y{Xcosθc+Hcsinθc}, y=−fc・{Xsinθc−Hccosθc}/{Xcosθc+Hc
sinθc} となる。これが平坦な道路上の点(X,Y)と、それに
対応する画面上の点(x,y)の関係になる。また、数
式11を(X,Y)について解けば、
X = −fc · Y {Xcosθc + Hcsinθc}, y = −fc · {Xsinθc−Hccosθc} / {Xcosθc + Hc
sinθc}. This is the relationship between the point (X, Y) on a flat road and the corresponding point (x, y) on the screen. Also, solving Equation 11 for (X, Y) gives

【数13】 X=−Hc・(ysinθc−fccosθc)/(ycosθc+f
csinθc), Y=−Hc・x/(ycosθc+fcsinθc) となり、画面上の点(x,y)から道路上の点(X,
Y)を逆算することも可能である。
X = −Hc · (ysinθc−fccosθc) / (ycosθc + f
csinθc), Y = −Hc × x / (ycosθc + fcsinθc), and the point (x, y) on the screen and the point (X,
It is also possible to inversely calculate Y).

【0015】(1) 請求項1の発明は、車両に搭載さ
れ周囲の道路を撮像する撮像手段と、画像を処理して車
両の水平面における白線の位置を検出する白線位置検出
手段と、車両の現在位置と進行方向を検出する位置/方
向検出手段と、3次元道路地図データを検索して現在位
置から進行方向の道路ノードの位置を検出するノード位
置検出手段と、道路ノード位置に基づいて道路勾配を演
算する勾配演算手段と、白線位置を道路勾配により補正
する補正手段とを備える。 (2) 請求項2の車両用画像処理装置は、白線位置検
出手段により検出される白線位置には、白線の横位置、
方向および曲率が含まれる。 (3) 請求項3の車両用画像処理装置は、勾配演算手
段によって、撮像手段による撮像時点の道路勾配を演算
するようにしたものである。 (4) 請求項4のの車両用画像処理装置は、白線位置
検出手段による白線検出と、位置/方向検出手段、ノー
ド位置検出手段および勾配演算手段による勾配演算とを
並行して行なうようにしたものである。 (5) 請求項5の車両用画像処理装置は、位置/方向
検出手段によって、衛星航法および/または自律航法に
より現在位置および進行方向を検出するようにしたもの
である。 (6) 請求項6の車両用画像処理装置は、補正手段に
より補正された白線位置に基づいて車両が車線内を走行
するように制御する車両制御手段を備えたものである。 (7) 請求項7の車両用画像処理装置は、補正手段に
より補正された白線位置に基づいて車両が車線内を走行
しているかどうかを監視する走行監視手段を備えたもの
である。 (8) 請求項8の車両用画像処理装置は、補正手段に
より補正された白線位置に基づいて車間距離を一定に保
ちながら先行車に追従制御する追従制御手段を備えたも
のである。
(1) An image pickup means mounted on a vehicle for picking up an image of a surrounding road, a white line position detecting means for processing an image to detect a position of a white line on a horizontal plane of the vehicle, and Position / direction detecting means for detecting the current position and the traveling direction; node position detecting means for searching three-dimensional road map data to detect the position of the road node in the traveling direction from the current position; There is provided a gradient calculating means for calculating the gradient, and a correcting means for correcting the white line position based on the road gradient. (2) The image processing apparatus for a vehicle according to claim 2, wherein the white line position detected by the white line position detecting means includes a horizontal position of the white line,
Includes direction and curvature. (3) The image processing apparatus for a vehicle according to claim 3, wherein the gradient calculating means calculates a road gradient at the time of imaging by the imaging means. (4) The vehicular image processing device according to claim 4 is configured to perform the white line detection by the white line position detecting means and the gradient calculation by the position / direction detecting means, the node position detecting means and the gradient calculating means in parallel. Things. (5) An image processing apparatus for a vehicle according to claim 5, wherein the current position and the traveling direction are detected by the position / direction detection means by satellite navigation and / or autonomous navigation. (6) The image processing apparatus for a vehicle according to the sixth aspect includes a vehicle control unit that controls the vehicle to travel in the lane based on the white line position corrected by the correction unit. (7) The image processing apparatus for a vehicle according to the seventh aspect includes a traveling monitoring unit that monitors whether the vehicle is traveling in the lane based on the white line position corrected by the correcting unit. (8) An image processing apparatus for a vehicle according to an eighth aspect of the present invention includes a follow-up control unit that performs a follow-up control on a preceding vehicle while maintaining a constant inter-vehicle distance based on the white line position corrected by the correction unit.

【0016】[0016]

【発明の効果】【The invention's effect】

(1) 請求項1の発明によれば、車両の周囲の画像を
処理して車両の水平面における白線の位置を検出すると
ともに、3次元道路地図データを検索して現在位置から
進行方向の道路ノードの位置を検出し、ノード位置に基
づいて道路勾配を演算する。そして、白線位置を道路勾
配により補正するようにしたので、複雑な画像処理をせ
ずに白線位置を短時間で正確に検出することができる。
道路に関する3次元情報の中で、車両制御を行なう場合
に高い精度が必要なのは距離、横位置、ヨー角などの平
面情報だけである。請求項1の発明では画像処理により
道路の平面情報を正確に検出するとともに、3次元道路
地図データに基づいて道路勾配を検出するので、画像処
理により立体的な道路形状を推定する従来装置に比べ、
画像処理における計算量が少なくてすみ、高速なマイク
ロコンピュータが不要となって装置のコストを低減する
ことができる。 (2) 請求項2の発明によれば、画像処理により車両
水平面における白線の横位置、方向および曲率を検出す
るようにしたので、請求項1の上記効果に加え、レーン
キープ制御、車線逸脱警報、先行車追従制御などに対し
て正確な道路形状を提供できる。 (3) 請求項3の発明によれば、画像を撮像した時点
の道路勾配を演算するようにしたので、画像処理により
検出された白線を正確に補正することができる。 (4) 請求項4の発明によれば、白線検出と勾配演算
とを並行して行なうようにしたので、車両の周囲の道路
を撮像してから短時間で道路の白線を検出することがで
きる。 (5) 請求項5の発明によれば、衛星航法および/ま
たは自律航法により現在位置および進行方向を検出する
ようにしたので、正確な車両の現在位置と進行方向を検
出できる。 (6) 請求項6の発明によれば、勾配変化により補正
された白線位置に基づいて車両が車線内を走行するよう
に制御するので、レーンキープ制御における制御精度と
信頼性を向上させることができる。 (7) 請求項7の発明によれば、勾配変化により補正
された白線位置に基づいて車両が車線内を走行している
かどうかを監視するので、車線逸脱警報制御における精
度と信頼性を向上させることができる。 (8) 請求項8の発明によれば、補正された白線位置
に基づいて車間距離を一定に保ちながら先行車に追従制
御するので、先行車追従制御における制御精度と信頼性
を向上させることができる。
(1) According to the first aspect of the present invention, an image around a vehicle is processed to detect a position of a white line on a horizontal plane of the vehicle, and three-dimensional road map data is searched for a road node in a traveling direction from a current position. And calculates the road gradient based on the node position. Since the position of the white line is corrected based on the road gradient, the position of the white line can be accurately detected in a short time without performing complicated image processing.
Of the three-dimensional information related to roads, only planar information such as distance, lateral position, and yaw angle requires high accuracy when performing vehicle control. According to the first aspect of the present invention, plane information of a road is accurately detected by image processing, and a road gradient is detected based on three-dimensional road map data. ,
The amount of calculation in image processing can be reduced, and a high-speed microcomputer is not required, so that the cost of the apparatus can be reduced. (2) According to the second aspect of the present invention, the lateral position, the direction, and the curvature of the white line on the vehicle horizontal plane are detected by the image processing, so that in addition to the above-mentioned effects of the first aspect, lane keeping control, lane departure warning Thus, an accurate road shape can be provided for the preceding vehicle following control and the like. (3) According to the third aspect of the present invention, since the road gradient at the time of capturing the image is calculated, the white line detected by the image processing can be accurately corrected. (4) According to the invention of claim 4, since the white line detection and the gradient calculation are performed in parallel, the white line of the road can be detected in a short time after imaging the road around the vehicle. . (5) According to the fifth aspect of the present invention, since the current position and the traveling direction are detected by the satellite navigation and / or the autonomous navigation, the accurate current position and the traveling direction of the vehicle can be detected. (6) According to the invention of claim 6, since the vehicle is controlled to run in the lane based on the white line position corrected by the gradient change, control accuracy and reliability in lane keeping control can be improved. it can. (7) According to the seventh aspect of the present invention, whether or not the vehicle is traveling in the lane is monitored based on the white line position corrected by the gradient change, thereby improving the accuracy and reliability in the lane departure warning control. be able to. (8) According to the invention of claim 8, since the following control is performed on the preceding vehicle while keeping the inter-vehicle distance constant based on the corrected white line position, the control accuracy and reliability in the following vehicle following control can be improved. it can.

【0017】[0017]

【発明の実施の形態】本発明の車両用画像処理装置を、
道路の白線を検出して自車両を車線内に自動的に維持す
るレーンキープ装置に応用した一実施の形態を説明す
る。
DESCRIPTION OF THE PREFERRED EMBODIMENTS A vehicle image processing apparatus according to the present invention
An embodiment applied to a lane keeping device that detects a white line on a road and automatically maintains the own vehicle in a lane will be described.

【0018】図4に一実施の形態の構成を示す。車両1
にはカメラ2、画像処理コントローラー3、ナビゲーシ
ョン・コントローラー4、データ通信部5、車両制御コ
ントローラー6、GPS受信機および地磁気センサー
(不図示)、車速センサー、舵角センサーおよびヨーレ
ートセンサーなどのセンサー類(不図示)が搭載されて
いる。カメラ2は、車両前方を撮像して画像処理コント
ローラー3に映像信号を出力する。
FIG. 4 shows the configuration of one embodiment. Vehicle 1
Includes sensors such as a camera 2, an image processing controller 3, a navigation controller 4, a data communication unit 5, a vehicle control controller 6, a GPS receiver and a geomagnetic sensor (not shown), a vehicle speed sensor, a steering angle sensor, and a yaw rate sensor ( (Not shown). The camera 2 captures an image of the front of the vehicle and outputs a video signal to the image processing controller 3.

【0019】画像処理コントローラー3は、カメラ2か
らの映像信号を記憶する画像メモリ31と、画像を処理
して白線の検出を行なう画像処理部32とを備える。画
像処理部32はマイクロコンピュータとその周辺部品か
ら構成され、後述する制御プログラムを実行して画像処
理を行なう。
The image processing controller 3 includes an image memory 31 for storing a video signal from the camera 2 and an image processing unit 32 for processing an image to detect a white line. The image processing unit 32 includes a microcomputer and peripheral components, and executes a control program described later to perform image processing.

【0020】ナビゲーション・コントローラー4は、3
D地図データを記憶する記憶装置41と、3D地図デー
タに基づいて道路勾配を算出する道路勾配算出部42と
を備える。道路勾配算出部42はマイクロコンピュータ
とその周辺部品から構成され、後述する制御プログラム
を実行して道路勾配を算出する。
The navigation controller 4 has 3
A storage device 41 for storing D map data and a road gradient calculation unit 42 for calculating a road gradient based on 3D map data are provided. The road gradient calculating section 42 is composed of a microcomputer and its peripheral components, and calculates a road gradient by executing a control program described later.

【0021】データ通信部5は、コントローラー3と4
と6の間のデータの送受信を行なう。車両制御コントロ
ーラー6は、同期信号を発生する同期信号発生部61
と、操舵アクチュエータを制御する車両制御部62とを
備える。同期信号発生部61と車両制御部62はマイク
ロコンピュータとその周辺部品から構成され、後述する
制御プログラムを実行して同期信号を発生するととも
に、画像処理で求めた白線を道路勾配により補正して車
両が車線内を走行するように舵角を制御する。
The data communication unit 5 includes controllers 3 and 4
And 6 are transmitted and received. The vehicle control controller 6 includes a synchronization signal generator 61 that generates a synchronization signal.
And a vehicle control unit 62 that controls the steering actuator. The synchronization signal generation unit 61 and the vehicle control unit 62 are constituted by a microcomputer and its peripheral parts, generate a synchronization signal by executing a control program described later, and correct the white line obtained by the image processing by the road gradient to correct the vehicle. Controls the steering angle so that the vehicle travels in the lane.

【0022】図5〜図8に示すフローチャートにより、
この実施の形態の動作を説明する。図5は画像処理を示
すフローチャートである。画像処理コントローラー3
は、100msごとに車両制御コントローラー6から送
られる同期信号に同期してこの処理を実行する。ステッ
プ1において、カメラ2で撮像を行なって画像データを
入力し、画像メモリ31に記憶する。なお、画像データ
は、カメラ2の撮像素子の各画素ごとの輝度情報A
[x,y]として記憶される。ステップ2で、入力した
画像データの中で輝度がしきい値以上の点(xi,yi)
を白線候補点として抽出する。
According to the flowcharts shown in FIGS.
The operation of this embodiment will be described. FIG. 5 is a flowchart showing the image processing. Image processing controller 3
Performs this process in synchronization with a synchronization signal sent from the vehicle control controller 6 every 100 ms. In step 1, the camera 2 captures an image, inputs image data, and stores it in the image memory 31. Note that the image data is luminance information A for each pixel of the image sensor of the camera 2.
It is stored as [x, y]. In step 2, a point (xi, yi) whose luminance is equal to or higher than the threshold value in the input image data
Is extracted as a white line candidate point.

【0023】ステップ3では、抽出された白線候補点に
対しそれぞれ上述した逆透視変換を行なって、車両固定
座標系のX−Y平面すなわち車両の水平面に投影する。
各白線候補点(xi,yi)の投影点(Xi,Yi)は、カ
メラの諸元を、道路に対する高さHc、ピッチ角θc、焦
点距離fcとすると次のようになる。
In step 3, the above-described inverse perspective transformation is performed on each of the extracted white line candidate points, and the extracted white line candidate points are projected on the XY plane of the vehicle fixed coordinate system, that is, on the horizontal plane of the vehicle.
The projection point (Xi, Yi) of each white line candidate point (xi, yi) is as follows when the camera specifications are height Hc, pitch angle θc, and focal length fc with respect to the road.

【数14】 Xi=−Hc(yisinθc−fccosθc)/(yicosθc+
fcsinθc), Yi=−Hc・xi/(yicosθc+fcsinθc)
Xi = −Hc (yisin θc−fccos θc) / (yicos θc +
fcsin θc), Yi = −Hc · xi / (yicos θc + fcsin θc)

【0024】次にステップ4で、投影点(Xi,Yi)が
道路の左右どちら側の白線であるかを識別し、左側の白
線上の投影点だけを抽出する。白線は各車線の左右に存
在するが、左右の白線の両方を検出することにすると、
演算量が多くなる上に、どちらか一方の白線が検出不能
な場合には白線検出結果が不安定になる。そこで、この
実施の形態では車線の左側の白線だけを抽出し、左側白
線を基準にしてその右側を一定の間隔で走行することに
する。もちろん右側の白線だけを検出するようにしても
よい。
Next, in step 4, it is determined whether the projection point (Xi, Yi) is the white line on the left or right side of the road, and only the projection point on the left white line is extracted. The white line exists on the left and right of each lane, but if we detect both the left and right white lines,
In addition to an increase in the amount of calculation, if one of the white lines cannot be detected, the white line detection result becomes unstable. Therefore, in this embodiment, only the white line on the left side of the lane is extracted, and the vehicle travels on the right side at a constant interval based on the white line on the left side. Of course, only the right white line may be detected.

【0025】ステップ5において、左側白線の投影点か
ら道路左側の白線の投影線を最小二乗法により2次曲線
In step 5, the projected line of the white line on the left side of the road from the projected point of the left white line is converted into a quadratic curve by the least square method.

【数15】Y=aYX2+bYX+cY で同定する。すなわち、2次曲線の各係数(aY,bY,
cY)は連立方程式
## EQU15 ## Identification is made by Y = aYX 2 + bYX + cY. That is, each coefficient (aY, bY,
cY) is a simultaneous equation

【数16】 の解として求められる。これらの係数(aY,bY,c
Y)を以下では白線同定パラメーターまたは道路同定パ
ラメーターと呼ぶ。続くステップ6で、白線同定パラメ
ーター(aY,bY,cY)を車両制御コントローラー6
に送信する。車両制御コントローラー6は、受信した白
線同定パラメーターをバッファメモリに一時的に保管す
る。
(Equation 16) Is obtained as the solution of These coefficients (aY, bY, c
Y) is hereinafter referred to as white line identification parameter or road identification parameter. In the subsequent step 6, the white line identification parameters (aY, bY, cY) are
Send to The vehicle control controller 6 temporarily stores the received white line identification parameters in the buffer memory.

【0026】図6は、ナビゲーション・コントローラー
4の動作を示すフローチャートである。なお、ナビゲー
ション・コントローラー4の動作の内、本発明に直接関
係しない目的地までの経路演算などの処理については説
明を省略する。ステップ11において、GPS受信機か
らのGPS信号と地磁気センサーからの方位信号とに基
づいて、GPS座標系における現在位置を算出し、マッ
プマッチングにより現在走行中の道路を特定して現在位
置を補正する。続くステップ12では、車載の3軸地磁
気センサーを使って、GPS座標系における車両の姿勢
として、X−Y平面における車両の進行方向を表わすヨ
ー角とX−Y平面に対するピッチ角を求める。ステップ
13で、記憶装置41の3D地図データを検索し、現在
位置から車両の進行方向100m以内にあるすべての道
路ノードに対してGPS座標系の位置(Xni,Yni,Z
ni)(i=1,2,・・)を入力する。
FIG. 6 is a flowchart showing the operation of the navigation controller 4. Note that, among the operations of the navigation controller 4, a description of a process such as a route calculation to a destination not directly related to the present invention will be omitted. In step 11, the current position in the GPS coordinate system is calculated based on the GPS signal from the GPS receiver and the azimuth signal from the geomagnetic sensor, and the current traveling road is specified by map matching to correct the current position. . In a succeeding step 12, a yaw angle indicating the traveling direction of the vehicle on the XY plane and a pitch angle with respect to the XY plane are obtained as the attitude of the vehicle in the GPS coordinate system by using the in-vehicle three-axis geomagnetic sensor. In step 13, the 3D map data in the storage device 41 is searched, and the position (Xni, Yni, Z) of the GPS coordinate system is determined for all road nodes within 100 m of the traveling direction of the vehicle from the current position.
ni) (i = 1, 2, ...) is input.

【0027】ステップ14で、算出した車両の姿勢を使
って、各ノードの位置を図2に示す車両固定座標系に変
換し、(Xni’,Yni’,Zni’)とする。続くステッ
プ15では、車両固定座標系に変換された各ノード座標
から、道路の高さ変化(道路勾配変化)Zを距離Xに対
する関数として求める。関数の構造については制約を受
けないが、この実施の形態では3次式、
In step 14, the position of each node is converted into the vehicle fixed coordinate system shown in FIG. 2 using the calculated vehicle attitude, and is set as (Xni ', Yni', Zni '). In a succeeding step 15, a change in road height (change in road gradient) Z is obtained as a function of the distance X from each node coordinate converted into the vehicle fixed coordinate system. Although there is no restriction on the structure of the function, in this embodiment, a cubic expression,

【数17】Z=azX3+bzX2+cz を仮定し、各係数を最少二乗法によって同定する。以下
ではこれらの係数(az,bz,cz)を道路勾配同定パ
ラメーターと呼ぶ。なお、一次の係数を0としたのは、
原点では道路がX−Y平面に接することを利用してい
る。また、最少二乗法の具体的方法は白線を同定した場
合と同様である。ステップ16で、算出した道路勾配同
定パラメーター(az,bz,cz)を車両制御コントロ
ーラー6へ送信する。車両制御コントローラー6は、受
信した道路勾配同定パラメーターをバッファメモリに一
時的に保管する。
Assuming that Z = azX 3 + bzX 2 + cz, each coefficient is identified by the least squares method. Hereinafter, these coefficients (az, bz, cz) are referred to as road gradient identification parameters. The primary coefficient was set to 0 because
At the origin, the fact that the road is in contact with the XY plane is used. The specific method of the least-squares method is the same as that when the white line is identified. In step 16, the calculated road gradient identification parameters (az, bz, cz) are transmitted to the vehicle controller 6. The vehicle control controller 6 temporarily stores the received road gradient identification parameter in the buffer memory.

【0028】図7、図8は車両制御プログラムを示すフ
ローチャートである。車両制御コントローラー6は、内
蔵タイマカウンターの10msのサンプリングタイムご
とにこの処理を実行する。ステップ21〜25は同期信
号発生部61の処理である。ステップ21において、内
蔵タイマカウンターのカウント値をインクリメントす
る。ただし、カウント値が0になったらクリヤする。す
なわち、
FIGS. 7 and 8 are flowcharts showing a vehicle control program. The vehicle control controller 6 executes this processing at every sampling time of 10 ms of the built-in timer counter. Steps 21 to 25 are processing of the synchronization signal generator 61. In step 21, the count value of the built-in timer counter is incremented. However, clear when the count value becomes 0. That is,

【数18】 Cnt[n]=Cnt[n-1]+1 (Cnt[n-1]≠9の時), =0 (Cnt[n-1]=9の時)## EQU18 ## Cnt [n] = Cnt [n-1] +1 (when Cnt [n-1] ≠ 9), = 0 (when Cnt [n-1] = 9)

【0029】次に、ステップ22でカウント値が0、す
なわち100msが経過したかどうかを確認し、100
msが経過したらステップ23〜25の処理を行なう。
つまり、ステップ23〜25の処理は100msごとに
行なわれる。ステップ23で、ナビゲーション・コント
ローラー4と車両制御コントローラー6に100msご
との同期信号を送る。ステップ24でバッファメモリか
ら白線同定パラメーター(aY,bY,cY)を読み出
し、続くステップ25でバッファメモリから道路道路勾
配同定パラメーター(az,bz,cz)を読み出す。な
お、白線同定パラメーター(aY,bY,cY)および道
路勾配同定パラメーター(az,bz,cz)はそれぞ
れ、100ms前に撮像した画像から計算された値であ
る。
Next, at step 22, it is confirmed whether the count value is 0, that is, whether 100 ms has elapsed.
After the elapse of ms, the processing of steps 23 to 25 is performed.
That is, the processing of steps 23 to 25 is performed every 100 ms. In step 23, a synchronization signal is sent to the navigation controller 4 and the vehicle control controller 6 every 100 ms. In step 24, white line identification parameters (aY, bY, cY) are read from the buffer memory, and in step 25, road road gradient identification parameters (az, bz, cz) are read from the buffer memory. The white line identification parameters (aY, bY, cy) and the road gradient identification parameters (az, bz, cz) are values calculated from the image taken 100 ms before.

【0030】以下のステップ26〜36の処理は車両制
御部62の処理である。ステップ26において、ヨーレ
ートおよび横速度を推定するために、オブザーバーで使
用する観測量として車速センサーから車速V、ヨーレー
トセンサーからヨーレート(dψ/dt)を入力し、さ
らに舵角センサーから制御入力である舵角δを入力す
る。続くステップ27で、2輪モデルを使って設計され
たオブザーバーから、車両のヨーレート(dψc/dt)と
横速度VYを推定する。
The processing of the following steps 26 to 36 is the processing of the vehicle control unit 62. In step 26, in order to estimate the yaw rate and the lateral speed, the vehicle speed V from the vehicle speed sensor, the yaw rate (dψ / dt) from the yaw rate sensor, and the control input from the steering angle sensor are input as the observation quantities used by the observer. Enter the angle δ. In the following step 27, the yaw rate (dψc / dt) and the lateral speed VY of the vehicle are estimated from the observer designed using the two-wheel model.

【数19】 x1 S=A11 S+B11−K11(y1 S−y1) ここで、x1 Sは状態量x1の推定値である。Equation 19] x 1 S = A 1 x 1 S + B 1 u 1 -K 1 C 1 (y 1 S -y 1) where, x 1 S is an estimate of the state quantity x 1.

【数20】 x1=〔γ β〕T=〔dψc/dt VY/V〕T また、y1 Sは状態量y1の推定値である。X 1 = [γ β] T = [dψc / dt VY / V] T Further , y 1 S is an estimated value of the state quantity y 1 .

【数21】y1=〔dψ/dt〕 さらに、u1は入力であり、前輪舵角をδとして、Y 1 = [dψ / dt] Further, u 1 is an input, and δ is a front wheel steering angle.

【数22】u1=〔δ 0〕 となる。なお、A、B1、C1は2輪モデルを状態方程
式、
## EQU22 ## u 1 = [δ 0] T A 1 , B 1 , and C 1 represent the two-wheel model as a state equation,

【数23】 dx1/dt=A11+B11, y1=C11 で記述した時の係数行列であり、K1はオブザーバーゲ
インである。
Equation 23] is a coefficient matrix when written in dx 1 / dt = A 1 x 1 + B 1 u 1, y 1 = C 1 x 1, K 1 is the observer gain.

【0031】ステップ28において、上記ステップ2
4、25で読み出した白線同定パラメーター(aY,b
Y,cY)および道路勾配同定パラメーター(az,bz,
cz)が何10ms前に入力した画像のものであるかを
算出する。処理遅れ時間Tdは、図9に示すように、画
像処理時間Tvとデータ更新待ち時間Thの和である。
In step 28, step 2
The white line identification parameters (aY, b) read out in steps 4 and 25
Y, cY) and road gradient identification parameters (az, bz,
It calculates how many milliseconds before cz) is the image input. The processing delay time Td is the sum of the image processing time Tv and the data update waiting time Th, as shown in FIG.

【数24】Td=Tv+Th 図9において、画像処理時間Tvは、カメラ2が画像を
取り込んでから、その処理結果である白線同定パラメー
ター(aY,bY,cY)を車両制御コントローラー40
が受信するまでの時間で、上述したようにこの実施の形
態では100msである。また、データ更新待ち時間T
hは、車両制御コントローラー40が白線同定パラメー
ター(aY,bY,cY)を受信してから実際にその値を
使用するまでの保持時間である。図9に示す注視点距離
Loは、車速Vが増加している場合の変化を示し、車速
Vの増加に応じて画像処理時間Tvの空想距離が増加し
ている。
Td = Tv + Th In FIG. 9, the image processing time Tv is based on the white line identification parameters (aY, bY, cY) which are the processing results after the camera 2 captures an image.
, Which is 100 ms in this embodiment as described above. The data update waiting time T
h is the holding time from when the vehicle controller 40 receives the white line identification parameters (aY, bY, cY) to when the values are actually used. The fixation point distance Lo shown in FIG. 9 indicates a change when the vehicle speed V increases, and the fantasy distance of the image processing time Tv increases as the vehicle speed V increases.

【0032】ステップ29では、処理遅れ時間Tdと車
速Vとに基づいて図2に示すようにカメラ2から点P
(X,Y,Z)までの注視点距離Loを求める。
In step 29, based on the processing delay time Td and the vehicle speed V, as shown in FIG.
A gazing point distance Lo to (X, Y, Z) is obtained.

【数25】Lo=TsΣV[n−k] ここで、Σはk=0〜(Td−1)までの総和演算を表
わし、Tsはサンプリング間隔10msである。すなわ
ち、注視点距離Loは処理遅れ時間Tdの間に車両1が進
んだ空走距離に等しい。続くステップ30で、道路の勾
配変化による影響を除去するため、注視点距離Loを補
正して疑似注視点距離Lo’を求める。具体的には、数
式4においてXo→Lo’、X→Lo、Z(X)→azLo3
+bzLo2+czと置換することによって、
L = Ts25V [n−k] Here, Σ represents a sum operation from k = 0 to (Td−1), and Ts is a sampling interval of 10 ms. That is, the gazing point distance Lo is equal to the idle running distance of the vehicle 1 during the processing delay time Td. In the following step 30, the gazing point distance Lo is corrected to obtain the pseudo gazing point distance Lo 'in order to remove the influence of the gradient change of the road. Specifically, in Expression 4, Xo → Lo ′, X → Lo, Z (X) → azLo 3
By substituting + bzLo 2 + cz,

【数26】 Lo’=Lo/{1−(azLo3+bzLo2+cz)/Hc}Lo ′ = Lo / {1− (azLo 3 + bzLo 2 + cz) / Hc}

【0033】ステップ31において、白線同定パラメー
ター(aY,bY,cY)に基づいて疑似注視点での白線
の横位置YL’、方向φL’および曲率ρL’を求める。
In step 31, based on the white line identification parameters (aY, bY, cY), the horizontal position YL ', direction φL', and curvature ρL 'of the white line at the pseudo fixation point are obtained.

【数27】 YL’=aYLo’2+bYLo’+cY, tanψL’=2aYLo’+bY, ρL’=2aY/{1+(2aYLo’+bY)23/2 ステップ32では、今求めた白線の横位置YL’、方向
ψL’および曲率ρL’に対して道路の勾配変化分による
影響を除去した補正値(YL,ψL,ρL)を求める。具
体的には数式5〜7を用いて次のように算出する。
YL ′ = aYLo ′ 2 + bYLo ′ + cY, tan ψL ′ = 2aYLo ′ + bY, ρL ′ = 2aY / {1+ (2aYLo ′ + bY) 23/2 In step 32, the horizontal position YL of the white line just obtained is obtained. The correction values (YL, ψL, ρL) are obtained by removing the influence of the road gradient change on the 、, the direction ψL ', and the curvature ρL'. Specifically, it is calculated as follows using Expressions 5 to 7.

【数28】 YL=YL’{1−(azLo3+bzLo2+cz)/Hc}, tanψL=tanψL’+{(Lo’/Hc)tanψL’−YL’
/Hc}(3azLo3+2bzLo), ρL=ρL’(Lo’,YL’,tanψL’,ρL’,3azL
o2+2bzLo,6azLo+2bz)
YL = YL ′ {1- (azLo 3 + bzLo 2 + cz) / Hc}, tanψL = tanψL ′ + {(Lo ′ / Hc) tanψL′−YL ′
/ Hc} (3azLo 3 + 2bzLo), ρL = ρL '(Lo', YL ', tanψL', ρL ', 3azL
o 2 + 2bzLo, 6azLo + 2bz)

【0034】ステップ33で、処理遅れ時間の間の自車
両の移動量として、横移動量ΔYcおよびヨー角変化量
Δψcを求める。具体的な方法としては、横速度VYおよ
びヨーレート(dψc/dt)をそれぞれ積分して求め
る。
In step 33, a lateral movement amount ΔYc and a yaw angle change amount Δψc are obtained as movement amounts of the own vehicle during the processing delay time. As a specific method, the lateral speed VY and the yaw rate (dψc / dt) are obtained by integrating each.

【数29】 ΔYc=TsΣVY[n−k], Δψc=TsΣ(dψc/dt)[n−k] ここで、Σはk=0〜(Td−1)の総和演算を表わ
す。ステップ34では、自車移動量と注視点での白線の
位置/方向の差として、現在の車両の白線に対する横位
置およびヨー角を算出する。
29Yc = TsΣVY [nk], Δψc = TsΣ (dψc / dt) [nk] Here, Σ represents a sum operation of k = 0 to (Td−1). In step 34, the lateral position and the yaw angle of the current vehicle with respect to the white line are calculated as the difference between the moving amount of the vehicle and the position / direction of the white line at the point of interest.

【数30】 Yc=ΔYc−YL, ψc=Δψc−ψLYc = ΔYc−YL, ψc = Δψc−ψL

【0035】ステップ35で、車両が白線の右側を一定
の間隔Wで走行するように操舵角を制御する。すなわ
ち、目標値としては、横位置は−W、ヨー角は0にな
る。制御則としてフィードフォワード制御とフィードバ
ック制御を行ない、フィードフォワード項は道路曲率に
比例するように決定し、フィードバック項はPI制御に
よって決定する。
In step 35, the steering angle is controlled so that the vehicle runs on the right side of the white line at a constant interval W. That is, as the target values, the lateral position is -W and the yaw angle is 0. Feedforward control and feedback control are performed as control rules. The feedforward term is determined so as to be proportional to the road curvature, and the feedback term is determined by PI control.

【数31】δ*=Kρ(V)ρL−(KYP+KYI/s)
(Yc+W)−(KψP+KψI/s)ψc ここで、Kiは各種ゲイン、sはラプラス演算子を表わ
す。特に、フィードフォワード項で曲率にかかるゲイン
(Kρ(V))は、車速によって決る値とする。続くス
テップ36で、今求めた目標舵角になるように操舵アク
チュエータの位置制御を行なう。
Δ * = Kρ (V) ρL− (KYP + KYI / s)
(Yc + W)-(KψP + KψI / s) ψc where Ki represents various gains and s represents a Laplace operator. In particular, the gain (Kρ (V)) related to the curvature in the feedforward term is a value determined by the vehicle speed. In the following step 36, the position of the steering actuator is controlled so as to obtain the target steering angle just obtained.

【0036】なお、上述した実施の形態ではレーンキー
プ装置へ応用し、画像処理で検出した白線位置に対して
勾配変化分を補正する方法を示したが、本発明の応用は
レーンキープ装置に限定されず、車線逸脱警報装置など
の正確な車線位置の情報が必要な装置に広く応用するこ
とができる。また、上述した実施の形態では高さZを距
離Xの3次式として道路勾配を表わす例を示したが、任
意の関数Z=Z(X,Y)としてもよい。さらに、上述
した実施の形態では道路勾配情報の入力源としてナビゲ
ーションシステムを利用する例を示したが、ビーコンな
どの路車間通信を入力源としてもよい。
In the above-described embodiment, the method of correcting the gradient change with respect to the position of the white line detected by the image processing by applying to the lane keeping device has been described. However, the application of the present invention is limited to the lane keeping device. Instead, the present invention can be widely applied to devices that require accurate lane position information, such as a lane departure warning device. Further, in the above-described embodiment, an example has been described in which the height Z is expressed as a cubic expression of the distance X to represent the road gradient, but an arbitrary function Z = Z (X, Y) may be used. Further, in the above-described embodiment, an example in which the navigation system is used as an input source of the road gradient information has been described, but road-vehicle communication such as a beacon may be used as the input source.

【0037】以上の一実施形態の構成において、カメラ
2が撮像手段を、画像処理コントローラー3および車両
制御コントローラー6が白線位置検出手段を、ナビゲー
ション・コントローラー4が位置/方向検出手段、ノー
ド位置検出手段および勾配演算手段を、車両制御コント
ローラー6が補正手段および車両制御手段をそれぞれ構
成する。
In the configuration of the above embodiment, the camera 2 serves as an image pickup means, the image processing controller 3 and the vehicle control controller 6 serve as white line position detecting means, the navigation controller 4 serves as a position / direction detecting means, and the node position detecting means. The vehicle control controller 6 constitutes the correction means and the vehicle control means.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 道路勾配の変化による画面上の道路形状の変
化を説明するための図である。
FIG. 1 is a diagram for explaining a change in road shape on a screen due to a change in road gradient.

【図2】 車両固定座標系XYZにおける撮像カメラか
ら見た実際の道路上の点PとX−Y平面への投影点Po
との関係を示す図である。
FIG. 2 shows a point P on an actual road viewed from an imaging camera in a vehicle fixed coordinate system XYZ and a projection point Po on an XY plane.
FIG.

【図3】 車両固定座標系XYZと撮像カメラの座標系
X’Y’Z’との関係を示す図である。
FIG. 3 is a diagram illustrating a relationship between a vehicle fixed coordinate system XYZ and a coordinate system X′Y′Z ′ of an imaging camera.

【図4】 一実施の形態の構成を示す図である。FIG. 4 is a diagram showing a configuration of an embodiment.

【図5】 一実施の形態の画像処理を示すフローチャー
トである。
FIG. 5 is a flowchart illustrating image processing according to an embodiment.

【図6】 一実施の形態のナビゲーション動作を示すフ
ローチャートである。
FIG. 6 is a flowchart showing a navigation operation according to one embodiment.

【図7】 一実施の形態の車両制御を示すフローチャー
トである。
FIG. 7 is a flowchart showing vehicle control according to one embodiment.

【図8】 図7に続く、一実施の形態の車両制御を示す
フローチャートである。
FIG. 8 is a flowchart following FIG. 7, showing vehicle control of one embodiment.

【図9】 処理遅れ時間を説明するための図である。FIG. 9 is a diagram for explaining a processing delay time.

【符号の説明】[Explanation of symbols]

1 車両 2 カメラ 3 画像処理コントローラー 4 ナビゲーション・コントローラー 5 データ通信部 6 車両制御コントローラー 31 画像メモリ 32 画像処理部 41 記憶装置 42 道路勾配算出部 61 同期信号発生部 62 車両制御部 DESCRIPTION OF SYMBOLS 1 Vehicle 2 Camera 3 Image processing controller 4 Navigation controller 5 Data communication unit 6 Vehicle control controller 31 Image memory 32 Image processing unit 41 Storage device 42 Road gradient calculation unit 61 Synchronization signal generation unit 62 Vehicle control unit

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 車両に搭載され周囲の道路を撮像する撮
像手段と、 前記画像を処理して車両の水平面における白線の位置を
検出する白線位置検出手段と、 車両の現在位置と進行方向を検出する位置/方向検出手
段と、 3次元道路地図データを検索して前記現在位置から前記
進行方向の道路ノードの位置を検出するノード位置検出
手段と、 前記道路ノード位置に基づいて道路勾配を演算する勾配
演算手段と、 前記白線位置を前記道路勾配により補正する補正手段と
を備えることを特徴とする車両用画像処理装置。
1. An image pickup means mounted on a vehicle for imaging surrounding roads; a white line position detection means for processing the image to detect a position of a white line on a horizontal plane of the vehicle; and detecting a current position and a traveling direction of the vehicle. A position / direction detecting means, a node position detecting means for searching three-dimensional road map data and detecting a position of a road node in the traveling direction from the current position, and calculating a road gradient based on the road node position. An image processing apparatus for a vehicle, comprising: a gradient calculating unit; and a correction unit configured to correct the white line position based on the road gradient.
【請求項2】 請求項1に記載の車両用画像処理装置に
おいて、 前記白線位置検出手段により検出される白線位置には、
白線の横位置、方向および曲率が含まれることを特徴と
する車両用画像処理装置。
2. The image processing device for a vehicle according to claim 1, wherein the white line position detected by the white line position detecting means includes:
An image processing apparatus for a vehicle, comprising a horizontal position, a direction, and a curvature of a white line.
【請求項3】 請求項1または請求項2に記載の車両用
画像処理装置において、 前記勾配演算手段は、前記撮像手段による撮像時点の道
路勾配を演算することを特徴とする車両用画像処理装
置。
3. The image processing apparatus for a vehicle according to claim 1, wherein said gradient calculating means calculates a road gradient at the time of image pickup by said image pickup means. .
【請求項4】 請求項1〜3のいずれかの項に記載の車
両用画像処理装置において、 前記白線位置検出手段による白線検出と、前記位置/方
向検出手段、前記ノード位置検出手段および前記勾配演
算手段による勾配演算とを並行して行なうことを特徴と
する車両用画像処理装置。
4. The image processing apparatus for a vehicle according to claim 1, wherein a white line is detected by said white line position detector, said position / direction detector, said node position detector, and said gradient. An image processing apparatus for a vehicle, wherein the gradient calculation by the calculation means is performed in parallel.
【請求項5】 請求項1〜4のいずれかの項に記載の車
両用画像処理装置において、 前記位置/方向検出手段は、衛星航法および/または自
律航法により現在位置および進行方向を検出することを
特徴とする車両用画像処理装置。
5. The vehicular image processing apparatus according to claim 1, wherein the position / direction detection unit detects a current position and a traveling direction by satellite navigation and / or autonomous navigation. An image processing device for a vehicle, comprising:
【請求項6】 請求項1〜5のいずれかの項に記載の車
両用画像処理装置において、 前記補正手段により補正された白線位置に基づいて車両
が車線内を走行するように制御する車両制御手段を備え
ることを特徴とする車両用画像処理装置。
6. The vehicle image processing apparatus according to claim 1, wherein the vehicle is controlled to run in the lane based on the white line position corrected by the correction unit. An image processing apparatus for a vehicle, comprising: means.
【請求項7】 請求項1〜5のいずれかの項に記載の車
両用画像処理装置において、 前記補正手段により補正された白線位置に基づいて車両
が車線内を走行しているかどうかを監視する走行監視手
段を備えることを特徴とする車両用画像処理装置。
7. The vehicular image processing apparatus according to claim 1, wherein whether the vehicle is traveling in a lane is monitored based on the white line position corrected by the correction unit. An image processing apparatus for a vehicle, comprising: a traveling monitoring unit.
【請求項8】 請求項1〜5のいずれかの項に記載の車
両用画像処理装置において、 前記補正手段により補正された白線位置に基づいて車間
距離を一定に保ちながら先行車に追従制御する追従制御
手段を備えることを特徴とする車両用画像処理装置。
8. The vehicle image processing apparatus according to claim 1, wherein the following control is performed on the preceding vehicle while maintaining a constant inter-vehicle distance based on the white line position corrected by the correction unit. An image processing apparatus for a vehicle, comprising a tracking control unit.
JP9194193A 1997-07-18 1997-07-18 Image processor for vehicle Pending JPH1139464A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9194193A JPH1139464A (en) 1997-07-18 1997-07-18 Image processor for vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9194193A JPH1139464A (en) 1997-07-18 1997-07-18 Image processor for vehicle

Publications (1)

Publication Number Publication Date
JPH1139464A true JPH1139464A (en) 1999-02-12

Family

ID=16320505

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9194193A Pending JPH1139464A (en) 1997-07-18 1997-07-18 Image processor for vehicle

Country Status (1)

Country Link
JP (1) JPH1139464A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010063148A (en) * 1999-12-21 2001-07-09 류정열 Roadline Seceded Warning System for different road condition
JP2001322491A (en) * 2000-05-15 2001-11-20 Mitsubishi Electric Corp On-vehicle display method and on-vehicle display
JP2003237509A (en) * 2002-02-13 2003-08-27 Nissan Motor Co Ltd Outside acknowledging device for vehicle
JP2009149286A (en) * 2007-12-18 2009-07-09 Hyundai Motor Co Ltd Economical operation guide system
JP2010221909A (en) * 2009-03-24 2010-10-07 Hitachi Automotive Systems Ltd Traveling environment recognition device and vehicle control device
JP2012185134A (en) * 2011-03-08 2012-09-27 Toyota Central R&D Labs Inc Course estimating device and program
JP2017116450A (en) * 2015-12-25 2017-06-29 株式会社Soken Road curvature measurement device
JP2018024295A (en) * 2016-08-09 2018-02-15 株式会社デンソー Driving support system
KR20220058264A (en) * 2020-10-30 2022-05-09 (주) 오토노머스에이투지 Method and computing device for estimating position of vehicle by referring to information on lane detected from road image obtained by image sensor

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010063148A (en) * 1999-12-21 2001-07-09 류정열 Roadline Seceded Warning System for different road condition
JP2001322491A (en) * 2000-05-15 2001-11-20 Mitsubishi Electric Corp On-vehicle display method and on-vehicle display
JP2003237509A (en) * 2002-02-13 2003-08-27 Nissan Motor Co Ltd Outside acknowledging device for vehicle
JP2009149286A (en) * 2007-12-18 2009-07-09 Hyundai Motor Co Ltd Economical operation guide system
JP2010221909A (en) * 2009-03-24 2010-10-07 Hitachi Automotive Systems Ltd Traveling environment recognition device and vehicle control device
JP2012185134A (en) * 2011-03-08 2012-09-27 Toyota Central R&D Labs Inc Course estimating device and program
JP2017116450A (en) * 2015-12-25 2017-06-29 株式会社Soken Road curvature measurement device
JP2018024295A (en) * 2016-08-09 2018-02-15 株式会社デンソー Driving support system
US10703410B2 (en) 2016-08-09 2020-07-07 Denso Corporation Driver assistance system to compensate for time delays in acquiring the traveling state of a vehicle
KR20220058264A (en) * 2020-10-30 2022-05-09 (주) 오토노머스에이투지 Method and computing device for estimating position of vehicle by referring to information on lane detected from road image obtained by image sensor

Similar Documents

Publication Publication Date Title
US20230360260A1 (en) Method and device to determine the camera position and angle
KR102483649B1 (en) Vehicle localization method and vehicle localization apparatus
CN109887057B (en) Method and device for generating high-precision map
Kim et al. Sensor fusion algorithm design in detecting vehicles using laser scanner and stereo vision
US20140139671A1 (en) Apparatus and method for providing vehicle camera calibration
CN106886222B (en) Control method and device for automated guided vehicle
WO2018182524A1 (en) Real time robust localization via visual inertial odometry
KR102331000B1 (en) Method and computing device for specifying traffic light of interest in autonomous driving system
US20190331496A1 (en) Locating a vehicle
CN111213153A (en) Target object motion state detection method, device and storage medium
JP2018048949A (en) Object recognition device
JP2016517981A (en) Method for estimating the angular deviation of a moving element relative to a reference direction
JP6943127B2 (en) Position correction method, vehicle control method and position correction device
JP5086824B2 (en) TRACKING DEVICE AND TRACKING METHOD
JPH1139464A (en) Image processor for vehicle
JP7198687B2 (en) Ambient environment information generation method and ambient environment information generation device
JP2009139324A (en) Travel road surface detecting apparatus for vehicle
CN114694111A (en) Vehicle positioning
US20210078587A1 (en) Ballistic estimation of vehicle data
JPH1137730A (en) Road shape estimating apparatus
CN113177976A (en) Depth estimation method and device, electronic equipment and storage medium
KR20170127665A (en) System for estimating a vehicle location and method for estimating the vehicle location using the system
US20220214173A1 (en) Self-Position Correction Method and Self-Position Correction Device
Wang et al. Time-to-Contact control for safety and reliability of self-driving cars
CN112528719A (en) Estimation device, estimation method, and storage medium