JP2917681B2 - Road shape measurement device - Google Patents

Road shape measurement device

Info

Publication number
JP2917681B2
JP2917681B2 JP4171240A JP17124092A JP2917681B2 JP 2917681 B2 JP2917681 B2 JP 2917681B2 JP 4171240 A JP4171240 A JP 4171240A JP 17124092 A JP17124092 A JP 17124092A JP 2917681 B2 JP2917681 B2 JP 2917681B2
Authority
JP
Japan
Prior art keywords
road
vehicle
dimensional
image
equation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP4171240A
Other languages
Japanese (ja)
Other versions
JPH0620189A (en
Inventor
千典 農宗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP4171240A priority Critical patent/JP2917681B2/en
Publication of JPH0620189A publication Critical patent/JPH0620189A/en
Application granted granted Critical
Publication of JP2917681B2 publication Critical patent/JP2917681B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、例えば車両の自動操縦
や予防安全運転等のために車両の進行方向前方の道路の
カーブや勾配等の形状を計測する道路形状計測装置に関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a road shape measuring device for measuring the shape of a curve or a slope of a road ahead in the traveling direction of a vehicle, for example, for automatic driving of a vehicle or for safe driving.

【0002】[0002]

【従来の技術】車両の自動操縦や追突防止等の予防安全
運転等のためには、車両の進行方向前方における道路の
形状データである例えば車両の道路端からの距離、道路
方向と車両の方向とのなすヨー角、道路のカーブ曲率で
ある水平曲率、道路の勾配変化である垂直曲率等を精度
良く高速に計測することが必要である。
2. Description of the Related Art In order to perform automatic driving and preventive safe driving such as rear-end collision prevention, the shape data of the road ahead of the traveling direction of the vehicle, for example, the distance from the road edge of the vehicle, the road direction and the direction of the vehicle. It is necessary to accurately and quickly measure the yaw angle, the horizontal curvature, which is the curve curvature of the road, the vertical curvature, which is the gradient change of the road, and the like.

【0003】このような道路の3次元形状データは、車
両に搭載したカメラで撮像した画像から推定している
が、この場合、従来はカメラの道路に対する姿勢のう
ち、カメラの高さ、ピッチ角、ロール角が一定であると
いう仮定のもとに道路の形状データを計測している。
[0003] Such three-dimensional shape data of a road is estimated from an image captured by a camera mounted on a vehicle. In this case, the height and pitch angle of the camera are conventionally determined from the attitude of the camera with respect to the road. The road shape data is measured on the assumption that the roll angle is constant.

【0004】ところで、車両に搭載したカメラは、車両
が走行すると、路面の凹凸等の影響でカメラ姿勢は変動
するが、カメラ姿勢が変動すると、道路の3次元形状デ
ータにも誤差が含まれることになる。しかしながら、実
際には車両が走行すると、路面の段差等の影響でカメラ
姿勢は変動するので、道路の3次元形状データを精度良
く求めるには、カメラの高さ、ピッチ角、ロール角等も
変動するものとしてカメラ姿勢を正確に求めることが必
要である。
[0004] By the way, the camera mounted on the vehicle changes its attitude due to the unevenness of the road surface when the vehicle travels. However, if the attitude of the camera changes, the three-dimensional shape data of the road also includes an error. become. However, when the vehicle actually travels, the camera attitude fluctuates due to the influence of steps on the road surface, etc. Therefore, in order to accurately obtain three-dimensional shape data of the road, the camera height, pitch angle, roll angle, etc. also fluctuate. To do this, it is necessary to accurately determine the camera attitude.

【0005】[0005]

【発明が解決しようとする課題】上述したように、従来
は、カメラの道路に対する姿勢のうち、カメラの高さ、
ピッチ角、ロール角が一定であるとともに、またカーブ
の曲率も一定であるという仮定のもとに道路の3次元形
状データを求めているので、車両が走行して、カメラ姿
勢が変動することにより、計測される道路の3次元形状
データに誤差が含まれるとともに、また曲率の変化する
緩和曲線部やS字カーブ等では推定誤差が避けられず、
道路の形状データを正確に計測することができないとい
う問題がある。
As described above, conventionally, among the postures of a camera with respect to the road, the height of the camera,
Since the three-dimensional shape data of the road is obtained under the assumption that the pitch angle and the roll angle are constant and the curvature of the curve is also constant, the vehicle travels and the camera attitude fluctuates. In addition, errors are included in the measured three-dimensional shape data of the road, and estimation errors are unavoidable in a transition curve portion or an S-shaped curve where the curvature changes,
There is a problem that road shape data cannot be measured accurately.

【0006】本発明は、上記に鑑みてなされたもので、
その目的とするところは、車両に搭載した撮像手段であ
るカメラの姿勢が車両の走行により変動するという条件
を考慮しながら、多次曲線による3次元道路モデルを作
成して道路の3次元形状データを精度良く高速に計測し
得る道路形状計測装置を提供することにある。
[0006] The present invention has been made in view of the above,
The purpose is to create a three-dimensional road model with a polynomial curve while considering the condition that the attitude of a camera, which is an image pickup means mounted on the vehicle, fluctuates due to the running of the vehicle, and to create three-dimensional shape data of the road. It is an object of the present invention to provide a road shape measuring device capable of measuring a road at high speed with high accuracy.

【0007】[0007]

【課題を解決するための手段】上記目的を達成するた
め、本発明の請求項1記載の道路形状計測装置は、図1
に示すように、車両の進行方向前方の道路を撮像する撮
像手段81と、該撮像手段で撮像した画像から車両の進
行方向前方の道路形状を検出する道路形状検出手段83
と、3次元曲線パラメータに基づいて3次元座標上で定
義された3次元道路モデルを演算する道路モデル演算手
段85と、前記道路モデル演算手段で演算された3次元
道路モデルを前記撮像手段の姿勢パラメータに基づいて
画像座標に変換する座標変換手段87と、前記道路形状
検出手段で検出された前記道路形状と前記座標変換手段
で座標変換された前記3次元道路モデルとを比較して、
両者間の位置ずれを検出する位置ずれ検出手段89と、
該位置ずれ検出手段で検出した位置ずれから前記3次元
曲線パラメータの変化量および前記撮像手段の姿勢パラ
メータの変化量を推定し、前記各パラメータを更新する
推定更新手段91とを有することを要旨とする。
In order to achieve the above object, a road shape measuring apparatus according to a first aspect of the present invention is shown in FIG.
As shown in FIG. 7, an image pickup means 81 for picking up an image of a road ahead in the traveling direction of the vehicle, and a road shape detecting means 83 for detecting a road shape ahead of the vehicle in the traveling direction from the image taken by the image pickup means.
A road model calculating means 85 for calculating a three-dimensional road model defined on three-dimensional coordinates based on three-dimensional curve parameters; and a three-dimensional road model calculated by the road model calculating means, Coordinate conversion means 87 for converting to image coordinates based on parameters, and comparing the road shape detected by the road shape detection means with the three-dimensional road model coordinate-converted by the coordinate conversion means,
Displacement detection means 89 for detecting a displacement between the two,
The estimation updating unit 91 for estimating the amount of change of the three-dimensional curve parameter and the amount of change of the attitude parameter of the imaging unit from the positional deviation detected by the positional deviation detecting unit, and updating the parameters. I do.

【0008】[0008]

【作用】本発明の請求項1記載の道路形状計測装置で
は、撮像手段で撮像した画像から車両の進行方向前方の
道路形状を検出し、3次元曲線パラメータに基づいて3
次元座標上で定義された3次元道路モデルを演算し、こ
の3次元道路モデルを撮像手段の姿勢パラメータに基づ
いて画像座標に変換し、前記道路形状と座標変換された
3次元道路モデルとを比較して、両者間の位置ずれを検
出し、この位置ずれから3次元曲線パラメータの変化量
および姿勢パラメータの変化量を推定し、各パラメータ
を更新している。
In the road shape measuring apparatus according to the first aspect of the present invention, the road shape ahead of the vehicle in the traveling direction is detected from the image picked up by the image pickup means, and the road shape is detected based on the three-dimensional curve parameters.
The three-dimensional road model defined on the three-dimensional coordinates is calculated, the three-dimensional road model is converted into image coordinates based on the posture parameters of the imaging means, and the road shape is compared with the coordinate-converted three-dimensional road model. Then, the positional deviation between the two is detected, the amount of change of the three-dimensional curve parameter and the amount of change of the posture parameter are estimated from this positional deviation, and each parameter is updated.

【0009】[0009]

【実施例】以下、図面を用いて本発明の実施例を説明す
る。
Embodiments of the present invention will be described below with reference to the drawings.

【0010】図2は、本発明の一実施例に係わる道路形
状計測装置の全体構成を概略的に示すブロック図であ
る。同図に示す道路形状計測装置は、車両の進行方向前
方の道路を撮像すべく車両に搭載された撮像手段である
カメラ1、該カメラ1で撮像した画像信号を入力し、こ
の入力された画像信号を画像処理する画像処理部3、お
よび該画像処理部3で得られた計測結果である道路の3
次元形状データを表示するとともに、該形状データに基
づいて車両の制御および警報判断等を行う制御部5を有
する。
FIG. 2 is a block diagram schematically showing an entire configuration of a road shape measuring apparatus according to one embodiment of the present invention. The road shape measuring device shown in FIG. 1 is a camera 1 which is an image pickup means mounted on a vehicle for imaging a road ahead in the traveling direction of the vehicle, and inputs an image signal picked up by the camera 1 and receives the input image. An image processing unit 3 that performs image processing on the signal, and a road 3 that is a measurement result obtained by the image processing unit 3
The control unit 5 displays the dimensional shape data, and controls the vehicle and makes an alarm determination based on the shape data.

【0011】図1に示す画像処理部3は、カメラ1で撮
像された2車線道路の画像を連続的に入力され、この画
像からカメラ1の高さ(Dy)、ヨー角(θ)、ピッチ
角(φ)、ロール角(φ)道路端からの距離(Dx)と
いう車速を除くカメラの5軸挙動パラメータに加えて、
道路の水平曲線(ρ)および道路の勾配を表す垂直曲線
(μ)の道路形状パラメータを有する3次元道路構造を
同時にオンラインで推定するものである。更に詳しく
は、本実施例では、水平曲線(ρ)および垂直曲線
(μ)を道路形状パラメータとする3次元道路モデルを
作成するとともに、1画面前のカメラの5軸挙動パラメ
ータに基づいて前記3次元道路モデルを2次元画像に座
標変換し、この変換された2次元道路モデルとカメラ1
で撮像した道路の入力画像との対応関係から、道路形状
パラメータとカメラの挙動パラメータの変化量を推定し
て更新している。なお、道路モデルは折れ線グラフで表
され、道路モデルとカメラからの入力画像との対応は線
対応としている。また、道路形状パラメータとカメラの
挙動パラメータの各パラメータの変化量が小さいと仮定
すると、線形方程式で推定でき、これにより線対応マッ
チングや方程式の作成および解法等の計算が簡単に行え
るので、高速処理に適している。また、前方の道路曲線
は車両の挙動に左右されないので、高精度で求めること
ができる。
An image processing unit 3 shown in FIG. 1 is continuously input with an image of a two-lane road taken by the camera 1, and from this image, the height (Dy), yaw angle (θ), pitch of the camera 1 In addition to the camera's five-axis behavior parameters except the vehicle speed, the angle (φ) and the roll angle (φ), the distance from the road edge (Dx),
A three-dimensional road structure having road shape parameters of a horizontal curve (ρ) of a road and a vertical curve (μ) representing a gradient of the road is simultaneously estimated online. More specifically, in this embodiment, a three-dimensional road model using a horizontal curve (ρ) and a vertical curve (μ) as a road shape parameter is created, and the three-dimensional road model is determined based on the five-axis behavior parameter of the camera one screen before. The two-dimensional road model is coordinate-transformed into a two-dimensional image.
The amount of change in the road shape parameter and the behavior parameter of the camera is estimated and updated from the correspondence relationship with the input image of the road captured in step (1). The road model is represented by a line graph, and the correspondence between the road model and the input image from the camera is a line correspondence. Also, assuming that the amount of change in each parameter of the road shape parameter and the camera behavior parameter is small, it can be estimated by a linear equation. This makes it possible to easily calculate line correspondence matching, equation creation and solution, etc. Suitable for. In addition, since the road curve ahead is not affected by the behavior of the vehicle, it can be obtained with high accuracy.

【0012】図3は、図1に示す画像処理部3の詳細な
構成を示すブロック図である。同図に示すように、画像
処理部3は、前記カメラ1で撮像された画像を入力され
る画像入力部11、この画像入力部11から入力された
画像情報から道路の白線の右端のエッジを検出する前処
理部13、1画面前(前時刻)に推定された道路形状パ
ラメータに基づいて3次元の道路モデルを作成する道路
モデル作成部15、前時刻に推定されたカメラの挙動パ
ラメータを用いて、道路モデル作成部15で作成された
3次元の道路モデルを車両座標系に座標変換し、更に画
像座標系に透視変換する座標変換部17、この座標変換
部17によって画像座標系に座標変換された道路モデル
と前記前処理部13で検出された道路のエッジ画像とを
線対応関係で対応づける線対応マッチング部19、この
線対応マッチング部19によって線対応づけられた画像
の位置ずれを検出し、この位置ずれから道路形状パラメ
ータおよびカメラの挙動パラメータの各パラメータの変
化量を推定するパラメータ推定部21、およびこのパラ
メータ推定部21で推定されたパラメータを更新するパ
ラメータ更新部23から構成されている。
FIG. 3 is a block diagram showing a detailed configuration of the image processing section 3 shown in FIG. As shown in FIG. 1, the image processing unit 3 includes an image input unit 11 to which an image captured by the camera 1 is input, and a right edge of a white line of a road from the image information input from the image input unit 11. A pre-processing unit 13 to be detected, a road model creation unit 15 to create a three-dimensional road model based on a road shape parameter estimated one screen before (previous time), using a camera behavior parameter estimated at the previous time. Then, the three-dimensional road model created by the road model creating unit 15 is coordinate-transformed into the vehicle coordinate system, and further, is perspective-transformed into the image coordinate system, and the coordinate transformation unit 17 transforms the coordinate into the image coordinate system. A line correspondence matching unit 19 for associating the road model thus detected with the edge image of the road detected by the pre-processing unit 13 in a line correspondence relationship. A parameter estimating unit 21 for detecting a displacement of an image and estimating a change amount of each of a road shape parameter and a behavior parameter of a camera from the displacement, and updating a parameter for updating the parameter estimated by the parameter estimating unit 21 It is composed of a part 23.

【0013】前記前処理部13における前処理は、カメ
ラ1で撮像した道路の入力画像から道路の白線のエッジ
を検出するために、入力画像をA(x,y)とし、エッ
ジ画像をG(x,y)とした場合、次式の演算を行い、
エッジ画像を検出する。
In the preprocessing in the preprocessing unit 13, the input image is set to A (x, y) and the edge image is set to G ( x, y), the following calculation is performed, and
Detect an edge image.

【0014】[0014]

【数1】 このような演算式を使用することにより、カーブ路にお
いて遠方の白線はほとんど水平で、線幅も1画素以下で
撮影されてもエッジを抽出することができる。
(Equation 1) By using such an arithmetic expression, an edge can be extracted even if a distant white line is almost horizontal on a curved road and the line width is 1 pixel or less.

【0015】道路モデル作成部15および座標変換部1
7では、前時刻に推定される道路形状パラメータを基に
3次元の道路モデルを作成し、また前時刻に推定される
カメラの挙動パラメータを用いて車両座標系に座標変換
し、更に2次元の画像座標系に透視変換する。なお、本
実施例では、道路のカーブや勾配のパラメータは時間的
に変化するものと考える。カメラ1の焦点距離は既知と
し、また車両の速度成分は推定しないものとする。これ
は白線と平行に移動しても、見かけ上の白線位置は変化
しないためである。従って、推定すべきパラメータは、
前述したカメラ1の高さ(Dy)、ヨー角(θ)、ピッ
チ角(φ)、ロール角(φ)、道路端からの距離(D
x)のカメラの5軸挙動パラメータに加えて、水平曲率
(ρ)および垂直曲率(μ)を含む道路形状パラメータ
である。
The road model creation unit 15 and the coordinate conversion unit 1
In step 7, a three-dimensional road model is created based on the road shape parameters estimated at the previous time, the coordinates are transformed into a vehicle coordinate system using the camera behavior parameters estimated at the previous time, and further two-dimensional. Performs perspective transformation to the image coordinate system. In this embodiment, it is assumed that the parameters of the road curve and gradient change with time. The focal length of the camera 1 is assumed to be known, and the speed component of the vehicle is not estimated. This is because the apparent position of the white line does not change even if it moves parallel to the white line. Therefore, the parameters to be estimated are
The height (Dy), yaw angle (θ), pitch angle (φ), roll angle (φ), distance from the road edge (D
Road shape parameters including horizontal curvature (ρ) and vertical curvature (μ) in addition to the 5-axis behavior parameters of the camera x).

【0016】まず、座標系について図4を参照して説明
する。座標系としては、道路座標系(X,Y,Z)、車
両座標系(U,V,W)および2次元の画像座標系
(x,y)の3つの座標系を定義する。
First, the coordinate system will be described with reference to FIG. As the coordinate system, three coordinate systems are defined: a road coordinate system (X, Y, Z), a vehicle coordinate system (U, V, W), and a two-dimensional image coordinate system (x, y).

【0017】道路座標系(X,Y,Z)は、現在車両が
置かれている地点を基準に道路の形状を表すものであ
り、図4に示すように、道路中央の路面上に原点を取
り、道路接続および路面と平行で車両の進行方向にZ
軸、左方向に路面と平行にX軸、路面と垂直で上方にY
軸を取る右手系である。なお、カメラ1のレンズの中心
は常にZ=0の位置にあるものとする。
The road coordinate system (X, Y, Z) represents the shape of the road based on the point where the vehicle is currently located. As shown in FIG. 4, the origin is located on the road surface at the center of the road. Take the road connection and Z parallel to the road surface
Axis, X axis parallel to the road surface to the left, Y upward perpendicular to the road surface
Right-handed system with axis. It is assumed that the center of the lens of the camera 1 is always at the position of Z = 0.

【0018】車両座標系(U,V,W)は、カメラ1の
レンズの中心を原点とし、該レンズの主軸方向にW軸、
撮像面と平行にU軸およびV軸を取る右手系である。
The vehicle coordinate system (U, V, W) has the origin at the center of the lens of the camera 1, the W axis in the main axis direction of the lens,
This is a right-handed system that takes the U axis and the V axis in parallel with the imaging surface.

【0019】画像座標系(x,y)は、撮像面上で定義
され、x軸がU軸と平行、y軸がV軸と平行で、それぞ
れ逆向きであるものとする。
The image coordinate system (x, y) is defined on the imaging plane, and the x-axis is parallel to the U-axis, and the y-axis is parallel to the V-axis, which are opposite to each other.

【0020】また、車両座標系で表された3次元空間上
の点P(U,V,W)は、画像上の画像座標系で次式の
ように透視変換されて表される。
A point P (U, V, W) in the three-dimensional space represented by the vehicle coordinate system is perspectively transformed and represented by the following equation in the image coordinate system on the image.

【0021】 x=−F・U/W y=−F/V/W (1) 但し、Fはカメラ1のレンズの焦点距離である。X = −F · U / W y = −F / V / W (1) where F is the focal length of the lens of the camera 1.

【0022】道路座標系と車両座標系との関係が車両の
挙動、すなわちカメラ1の姿勢に対応する。以下、カメ
ラ1の道路端からの距離をDx、カメラ1の高さをD
y、ヨー角をθ、ピッチ角をφ、ロール角をφで表す。
The relationship between the road coordinate system and the vehicle coordinate system corresponds to the behavior of the vehicle, that is, the attitude of the camera 1. Hereinafter, the distance of the camera 1 from the road edge is Dx, and the height of the camera 1 is D.
y, the yaw angle is represented by θ, the pitch angle is represented by φ, and the roll angle is represented by φ.

【0023】車両座標系は、まず道路座標系で(Dx,
Dy,0)だけ平行移動した後、ヨー角θ、ピッチ角
φ、ロール角φの順で回転させる。なお、ヨー角θは、
W軸をXZ平面に射影した時のZ軸とのなす角度であ
り、ピッチ角φはW軸とXZ平面との角度であり、ロー
ル角φはW軸回りの回転角でU軸とXZ平面との角度で
ある。回転マトリックスをRとすると、道路座標系で表
された点は、次式により車両座標系へ変換される。
In the vehicle coordinate system, first, (Dx,
(Dy, 0), and then rotate in the order of yaw angle θ, pitch angle φ, and roll angle φ. Note that the yaw angle θ is
The pitch angle φ is the angle between the W axis and the XZ plane when the W axis is projected onto the XZ plane, the pitch angle φ is the angle between the W axis and the XZ plane, and the roll angle φ is the rotation angle about the W axis and the U axis and the XZ plane. And the angle. Assuming that the rotation matrix is R, the point represented by the road coordinate system is converted to the vehicle coordinate system by the following equation.

【0024】[0024]

【数2】 次に、道路モデル作成部15で作成される道路モデルに
ついて説明する。
(Equation 2) Next, a road model created by the road model creating unit 15 will be described.

【0025】道路は、横断曲線(カーブ)と縦断曲線
(勾配)に分けて構造が決定されている。横断道路は曲
率一定の円弧部、直線部、およびこれらを滑らかに結ぶ
ための緩和曲線部によって定義される。また、縦断曲線
は一定勾配である直線部を放物線によって滑らかに結ぶ
ものとされている。
The structure of a road is determined by dividing it into a transverse curve (curve) and a vertical curve (gradient). A crossing road is defined by an arc portion having a constant curvature, a straight line portion, and a transition curve portion for smoothly connecting these portions. In addition, the longitudinal curve smoothly connects straight lines having a constant slope by a parabola.

【0026】3次元の道路座標上では、横断曲線、縦断
曲線ともに多次曲線によって近似される。そして、路面
上に描かれた白線の道路座標系における座標は次式のよ
うに定義される。
On the three-dimensional road coordinates, both the transverse curve and the longitudinal curve are approximated by a multi-dimensional curve. The coordinates of the white line drawn on the road surface in the road coordinate system are defined by the following equation.

【0027】 X=f(Z)=aZ4 +bZ3 +cZ2 +B Y=g(Z)=dZ3 +eZ2 (4) ここで、Bは、道路中心から白線までの距離を表し、3
車線道路の場合には、左の白線に対してはBは正の定数
であり、中央に対しては0である。a〜eは求める道路
形状パラメータである。なお、水平方向の式f(Z)を
4次式としたのは、S字カーブにも対応するためであ
る。
X = f (Z) = aZ 4 + bZ 3 + cZ 2 + BY Y = g (Z) = dZ 3 + eZ 2 (4) where B represents the distance from the road center to the white line.
For a lane road, B is a positive constant for the left white line and 0 for the center. a to e are required road shape parameters. The reason why the horizontal expression f (Z) is a quartic expression is to cope with an S-shaped curve.

【0028】また、道路の水平曲率ρおよび垂直曲率μ
は、次式で表される。
The horizontal curvature ρ and the vertical curvature μ of the road are
Is represented by the following equation.

【0029】[0029]

【数3】 特に、Z=0の付近の曲率は、水平曲率ρ=2cおよび
垂直曲率μ=2eである。
(Equation 3) In particular, the curvature near Z = 0 is a horizontal curvature ρ = 2c and a vertical curvature μ = 2e.

【0030】このようにして、N点からなる道路モデル
を作成するZi(i=1〜N)を与えれば、白線の3次
元座標を計算することができる。また、Zの地点の曲率
を求めることも可能である。
In this way, if Zi (i = 1 to N) for creating a road model composed of N points is given, the three-dimensional coordinates of the white line can be calculated. It is also possible to obtain the curvature at the point Z.

【0031】上述した式(4)で示した道路形状パラメ
ータa,b,c,d,eを前画面(前時刻)から得て、
道路モデルを作成し、この道路モデルを前時刻における
カメラ1の挙動パラメータに基づく車両座標系に変換す
る。そして、道路モデル上の各点が現画面(現時刻)で
どう移動するかを観測することによって、車両座標系に
おける挙動変動量および道路パラメータの変動量を求め
る。すなわち、道路モデル上の点(x,y)が現画面で
(Δx,Δy)だけ変動したとし、この変動Δx,Δy
がカメラの挙動パラメータの変動と道路形状パラメータ
の変動とに起因すると考えて、各パラメータの変動量と
ΔxおよびΔyとの関係を導く。なお、パラメータは各
時刻毎に変動量を積分することになるが、モデルを基準
とした変動量であるので、誤差の蓄積はない。
The road shape parameters a, b, c, d and e shown in the above equation (4) are obtained from the previous screen (previous time).
A road model is created, and this road model is converted into a vehicle coordinate system based on the behavior parameters of the camera 1 at the previous time. Then, by observing how each point on the road model moves on the current screen (current time), the behavior fluctuation amount and the road parameter fluctuation amount in the vehicle coordinate system are obtained. That is, it is assumed that the point (x, y) on the road model has changed by (Δx, Δy) on the current screen, and the change Δx, Δy
Is derived from the fluctuation of the behavior parameter of the camera and the fluctuation of the road shape parameter, and the relationship between the fluctuation amount of each parameter and Δx and Δy is derived. Note that the parameter is obtained by integrating the variation at each time, but since the variation is based on the model, no error is accumulated.

【0032】パラメータの変動によって画像上の道路モ
デル上の点(x,y)が(x’,y’)に移動したと考
え、点の移動量を(Δx,Δy)とすると、次式で表さ
れる。
Assuming that the point (x, y) on the road model on the image has moved to (x ', y') due to the change in the parameters, and the movement amount of the point is (Δx, Δy), the following equation is obtained. expressed.

【0033】 x’=x+Δx y’=y+Δy (5) カメラの挙動パラメータの変動を車両座標系での点の移
動として考える。すなわち、車両座標系で挙動変動量を
求め、前時刻の挙動パラメータと合成することにより、
現時刻におけるカメラの挙動パラメータに変換し、次時
刻で更に新たな車両座標系を作成する。なお、挙動変動
量を道路座標系でなく、車両座標系で求めるのは、回転
角が常に0からの変動となるため、近似の精度を維持し
ながら線形解を求められるからである。
X ′ = x + Δx y ′ = y + Δy (5) The change in the behavior parameter of the camera is considered as the movement of a point in the vehicle coordinate system. That is, by calculating the behavior variation amount in the vehicle coordinate system and combining it with the behavior parameter at the previous time,
It is converted into the camera behavior parameters at the current time, and a new vehicle coordinate system is created at the next time. The reason why the behavior fluctuation amount is obtained not in the road coordinate system but in the vehicle coordinate system is that the rotation angle always fluctuates from 0, so that a linear solution can be obtained while maintaining the approximation accuracy.

【0034】車両座標系において、点P(U,V,W)
が点P’(U’,V’,W’)に移動するとすると、
In the vehicle coordinate system, a point P (U, V, W)
Moves to the point P '(U', V ', W'),

【数4】 で表される。なお、DU ,DU は平行移動成分であり、
α,β,γはそれぞれV軸、U軸、W軸回りの回転角で
ある。但し、各パラメータの値は、十分小さいものと
し、sinδ=δ,cosδ=1,sinα=α,co
sα=1,sinβ=β,cosβ=1,sinγ=
γ,cosγ=1とすると共に、2次以上の項は無視し
た。
(Equation 4) It is represented by D U and D U are translation components, and
α, β, and γ are rotation angles around the V axis, U axis, and W axis, respectively. However, the value of each parameter is assumed to be sufficiently small, sin δ = δ, cos δ = 1, sin α = α, co
sα = 1, sinβ = β, cosβ = 1, sinγ =
γ, cosγ = 1, and terms of second and higher order were ignored.

【0035】(6)式と(1)式とから、次式が得られ
る。
From the equations (6) and (1), the following equation is obtained.

【0036】[0036]

【数5】 各挙動パラメータの微小変動による画像座標の変動は、
(5)式のTaler展開の1次の項から次式のように
表される。
(Equation 5) Variations in image coordinates due to minute variations in each behavior parameter are:
From the first-order term of the Taler expansion of the equation (5), it is expressed as the following equation.

【0037】[0037]

【数6】 (8)式から、α,β,γ=0なる条件を近似的に計算
すると、次式に示すようにカメラの挙動パラメータの変
動分が得られる。
(Equation 6) When the condition of α, β, γ = 0 is approximately calculated from the expression (8), the variation of the behavior parameter of the camera is obtained as shown in the following expression.

【0038】[0038]

【数7】 次に、道路パラメータの変動分について考える。上述し
た(2)〜(4)式から、 U=R11(X−Dx )+R12(Y−DY )+R13Z V=R21(X−Dx )+R22(Y−DY )+R23Z X=f(Z),Y=g(Z) であるので、これを(8)式に代入するとともに、また
α,β,γ=0とおいて
(Equation 7) Next, the variation of the road parameter will be considered. From the above equations (2) to (4), U = R 11 (X−D x ) + R 12 (Y−D Y ) + R 13 Z V = R 21 (X−D x ) + R 22 (Y−D Y) ) + R 23 Z X = f (Z), Y = g (Z), so that this is substituted into equation (8), and α, β, γ = 0

【数8】 を計算すると、次式に示すように道路パラメータの変動
分が得られる。
(Equation 8) Is calculated, the variation of the road parameter is obtained as shown in the following equation.

【0039】[0039]

【数9】 従って、(9)式と(10)式を加算すると、カメラの
挙動パラメータと道路パラメータによる画像上での点の
移動量の関係式が得られる。
(Equation 9) Therefore, when the expressions (9) and (10) are added, a relational expression of the movement amount of the point on the image based on the camera behavior parameter and the road parameter is obtained.

【0040】[0040]

【数10】 次に、線対応マッチング部19における線対応マッチン
グについて説明する。
(Equation 10) Next, line matching in the line matching unit 19 will be described.

【0041】モデルを用いたカメラ姿勢の推定手法に
は、点対応と線対応とがあるが、本実施例では線対応、
すなわち道路モデルにおける接線と画面中から抽出され
る白線の線成分とを対応づける。白線は滑らかな曲線で
あるので、点の対応は困難であるからである。
The camera posture estimating method using the model includes point correspondence and line correspondence.
That is, the tangent line in the road model is associated with the line component of the white line extracted from the screen. This is because the white line is a smooth curve and it is difficult to correspond to points.

【0042】対応付けには画像の探索が必要であるが、
ここでは同一x軸または同一y軸上を走査する。探索処
理が簡単化できるため、高速化につながるからである。
x軸走査かy軸走査かの選択は、対応付けする線の傾き
の大きさに応じて行う。
Although the search requires searching for an image,
Here, scanning is performed on the same x axis or the same y axis. This is because the search process can be simplified, which leads to a higher speed.
Selection between x-axis scanning and y-axis scanning is made according to the magnitude of the slope of the associated line.

【0043】画像座標系における道路モデル上の点P
(x,y)における接線の傾きをωで表し、ωを
A point P on the road model in the image coordinate system
The slope of the tangent at (x, y) is represented by ω, and ω is

【数11】 で定義すると、ωは次式で計算される。[Equation 11] Is calculated by the following equation.

【0044】[0044]

【数12】 現時刻の白線は、点P付近の点P’(x’,y’)でモ
デルと同じωなる傾きを有すると仮定する。すなわち、
傾きの変化はないものとする。前時刻で求められたモデ
ルが現時刻で白線位置まで移動したと考える。この場合
の道路モデルと白線との関係は図5に示すようになる。
同一x軸上の移動量をpとし、同一y軸上の移動量をq
とすると、ΔxとΔyとの関係は、 Δx/p+Δy/q=1 であり、更に q/p=−ω であるから、 Δx−Δy/ω−p=0 (13a) または −ωΔx+Δy−q=0 (13b) が得られる。上式は直線の座標軸方向の(見かけの)移
動量と実際の移動量の関係を表す。|ω|が大きい時
(垂直に近い場合)は、(13a)式が使用され、|ω
|が小さい時(水平に近い場合)は、(13b)式が使
用される。
(Equation 12) It is assumed that the white line at the current time has the same inclination of ω as that of the model at a point P ′ (x ′, y ′) near the point P. That is,
It is assumed that there is no change in the inclination. It is assumed that the model obtained at the previous time has moved to the position of the white line at the current time. The relationship between the road model and the white line in this case is as shown in FIG.
Let p be the amount of movement on the same x axis and q be the amount of movement on the same y axis.
Then, the relationship between Δx and Δy is Δx / p + Δy / q = 1 and q / p = −ω, so that Δx−Δy / ω−p = 0 (13a) or −ωΔx + Δy−q = 0 (13b) is obtained. The above equation represents the relationship between the (apparent) movement amount in the direction of the coordinate axis of the straight line and the actual movement amount. When | ω | is large (close to vertical), equation (13a) is used, and | ω |
When | is small (close to horizontal), equation (13b) is used.

【0045】道路モデル上のいくつかの点でPi(x
i,yi)とωiを計算し、入力画像上における点との
対応からpiまたはqiを求め、最小二乗法を適用すれ
ば、連立方程式が得られ、各パラメータの変化量が算出
される。
At some points on the road model, Pi (x
i, yi) and ωi are calculated, pi or qi is obtained from the correspondence with points on the input image, and the least-squares method is applied to obtain simultaneous equations, and the amount of change of each parameter is calculated.

【0046】評価誤差は、上述した(11)式および
(13)式から次式で求められる。
The evaluation error is obtained by the following equation from the above-described equations (11) and (13).

【0047】[0047]

【数13】 但し(Equation 13) However

【数14】 次に、本実施例の作用を説明する。[Equation 14] Next, the operation of the present embodiment will be described.

【0048】まず、道路モデル作成部15において、N
点からなる道路モデルを作成する。そして、前時刻のカ
メラの挙動パラメータ(Dx,Dy,θ,φ,φ)の推
定結果から、(3)式の変換行列を作成する。それか
ら、前時刻の道路形状パラメータ(a,b,c,d,
e)から(4)式に基づいて道路座標系(X,Y,Z)
で道路モデルの3次元座標を計算する。すなわち、前時
刻の道路形状パラメータ(a,b,c,d,e)から
(4)式にZ=Zi(i=1〜N)とおくことによって
道路モデルの点列を作成する。次に、前時刻のカメラの
挙動パラメータ(Dx,Dy,θ,φ,φ)により
(2)式で車両座標系(U,V,W)に変換し、更に
(1)式で画像座標系(x,y)に変換し、座標(x
i,yi)(i=1〜N)を得る。また、(12)式で
接線の傾きωを計算する。なお、各座標変換は、座標変
換部17で行われる。
First, in the road model creation unit 15, N
Create a road model consisting of points. Then, from the estimation result of the behavior parameters (Dx, Dy, θ, φ, φ) of the camera at the previous time, a conversion matrix of Expression (3) is created. Then, the road shape parameters (a, b, c, d,
e) to road coordinate system (X, Y, Z) based on equation (4)
Calculates the three-dimensional coordinates of the road model. That is, a point sequence of a road model is created by setting Z = Zi (i = 1 to N) in equation (4) from the road shape parameters (a, b, c, d, e) at the previous time. Next, it is transformed into the vehicle coordinate system (U, V, W) by the equation (2) according to the camera behavior parameters (Dx, Dy, θ, φ, φ) at the previous time, and further, by the equation (1). (X, y) and convert the coordinates (x
i, yi) (i = 1 to N). Further, the inclination ω of the tangent is calculated by the equation (12). Each coordinate conversion is performed by the coordinate conversion unit 17.

【0049】道路モデルから算出される値は、(14)
式に現れているZi,Ui,Vi,Wi,ωiおよびx
i,yi(i=1〜N)である。このうち、Ziは道路
座標上で例えば3メートル間隔と予め定めておく。すな
わち、Ziを与えれば、(14)式中のAri(r=1
〜10)の値が定まる。次に、入力画像とのマッチング
を行い、Biを求める。
The value calculated from the road model is (14)
Zi, Ui, Vi, Wi, ωi and x appearing in the equation
i, yi (i = 1 to N). Among them, Zi is predetermined on the road coordinates, for example, at an interval of 3 meters. That is, if Zi is given, Ari (r = 1) in equation (14)
To 10) are determined. Next, Bi is obtained by performing matching with the input image.

【0050】線対応マッチング部19は、画像入力部1
1を介してカメラ1から得られる入力画像であるエッジ
画像とモデル点接続との線対応マッチングを行う。|ω
i|≧1のとき(垂直に近い場合)は、各モデル点(x
i,yi)を中心にx軸方向に探索して、piを求め、
|ωi|<1のとき(水平に近い場合)は、y軸方向に
探索して、qiを求める。
The line correspondence matching section 19 is provided with the image input section 1
1 performs line correspondence matching between an edge image, which is an input image obtained from the camera 1, and a model point connection. | ω
When i | ≧ 1 (close to vertical), each model point (x
i, yi) is searched in the x-axis direction to obtain pi,
When | ωi | <1 (close to horizontal), search in the y-axis direction to obtain qi.

【0051】|ωi|≧1のときは、点(xi,yi)
を中心に幅Mx 、高さMy なるウインドウを考える。こ
の中で、傾きωiの直線を発生させ、直線上のエッジ濃
度の和が最も大きい直線を選択し、直線のx座標値とx
iとの差をpiとする。すなわち、
When | ωi | ≧ 1, the point (xi, yi)
Width in the center of the M x, consider the height M y become window. Among them, a straight line having a gradient ωi is generated, and a straight line having the largest sum of the edge densities on the straight line is selected.
The difference from i is pi. That is,

【数15】 を求め、Ci(τ)の最大値近傍で重心を求め、piと
する。また、この時のCi(τ)の値は確からしさを表
すので、あらためてCiとおく。
(Equation 15) Is obtained, and the center of gravity is obtained near the maximum value of Ci (τ), which is defined as pi. Since the value of Ci (τ) at this time represents certainty, it is set to Ci again.

【0052】また、|ωi|<1の場合も同様にqiを
求める。なお、幅Mx ,高さMy については数画素が適
当である。
When | ωi | <1, qi is similarly obtained. Note that the number of pixels is suitable for a width M x, height M y.

【0053】以上のようにして、(14)式で示す評価
誤差のすべての係数が求められるので、最小二乗法を適
用することにより、各パラメータをパラメータ推定部2
1において推定することができる。
As described above, all the coefficients of the evaluation error represented by the equation (14) are obtained.
1 can be estimated.

【0054】ここで、別の誤差尺度を考える。1つは道
路パラメータが時間的に大きく変動しないことを利用す
るものである。すなわち、Δa〜Δeは0に近いといえ
る。そこで、 EG1=Δa,EG2=Δb,EG3=Δc, EG4=Δd,EG5=Δe,EG5〜EG10 =0(15) として、それぞれの重みをGr(r=1〜5)を定数と
して定義する。
Here, another error measure is considered. One is to use the fact that road parameters do not fluctuate greatly over time. That is, it can be said that Δa to Δe are close to 0. Therefore, E G1 = Δa, E G2 = Δb, E G3 = Δc, E G4 = Δd, E G5 = Δe, E as G5 ~E G10 = 0 (15) , each of the weight Gr (r = 1 to 5 ) Is defined as a constant.

【0055】もう1つの誤差は、曲率に関するものであ
る。道路パラメータcとeはZ=0の地点の曲率の1/
2である。車両も速度が既知で、速度v(m(メート
ル)/1画面時間)で走行しているとすると、t画面前
のZ=vtの地点の曲率が現画面のZ=0の曲率になる
はずである。従って、
Another error relates to curvature. The road parameters c and e are 1 / curvature at the point where Z = 0.
2. Assuming that the vehicle has a known speed and is traveling at a speed v (m (meter) / 1 screen time), the curvature at the point of Z = vt before the t screen should be the curvature of Z = 0 on the current screen. It is. Therefore,

【数16】 但し(Equation 16) However

【数17】 とすることができる。なお、ck-1 およびek-1 はそれ
ぞれ前画面の結果である。また、ρk-1 およびμk-1
t画面前の結果から得られる曲率である。
[Equation 17] It can be. Note that c k−1 and e k−1 are the results of the previous screen, respectively. Further, ρ k−1 and μ k−1 are curvatures obtained from the result before t screens.

【0056】各パラメータは最小二乗法で推定される。
すなわち、
Each parameter is estimated by the method of least squares.
That is,

【数18】 を最小化するように上式を各変数で微分し、それぞれ0
とおく。なお、HρおよびHμは重み定数である。この
ようにして、次に示す10元連立1次方程式
(Equation 18) Differentiate the above equation with each variable so as to minimize
far. Note that Hρ and Hμ are weight constants. In this way, the following 10-element simultaneous linear equation

【数19】 が作成される。ここで、l(Lの小文字)は1〜10で
あり、m=1〜10である。
[Equation 19] Is created. Here, 1 (lowercase letter L) is 1 to 10, and m = 1 to 10.

【0057】この10元連立1次方程式は容易に解くこ
とができる。
This 10-element simultaneous linear equation can be easily solved.

【0058】以上のようにして、パラメータ推定部21
において最小二乗法により各パラメータの変化量が計算
されると、これらの結果を基にカメラの挙動パラメータ
(Dx,Dy,θ,φ,φ)および道路形状パラメータ
(a,b,c,d,e)がパラメータ更新部23におい
て更新される。なお、前時刻のパラメータを添字k−1
で表し、更新されたパラメータを添字kで表す。
As described above, the parameter estimating section 21
, The change amount of each parameter is calculated by the least squares method. Based on these results, the camera behavior parameters (Dx, Dy, θ, φ, φ) and road shape parameters (a, b, c, d, e) is updated in the parameter update unit 23. The parameter at the previous time is represented by a subscript k-1.
, And the updated parameter is represented by a subscript k.

【0059】まず、道路形状パラメータa,b,c,
d,eは、Δa〜Δeをそのまま加えればよい。すなわ
ち、次式に示すようになる。
First, the road shape parameters a, b, c,
As for d and e, Δa to Δe may be added as they are. That is, the following equation is obtained.

【0060】 a(k) =a(K-1) +Δa,b(k) =b(K-1) +Δb, c(k) =c(K-1) +Δc,d(k) =d(K-1) +Δd, e(k) =e(K-1) +Δe また、カメラの挙動パラメータDx,Dy,θ,φ,φ
は、以下のように更新される。(6)式中のパラメータ
(DU ,DU ,α,β,γ)はk−1においてすべて0
とみなせるので、DU =ΔDU ,DU =ΔDU ,α=Δ
α,β=Δβ,γ=Δγとおく。(2)式を(6)式に
代入すると、
A (k) = a (K−1) + Δa, b (k) = b (K−1) + Δb, c (k) = c (K−1) + Δc, d (k) = d (K -1) + Δd, e (k) = e (K-1) + Δe Further, the camera behavior parameters Dx, Dy, θ, φ, φ
Is updated as follows. The parameters (D U , D U , α, β, γ) in the equation (6) are all 0 at k−1.
D U = ΔD U , D U = ΔD U , α = Δ
α, β = Δβ, γ = Δγ. Substituting equation (2) into equation (6) gives

【数20】 となる。カメラの挙動パラメータの更新により、 (U,V,W)=(U’,V’,W’) とすればよい。(2)式と(16)式を比較することに
より、
(Equation 20) Becomes By updating the behavior parameters of the camera, (U, V, W) = (U ′, V ′, W ′). By comparing the expressions (2) and (16),

【数21】 にて求められる。なお、R-1=RT なる関係式を用い
た。θ(k) ,φ(k) ,φ(k ) は(2)式中のR31(k)
32(k) ,R12(k) から容易に求められる。
(Equation 21) Is required. Note that a relational expression of R -1 = RT was used. θ (k) , φ (k) , φ (k ) are R 31 (k) ,
It is easily obtained from R32 (k) and R12 (k) .

【0061】以上のようにして、各パラメータは更新さ
れるが、出力は(4)’から求められる前方Zにおける
カーブと勾配のそれぞれの曲率、すなわち水平曲率
(ρ)および垂直曲率(μ)、および車両の挙動、すな
わちカメラの挙動パラメータ(Dx,Dy,θ,φ,
φ)である。カメラの挙動パラメータのうち、道路に対
する道路端からの距離Dxおよびヨー角θについては自
動操縦や予防安全における車線逸脱警報に重要である。
As described above, each parameter is updated, but the output is the respective curvatures of the curve and gradient in the forward Z obtained from (4) ′, that is, the horizontal curvature (ρ) and the vertical curvature (μ), And the behavior of the vehicle, ie, the behavior parameters of the camera (Dx, Dy, θ, φ,
φ). Among the behavior parameters of the camera, the distance Dx from the road edge to the road and the yaw angle θ are important for lane departure warning in automatic driving and preventive safety.

【0062】図6は、上述した本発明の道路形状計測装
置を利用した追突警報装置の構成を示すブロック図であ
る。同図に示す追突警報装置は、カメラ1で撮像した車
両の進行方向前方の画像を本発明の道路形状計測装置1
00に供給する。該道路形状計測装置100はカメラ1
からの画像情報から車両の前方の道路形状および自車両
の位置に関する情報を判断部53に供給する。
FIG. 6 is a block diagram showing the configuration of a rear-end collision warning device using the above-described road shape measuring device of the present invention. The rear-end collision warning device shown in FIG.
Supply to 00. The road shape measuring device 100 includes a camera 1
The information on the road shape ahead of the vehicle and the position of the host vehicle is supplied to the determination unit 53 from the image information from the vehicle.

【0063】また、図6に示す装置は、前方の車両を検
出し、該車両までの距離と方向を検出するものとして、
スキャニングレーザレーダ51を使用しており、該スキ
ャニングレーザレーダ51で検出した前車両の位置情報
を前記判断部53に供給する。判断部53は、道路形状
計測装置100から供給される道路形状および自車両の
位置情報とスキャニングレーザレーダ51から供給され
る前車両の位置情報から前車両と自車両とが同じ車線か
否かを判断するとともに、同じ車線であって、両車両の
間の距離が所定値以下に近づいた場合、警報信号を警報
装置55に供給し、例えばブザー、チャイム、音声等で
警報信号を発生する。
The device shown in FIG. 6 detects a vehicle ahead and detects the distance and direction to the vehicle.
The scanning laser radar 51 is used, and the position information of the preceding vehicle detected by the scanning laser radar 51 is supplied to the determination unit 53. The determination unit 53 determines whether the preceding vehicle and the own vehicle are in the same lane based on the road shape and the position information of the own vehicle supplied from the road shape measuring device 100 and the position information of the preceding vehicle supplied from the scanning laser radar 51. When the judgment is made, when the distance between the two vehicles is close to or less than a predetermined value in the same lane, an alarm signal is supplied to the alarm device 55, and an alarm signal is generated by, for example, a buzzer, a chime, a voice, or the like.

【0064】なお、前車両が自車両と同じ車線を走行し
ているか否かの判断は、前車両の自車両に対する位置が
(Xs,Y=0,Zs)として求まったとして、道路パ
ラメータの水平情報、(4)式においてB=0、すなわ
ち Xp=f(Zs)=aZs4 +bZs3 +cZs2 が道路中央のX座標であるから、 Xp+B>Xs>Xp の場合は、左車線 Xp−B<Xs<Xp の場合は、右車線 を走行していると判断できる。自車両の位置はDx で与
えられ、 Dx >0 の場合には、左車線 Dx <0 の場合には、右車線 である。そして、同一車線を走行していて、かつZsが
所定の距離以下まで近づいた場合に、上述したように警
報を発生すればよい。なお、例えばXs<Xp+B(車
線幅)の場合には、路側帯の障害物と判断できる。S字
道路でも正確な判断を行うことができる。
It is to be noted that whether or not the preceding vehicle is traveling in the same lane as the own vehicle is determined by assuming that the position of the preceding vehicle with respect to the own vehicle has been obtained as (Xs, Y = 0, Zs). information, (4) B = 0 in the equation, i.e. from Xp = f (Zs) = aZs 4 + bZs 3 + cZs 2 is a road center in the X-coordinate, in the case of Xp + B>Xs> Xp, left lane Xp-B < If Xs <Xp, it can be determined that the vehicle is traveling in the right lane. Position of the vehicle is given by D x, in the case of D x> 0, when the left lane D x <0 is the right lane. Then, when the vehicle is traveling in the same lane and Zs approaches a predetermined distance or less, an alarm may be generated as described above. For example, in the case of Xs <Xp + B (lane width), it can be determined that the obstacle is a roadside obstacle. Accurate judgment can be made even on an S-shaped road.

【0065】図7は、上述した本発明の道路形状計測装
置を利用した車線逸脱警報装置の構成を示すブロック図
である。同図に示す車線逸脱警報装置は、カメラ1で撮
像した車両の進行方向前方の画像を本発明の道路形状計
測装置100に供給する。該道路形状計測装置100は
カメラ1からの画像情報から車両の前方の道路形状およ
び自車両の位置に関する情報を判断部57に供給する。
また、該判断部57には、車両の方向指示器であるウイ
ンカ59からの方向変更信号が供給されている。今、例
えば車両が左車線を走行しているとして、車両が例えば
ウインカ59を出さずに、上述した道路端からの距離D
xがBより大きくなったり(Dx >B)、またはゼロよ
りも小さくなった場合(Dx <0)には、自車線を逸脱
したと見なし、判断部57は警報装置55に警報信号を
供給し、該警報装置55から警報を発生する。
FIG. 7 is a block diagram showing a configuration of a lane departure warning device using the above-described road shape measuring device of the present invention. The lane departure warning device shown in FIG. 1 supplies an image ahead of the vehicle in the traveling direction captured by the camera 1 to the road shape measuring device 100 of the present invention. The road shape measuring apparatus 100 supplies information about the road shape ahead of the vehicle and the position of the own vehicle to the determination unit 57 from the image information from the camera 1.
Also, a direction change signal is supplied to the determination unit 57 from a turn signal 59 which is a direction indicator of the vehicle. Now, for example, assuming that the vehicle is traveling in the left lane, the vehicle does not exit the turn signal 59 and the distance D
When x becomes larger than B (D x > B) or becomes smaller than zero (D x <0), it is considered that the vehicle has deviated from the own lane, and the determination unit 57 sends a warning signal to the warning device 55. And an alarm is generated from the alarm device 55.

【0066】更に、自動操縦について説明すると、本道
路形状計測装置では、自車両の位置の曲率と前方の曲率
が同時に求められるので、予め速度を制御する自動操縦
が可能となる。例えば、次のように制御することができ
る。
Further, the automatic steering will be described. In the present road shape measuring apparatus, the curvature of the position of the own vehicle and the curvature in front of the own vehicle are obtained at the same time, so that the automatic steering for controlling the speed in advance is possible. For example, control can be performed as follows.

【0067】 |前方の水平曲率|>|現在の水平曲率|→減速 |前方の水平曲率|<|現在の水平曲率|→加速 前方の垂直曲率(勾配)>現在の垂直曲率(勾配)→加
速(スロットル開) 前方の垂直曲率(勾配)<現在の垂直曲率(勾配)→減
速(スロットル閉) また、例えば、ピッチ角φ、ロール角φ、高さDyの変
動が大きい場合には、減速すること等も考えられる。乗
り心地のフィードバックと言える。
| Forward horizontal curvature |> | Current horizontal curvature | → deceleration | Forward horizontal curvature | <| Current horizontal curvature | → Acceleration Forward vertical curvature (gradient)> Current vertical curvature (gradient) → Acceleration (Throttle opening) Vertical curvature in front (gradient) <current vertical curvature (gradient) → deceleration (throttle closed) Also, for example, when the pitch angle φ, the roll angle φ, and the height Dy fluctuate greatly, decelerate. It is also conceivable. It can be said that it is feedback of ride quality.

【0068】また、操舵制御は、例えば (1)現在の曲率に比例した操舵角 Φk1=K・ρ (2)ヨー角が正の場合には左に操舵 Φk2=Φk-1 −δ (3)ヨー角が負の場合には右に操舵 Φk3=Φk-1 +δ (4)Dxが所定値より大きい場合右に操舵 Φk4=Φk-1 +δ (5)Dxが所定値より小さい場合左に操舵 Φk5=Φk-1 −δ とし、Φk1〜Φk5を平均した操舵角に設定すればよい。The steering control includes, for example, (1) a steering angle Φ k1 = K · ρ proportional to the current curvature, and (2) a left steering Φ k2 = Φ k−1 −δ when the yaw angle is positive. (3) Steering right when the yaw angle is negative Φ k3 = Φ k-1 + δ (4) Steering right when Dx is greater than a predetermined value Φ k4 = Φ k-1 + δ (5) Dx being a predetermined value If it is smaller, steering Φ k5 = Φ k-1 −δ may be set to the left, and the steering angle may be set to an average of Φ k1 to Φ k5 .

【0069】なお、前記実施例で説明した道路座標系
(X,Y,Z)における道路モデルを定義した(4)式
では、道路モデルは画像で観測できる範囲、すなわち前
方100メートル位までを近似できればよいものとし
て、緩やかな曲率を仮定しているが、この(4)式は、
一般式として次のように表される。
In the equation (4) defining the road model in the road coordinate system (X, Y, Z) described in the above embodiment, the road model approximates the range observable in the image, that is, up to about 100 meters ahead. It is assumed that a gentle curvature is used as much as possible.
It is expressed as the following general formula.

【0070】[0070]

【数22】 また、(6)式は次式のようにしてもよい。(Equation 22) Further, the expression (6) may be expressed by the following expression.

【0071】[0071]

【数23】 更に、(14)式で示した評価誤差は次式のように一般
式で表され、係数Aω,Bωは表1に示されるものとな
る。
(Equation 23) Further, the evaluation error expressed by the equation (14) is expressed by a general equation as shown in the following equation, and the coefficients Aω and Bω are as shown in Table 1.

【0072】[0072]

【数24】 (Equation 24)

【表1】 また、(16)式および(17)式はそれぞれ次に示す
(16−T)式および(17−T)式を使用して一般式
として表される。
[Table 1] Equations (16) and (17) are expressed as general equations using the following equations (16-T) and (17-T), respectively.

【0073】[0073]

【数25】 (Equation 25)

【数26】 (Equation 26)

【0074】[0074]

【発明の効果】以上説明したように、本発明によれば、
撮像手段で撮像した画像から車両の進行方向前方の道路
形状を検出し、3次元曲線パラメータに基づいて3次元
座標上で定義された3次元道路モデルを演算し、この3
次元道路モデルを撮像手段の姿勢パラメータに基づいて
画像座標に変換し、前記道路形状と座標変換された3次
元道路モデルとを比較して、両者間の位置ずれを検出
し、この位置ずれから3次元曲線パラメータの変化量お
よび姿勢パラメータの変化量を推定し、各パラメータを
更新しているので、比較的簡単な数式で表されるため、
少ない計算量で高速かつ精度良く各パラメータの推定を
行い、車両前方の道路形状を適確に計測することができ
る上に、S字カーブや曲率の変化するカーブにおいても
精度良く道路形状を求めることができる。更に、車両の
地点での曲率や道路形状も推定されるので、自車両位置
の推定結果も高精度である。
As described above, according to the present invention,
The road shape ahead of the vehicle in the traveling direction is detected from the image captured by the imaging unit, and a three-dimensional road model defined on three-dimensional coordinates is calculated based on the three-dimensional curve parameters.
The three-dimensional road model is converted into image coordinates based on the posture parameters of the imaging means, and the road shape is compared with the coordinate-converted three-dimensional road model to detect a displacement between the two. Since the amount of change in the dimension curve parameter and the amount of change in the posture parameter are estimated and each parameter is updated, it is represented by a relatively simple mathematical formula.
Estimate each parameter quickly and accurately with a small amount of calculation, accurately measure the road shape ahead of the vehicle, and find the road shape with high accuracy even on S-shaped curves and curves with changing curvature. Can be. Further, since the curvature and the road shape at the point of the vehicle are also estimated, the estimation result of the own vehicle position is also highly accurate.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明のクレーム対応図である。FIG. 1 is a diagram corresponding to claims of the present invention.

【図2】本発明の一実施例に係わる道路形状計測装置の
全体構成を概略的に示すブロック図である。
FIG. 2 is a block diagram schematically showing an entire configuration of a road shape measuring device according to one embodiment of the present invention.

【図3】図2に示す道路形状計測装置に使用される画像
処理部の詳細な構成を示すブロック図である。
FIG. 3 is a block diagram illustrating a detailed configuration of an image processing unit used in the road shape measurement device illustrated in FIG. 2;

【図4】図3に示す画像処理部に使用される座標系を示
す説明図である。
FIG. 4 is an explanatory diagram illustrating a coordinate system used in the image processing unit illustrated in FIG. 3;

【図5】図3に示す線対応マッチング部における道路モ
デルと白線との線対応マッチングを示す説明図である。
FIG. 5 is an explanatory diagram illustrating line correspondence matching between a road model and a white line in a line correspondence matching unit illustrated in FIG. 3;

【図6】本発明の道路形状計測装置を利用した追突警報
装置の構成を示すブロック図である。
FIG. 6 is a block diagram showing a configuration of a rear-end collision warning device using the road shape measurement device of the present invention.

【図7】本発明の道路形状計測装置を利用した車線逸脱
警報装置の構成を示すブロック図である。
FIG. 7 is a block diagram illustrating a configuration of a lane departure warning device using the road shape measurement device of the present invention.

【符号の説明】[Explanation of symbols]

1 カメラ 3 画像処理部 5 制御部 11 画像入力部 13 前処理部 15 道路モデル作成部 17 座標変換部 19 線対応マッチング部 21 パラメータ推定部 23 パラメータ更新部 Reference Signs List 1 camera 3 image processing unit 5 control unit 11 image input unit 13 preprocessing unit 15 road model creation unit 17 coordinate conversion unit 19 line matching unit 21 parameter estimation unit 23 parameter update unit

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 車両の進行方向前方の道路を撮像する撮
像手段と、該撮像手段で撮像した画像から車両の進行方
向前方の道路形状を検出する道路形状検出手段と、3次
元曲線パラメータに基づいて3次元座標上で定義された
3次元道路モデルを演算する道路モデル演算手段と、前
記道路モデル演算手段で演算された3次元道路モデルを
前記撮像手段の姿勢パラメータに基づいて画像座標に変
換する座標変換手段と、前記道路形状検出手段で検出さ
れた前記道路形状と前記座標変換手段で座標変換された
前記3次元道路モデルとを比較して、両者間の位置ずれ
を検出する位置ずれ検出手段と、該位置ずれ検出手段で
検出した位置ずれから前記3次元曲線パラメータの変化
量および前記撮像手段の姿勢パラメータの変化量を推定
し、前記各パラメータを更新する推定更新手段とを有す
ることを特徴とする道路形状計測装置。
1. An image pickup means for picking up an image of a road ahead in the traveling direction of a vehicle, a road shape detection means for detecting a road shape ahead of the vehicle in the traveling direction from an image picked up by the image pickup means, and a three-dimensional curve parameter. Road model calculating means for calculating a three-dimensional road model defined on three-dimensional coordinates, and converting the three-dimensional road model calculated by the road model calculating means into image coordinates based on the attitude parameters of the imaging means. Coordinate conversion means, and a displacement detection means for comparing the road shape detected by the road shape detection means with the three-dimensional road model coordinate-transformed by the coordinate conversion means and detecting a displacement between the two. And estimating the amount of change in the three-dimensional curve parameter and the amount of change in the posture parameter of the imaging means from the positional deviation detected by the positional deviation detecting means. A road shape measuring device comprising: an estimation updating unit that updates data.
JP4171240A 1992-06-29 1992-06-29 Road shape measurement device Expired - Fee Related JP2917681B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4171240A JP2917681B2 (en) 1992-06-29 1992-06-29 Road shape measurement device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4171240A JP2917681B2 (en) 1992-06-29 1992-06-29 Road shape measurement device

Publications (2)

Publication Number Publication Date
JPH0620189A JPH0620189A (en) 1994-01-28
JP2917681B2 true JP2917681B2 (en) 1999-07-12

Family

ID=15919644

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4171240A Expired - Fee Related JP2917681B2 (en) 1992-06-29 1992-06-29 Road shape measurement device

Country Status (1)

Country Link
JP (1) JP2917681B2 (en)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3538476B2 (en) * 1995-05-12 2004-06-14 本田技研工業株式会社 Recognition device for vehicle lane markings
JP3961584B2 (en) * 1996-02-08 2007-08-22 株式会社デンソー Lane marking detector
JP2002083285A (en) 2000-07-07 2002-03-22 Matsushita Electric Ind Co Ltd Image compositing device and image compositing method
JP3733875B2 (en) 2000-09-29 2006-01-11 日産自動車株式会社 Road white line recognition device
JP2002170102A (en) * 2000-12-04 2002-06-14 Nippon Telegr & Teleph Corp <Ntt> Method and apparatus for automatically obtaining and restoring subject of photography
JP3729095B2 (en) 2001-06-29 2005-12-21 日産自動車株式会社 Traveling path detection device
JP4228875B2 (en) * 2003-10-22 2009-02-25 アイシン精機株式会社 Vehicle lane travel support device
JP4619890B2 (en) * 2005-08-02 2011-01-26 株式会社日立製作所 Track maintenance facility data detection and inspection equipment
US8208021B2 (en) * 2005-12-28 2012-06-26 Honda Motor Co., Ltd. Vehicle and lane mark detection device
JP5248806B2 (en) * 2007-04-25 2013-07-31 キヤノン株式会社 Information processing apparatus and information processing method
JP5184436B2 (en) * 2009-05-14 2013-04-17 三菱プレシジョン株式会社 Method and apparatus for generating 3D road centerline data
WO2012113732A1 (en) * 2011-02-25 2012-08-30 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Determining model parameters based on transforming a model of an object
JP5760523B2 (en) * 2011-03-08 2015-08-12 株式会社豊田中央研究所 Runway estimation apparatus and program
CN113486796B (en) * 2018-09-07 2023-09-05 百度在线网络技术(北京)有限公司 Unmanned vehicle position detection method, unmanned vehicle position detection device, unmanned vehicle position detection equipment, storage medium and vehicle

Also Published As

Publication number Publication date
JPH0620189A (en) 1994-01-28

Similar Documents

Publication Publication Date Title
JP2917681B2 (en) Road shape measurement device
US10424081B2 (en) Method and apparatus for calibrating a camera system of a motor vehicle
US8180100B2 (en) Plane detector and detecting method
WO2012043045A1 (en) Image processing device and image capturing device using same
EP1783683A1 (en) Mobile peripheral monitor
JP2002197469A (en) Device for detecting traffic lane
JP3079841B2 (en) Road shape and own vehicle position measurement device
CN110412603A (en) A kind of calibrating parameters adaptive updates method calculated for deviation
EP3633617A2 (en) Image processing device
US20020181764A1 (en) Measuring apparatus
CN113503873A (en) Multi-sensor fusion visual positioning method
CN115639547A (en) Multi-line laser radar and GNSS-INS combined calibration method, system and medium
Klappstein et al. Monocular motion detection using spatial constraints in a unified manner
JP7145770B2 (en) Inter-Vehicle Distance Measuring Device, Error Model Generating Device, Learning Model Generating Device, Methods and Programs Therefor
JP2009139324A (en) Travel road surface detecting apparatus for vehicle
JPH07103715A (en) Method and apparatus for recognizing three-dimensional position and attitude based on visual sense
JP2006053754A (en) Plane detection apparatus and detection method
Miksch et al. Homography-based extrinsic self-calibration for cameras in automotive applications
JP3063481B2 (en) Vehicle object detection device
JP3463397B2 (en) Roadway detection device
JP4106163B2 (en) Obstacle detection apparatus and method
JPH1139464A (en) Image processor for vehicle
JP3326851B2 (en) Method and apparatus for recognizing three-dimensional position and orientation based on vision
JPH10143799A (en) Preceding vehicle following device
JP3208900B2 (en) Method and apparatus for recognizing three-dimensional position and orientation based on vision

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090423

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090423

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100423

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees