JP3319383B2 - Roadway recognition device - Google Patents

Roadway recognition device

Info

Publication number
JP3319383B2
JP3319383B2 JP08018698A JP8018698A JP3319383B2 JP 3319383 B2 JP3319383 B2 JP 3319383B2 JP 08018698 A JP08018698 A JP 08018698A JP 8018698 A JP8018698 A JP 8018698A JP 3319383 B2 JP3319383 B2 JP 3319383B2
Authority
JP
Japan
Prior art keywords
guide line
line
guide
candidate
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP08018698A
Other languages
Japanese (ja)
Other versions
JPH11259639A (en
Inventor
新 高橋
芳樹 二宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP08018698A priority Critical patent/JP3319383B2/en
Publication of JPH11259639A publication Critical patent/JPH11259639A/en
Application granted granted Critical
Publication of JP3319383B2 publication Critical patent/JP3319383B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、移動体のための走
行路認識装置であって、特に移動体に画像処理システム
を搭載し、撮像された路面画像から走行路を精度よく検
出し、安全な運転支援や自動走行を可能とする走行路認
識装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a travel path recognition device for a moving object, and more particularly, to an apparatus for mounting an image processing system on a moving object to accurately detect a traveling path from a captured road surface image and to provide a safety device. The present invention relates to a travel path recognition device that enables easy driving support and automatic driving.

【0002】[0002]

【従来の技術】従来、画像処理を利用した走行路検出装
置としては、特開平5−164569号公報に開示の移
動車の走行路検出装置が知られている。簡単に説明する
と、車輌に画像処理システムを搭載し、走行中に路面に
描かれた誘導線を撮像する。撮像された画像を複数の領
域に分け、処理するのが特徴である。撮像された画像
は、図8のような、遠方で交差する2本の直線(L,
R)であり、その画像が出現すると予想される箇所に、
複数の探索領域(ウィンドウ:W1,W2・・W5)が
設定される。
2. Description of the Related Art Conventionally, as a traveling path detecting apparatus utilizing image processing, a traveling path detecting apparatus for a mobile vehicle disclosed in Japanese Patent Application Laid-Open No. 5-164569 is known. Briefly, an image processing system is mounted on a vehicle, and an image of a guide line drawn on a road surface during traveling is captured. The feature is that a captured image is divided into a plurality of regions and processed. The captured image is composed of two straight lines (L,
R) and where the image is expected to appear,
A plurality of search areas (windows: W1, W2... W5) are set.

【0003】複数の領域内は、誘導線を検出するため、
それぞれ強度変化を伴うエッジ部等が探索され、その候
補点が求められる。コンピュータシステムは、求められ
た複数の候補点(P1 ,・・・Pn )を基に、それらを
通る近似直線を算出し、現在の誘導線として認識する。
撮像装置によって2次元的に認識されたこの近似直線
は、幾何学的な変換則によってコンピュータシステム内
に構築された3次元空間内の直線として認識され、車輌
の姿勢制御に使用される。
In a plurality of areas, in order to detect a guide line,
An edge portion or the like with an intensity change is searched for, and candidate points thereof are obtained. The computer system calculates an approximate straight line passing through the plurality of obtained candidate points (P1,... Pn) and recognizes it as a current guide line.
The approximate straight line recognized two-dimensionally by the imaging device is recognized as a straight line in a three-dimensional space constructed in a computer system by a geometric conversion rule, and used for attitude control of the vehicle.

【0004】また、走行路は、連続的に徐々に変化する
ものであるから、複数の探索領域(ウィンドウ:W1,
W2・・W5)もそれに従って、変化させる必要があ
る。この変化は、現在の探索領域に補正を加えることに
よってなされ、補正量は、各探索領域の中心位置が現在
の近似直線上に重なるように設定される。このように、
複数の探索領域は、常に誘導線を捉えるように補正され
るので、確実な自立走行ができるとしている。
[0004] Further, since the traveling path changes gradually and continuously, a plurality of search areas (windows: W1,
W2... W5) also need to be changed accordingly. This change is made by applying a correction to the current search area, and the correction amount is set so that the center position of each search area overlaps the current approximate straight line. in this way,
Since the plurality of search areas are corrected so as to always capture the guide line, reliable autonomous traveling can be performed.

【0005】また、コンピュータシステムは、路面に描
かれた歩道など他の標識や縁石を同じく誘導線として誤
認識する場合がある。このような場合には、複数の探索
領域の補正量の絶対比較および相互比較をし、その妥当
性を判定している。すなわち、ある探索領域に基準値以
上の補正量が算出された時、それは誤認識と判定され、
補正は行われずに、現在の探索領域がそのまま次回の探
索領域として使用されるのである。従って、万一ある探
索領域で誘導線以外のものを検出しても、誤認識として
排除され、総合的に正しい走行路認識が行われるので、
安全な自立走行が可能とされている。
[0005] Further, the computer system may erroneously recognize other signs and curbs such as sidewalks drawn on the road surface as guide lines. In such a case, an absolute comparison and an intercomparison of the correction amounts of the plurality of search areas are performed, and the validity is determined. That is, when a correction amount equal to or more than the reference value is calculated in a certain search area, it is determined to be erroneous recognition,
No correction is made, and the current search area is used as it is as the next search area. Therefore, even if something other than a guide line is detected in a certain search area, it is excluded as an erroneous recognition, and the correct traveling road recognition is performed comprehensively.
Safe independent driving is possible.

【0006】[0006]

【発明が解決しようする課題】しかしながら、前述の方
法は、前回の各探索領域内で検出された候補点を用い、
次回の走行路を最終的に近似直線で代用する一種のフィ
ードバック方式である。すなわち、従来手法は、道路を
高速道路などの直線路あるいは曲率の小さいきわめて緩
やかな変化の少ない曲線路には有効であるが、急激に変
化する、曲率の大きい一般カーブ道路等では、画像中の
走行路の変位量が大きくなり、必ずしも適用できるもの
ではない。従って、常に安全な自立走行が保証されるも
のではない。また、車載カメラには、大きい縦振動やピ
ッチ角振動が突然付加されることがある。このような場
合、前述の方法においては、複数の探索領域において補
正量が基準値を越える場合があり、走行路は正常である
にもかかわらず認識異常と判定される場合があった。
However, the above-mentioned method uses the candidate points detected in the previous search areas, and
This is a kind of feedback system that finally substitutes the approximate straight line for the next running path. In other words, the conventional method is effective for a straight road such as an expressway or a curved road with a small curvature and a very gentle change, but a general curved road with a sudden change and a large curvature has an effect in the image. The displacement amount of the traveling path becomes large and is not always applicable. Therefore, safe independent traveling is not always guaranteed. In addition, large longitudinal vibration or pitch angle vibration may be suddenly applied to the vehicle-mounted camera. In such a case, in the above-described method, the correction amount may exceed the reference value in a plurality of search areas, and the recognition may be determined to be abnormal even though the traveling path is normal.

【0007】本発明は、上述した問題点を解決するため
になされたものであり、前回の誘導線パラメータと自動
車走行状態パラメータによって、今回撮像時の予測線を
算出し、その予測線を基準とした誘導線候補点の分散状
態は、路面上の異物検出時には相対的に大きく、誘導線
の急激な変化箇所では相対的に小さいことに着目し、曲
率の大きい道路、あるいは路面標識等紛らわしい線が多
い一般道路でも、柔軟に追従し、精度よく走行路を検出
する走行路認識装置を提供することを目的としている。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problems. A prediction line at the time of current imaging is calculated based on a previous guidance line parameter and a vehicle traveling state parameter, and the prediction line is used as a reference. Paying attention to the fact that the dispersion state of the guide line candidate points is relatively large when foreign objects on the road surface are detected, and relatively small at locations where the guide line changes suddenly, confusing lines such as roads with large curvature or road markings It is an object of the present invention to provide a travel path recognition device that flexibly follows a general road and detects the travel path with high accuracy.

【0008】[0008]

【課題を解決するための手段】この目的を達成するため
に、本発明の走行路認識装置は、移動体に搭載された撮
像装置により走行路を撮像し、得られた画像から移動体
の誘導指標となる誘導線を認識する走行路認識装置であ
って、画像から誘導線の候補となる誘導線候補を抽出す
る誘導線候補抽出手段と、前回の撮像時に得られた誘導
線と、移動体の走行状態とから、次回の撮像時に得られ
る画像に対して、誘導線の出現位置を予測する誘導線予
測手段と、誘導線候補抽出手段により処理された画像に
対して、誘導線予測手段により予測された予測線を中心
として所定幅の範囲を設定し、その範囲を探索すること
により誘導線候補点を抽出し、予測線に対する誘導線候
補点の偏差分布を演算する偏差演算手段と、偏差演算手
段により演算された偏差分布の分散に関連した分散関連
値を演算する分散関連値演算手段と、分散関連値が所定
値以上の場合に、誘導線候補を真正な誘導線として採用
する誘導線決定手段とを備えている。尚、分散関連値演
算手段としては、偏差演算手段により演算された偏差分
布の平均値を演算する平均値演算手段と、その平均値を
中心として所定範囲に存在する偏差分布の割合を分散関
連値として演算する手段とで構成しても良い。
In order to achieve this object, a travel path recognition apparatus according to the present invention captures an image of a travel path using an image pickup device mounted on a moving body, and guides the moving body from the obtained image. A travel path recognition device for recognizing a guide line serving as an index, comprising: a guide line candidate extracting unit configured to extract a guide line candidate serving as a guide line candidate from an image; a guide line obtained during a previous image capturing; From the running state of the image, the guidance line prediction means for predicting the appearance position of the guidance line for the image obtained at the next imaging, and the image processed by the guidance line candidate extraction means, the guidance line prediction means A deviation calculating means for setting a range of a predetermined width around the predicted prediction line, extracting a guide line candidate point by searching the range, and calculating a deviation distribution of the guide line candidate point with respect to the prediction line; Calculated by the calculating means A variance-related value calculating means for calculating a variance-related value related to the variance of the deviation distribution; and a guide line determining means for adopting a guide line candidate as a genuine guide line when the variance-related value is equal to or greater than a predetermined value. I have. The variance-related value calculating means includes an average value calculating means for calculating an average value of the deviation distribution calculated by the deviation calculating means, and a ratio of the deviation distribution existing in a predetermined range around the average value. And means for calculating as

【0009】[0009]

【発明の作用及び効果】本発明の構成要素である誘導線
候補抽出手段は、自動車等の移動体に搭載された撮像装
置によって取り込まれた画像に対し、画像演算処理を行
い誘導線の候補を抽出する。画像演算処理とは、例え
ば、2値化による強調処理、微分による輪郭処理であ
る。その抽出された画像に対して、誘導線予測手段は、
前回の撮像時に得られた誘導線と移動体の走行状態とか
ら、次回の撮像時に得られる画像に対して、その誘導線
の出現位置を予測する。
The guide line candidate extracting means, which is a component of the present invention, performs image calculation processing on an image captured by an image pickup device mounted on a moving body such as an automobile, and performs a guide line candidate. Extract. The image calculation processing is, for example, enhancement processing by binarization and contour processing by differentiation. For the extracted image, the guide line prediction means
The appearance position of the guide line is predicted for the image obtained at the next image capture from the guide line obtained at the previous image capture and the traveling state of the moving body.

【0010】偏差演算手段は、誘導線候補抽出手段によ
り処理された画像に対して、誘導線予測手段により得ら
れた予測線を中心として、所定幅の範囲を設定する。そ
して、その範囲内における画像を探索することによって
誘導線候補点を抽出し、予測線に対する誘導線候補点の
偏差分布を演算する。分散関連値演算手段は、その演算
された偏差分布の分散に関連した値を演算する。
The deviation calculating means sets a range of a predetermined width around the predicted line obtained by the guiding line predicting means for the image processed by the guiding line candidate extracting means. Then, a guide line candidate point is extracted by searching for an image within the range, and a deviation distribution of the guide line candidate point with respect to the prediction line is calculated. The variance-related value calculation means calculates a value related to the variance of the calculated deviation distribution.

【0011】最後に、誘導線決定手段は、その分散関連
値が所定値以下である場合に、その誘導線候補を真正な
誘導線として採用する。このように、予測線と誘導線候
補との偏差分布を求め、その誘導線候補の分散が小さい
場合に、真正な誘導線と判定している。例えば、路面上
で縁石等を検出した場合、上記偏差分布の分散は大きく
なる。これに対して、白線等の真正な誘導線が急激に変
化する場合には、予測線に対する誘導線候補自体の絶対
偏差は大きくなるが、その誘導線に沿った偏差分布の分
散は小さい。従って、路面に描かれた他の標識あるいは
カメラの変動などで大きく誘導線が変動しても、確実に
それを区別することができ、より安全な走行路認識装置
となる。
Finally, the guide line determining means adopts the guide line candidate as a genuine guide line when the dispersion-related value is equal to or less than a predetermined value. In this way, the deviation distribution between the predicted line and the guide line candidate is obtained, and when the variance of the guide line candidate is small, it is determined that the guide line is a genuine guide line. For example, when a curb or the like is detected on a road surface, the variance of the deviation distribution becomes large. On the other hand, when a genuine guide line such as a white line suddenly changes, the absolute deviation of the guide line candidate itself with respect to the prediction line increases, but the variance of the deviation distribution along the guide line is small. Therefore, even if the guide line fluctuates greatly due to a change in other signs or cameras drawn on the road surface, the guide line can be surely distinguished, and a safer traveling road recognition device can be obtained.

【0012】[0012]

【発明の実施の形態】以下、本発明の実施の形態につい
て図面を参照して説明する。図1は本実施形態の1例を
示す構成図であり、本発明の走行路認識装置は、CPU
100、認識プログラムが書かれたROM110、その
プログラム実行時の作業領域メモリであるRAM12
0、図示しない制御機器との入出力インタ−フェ−スで
あるI/Oインタ−フェ−ス130、カメラから送出さ
れる映像信号を高速A/D変換し、画像専用のフレーム
メモリ165に取り込む画像入力装置160から構成さ
れている。これらの構成要素は全てアドレスバス、デ−
タバス、各種信号線からなるシステムバス140により
つながれており、CPU100とROM110に書かれ
た各種プログラムによって、データが授受され、コント
ロ−ルされる。本発明を構成する全ての手段は、このR
OM110に記憶された走行路認識処理プログラムとそ
れを実行する上記コンピュータシステムによって形成さ
れる。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a configuration diagram showing an example of the present embodiment.
100, a ROM 110 in which a recognition program is written, and a RAM 12 as a work area memory when the program is executed.
0, an I / O interface 130 as an input / output interface with a control device (not shown), a high-speed A / D conversion of a video signal sent from a camera, and taking it into a frame memory 165 dedicated to an image. It comprises an image input device 160. These components are all address buses, data
The CPU 100 is connected to a system bus 140 composed of various signal lines, and data is exchanged and controlled by various programs written in the CPU 100 and the ROM 110. All means that constitute the present invention
It is formed by the traveling path recognition processing program stored in the OM 110 and the above-described computer system that executes the program.

【0013】次に、本発明である走行路認識装置の動作
を、図2に示す走行路認識プログラムのフローチャート
に従って説明する。以下では、説明を簡単にするため、
誘導線1本について説明するが、実際は左右2本につい
て同様の処理が行われる。ここでは、この誘導線として
は、走行路の両側に引かれた白線を対象としている。ス
テップS100で、画像入力装置160によって、撮像
装置であるカメラ150から路面映像が、フレームメモ
リ165に取り込まれる。フレームメモリは、複数のR
AMから構成されるものであり、その1単位(1枚)
は、CCD撮像素子の各画素に対応した、総数512×
512のRAMである。任意の画素は座標(x,y)
と、強度Iで表され、その強度Iは0〜255段階にデ
ジタル化されている。又、画面の中心がxy座標系の原
点であり、その原点は実空間において、カメラの光軸と
路面との交点に対応する。
Next, the operation of the traveling road recognition apparatus according to the present invention will be described with reference to the flowchart of the traveling road recognition program shown in FIG. Below, for simplicity,
Although one guide line will be described, the same process is actually performed for two right and left lines. Here, as the guide line, a white line drawn on both sides of the traveling road is targeted. In step S <b> 100, the road surface image is fetched into the frame memory 165 by the image input device 160 from the camera 150 which is an imaging device. The frame memory has a plurality of Rs.
AM, one unit (one piece)
Is a total of 512 × corresponding to each pixel of the CCD image sensor.
512 is a RAM. Arbitrary pixel is coordinate (x, y)
And intensity I, and the intensity I is digitized in 0 to 255 steps. The center of the screen is the origin of the xy coordinate system, and the origin corresponds to the intersection of the optical axis of the camera and the road surface in the real space.

【0014】次にステップS110に移る。ステップS
110が、本発明の誘導線候補抽出手段である。ここで
は、フレームメモリ165に取り込まれた画像に対し
て、まずマトリクス重み付け演算であるソーベル演算子
処理等が行われ、それぞれ強度画像と濃度勾配を表す角
度画像(微分画像)が算出される。強度画像からは、所
定の閾値以上の強度を持つ線分が抽出され、角度画像か
らは、その線分に対応する複数のエッジ、すなわち、線
分と背景との正確な境界が抽出される。そしてそのエッ
ジ間の距離、すなわち線分の幅が走行路に引かれた白線
の幅に対応し、且つ、エッジ間の角度が互いに逆向きな
らば、強度画像で抽出された線分は誘導線候補として判
断される。
Next, the process proceeds to step S110. Step S
110 is a guide line candidate extracting means of the present invention. Here, the image taken into the frame memory 165 is first subjected to Sobel operator processing or the like, which is a matrix weighting operation, to calculate an intensity image and an angle image (differential image) representing a density gradient, respectively. A line segment having an intensity equal to or greater than a predetermined threshold is extracted from the intensity image, and a plurality of edges corresponding to the line segment, that is, accurate boundaries between the line segment and the background are extracted from the angle image. If the distance between the edges, that is, the width of the line segment corresponds to the width of the white line drawn on the traveling path, and the angles between the edges are opposite to each other, the line segment extracted in the intensity image is a guide line. It is determined as a candidate.

【0015】図4(a)、(b)に示すように、3次元
空間座標である道路座標系(XYZ)とカメラ座標系
(X’Y’Z’)とを設定する。道路座標系(XYZ)
は2本の誘導線A1、A2の間の中央線(以下、単に、
中央線という)上に原点を有し、その原点が自動車の移
動と共に変化するような中央線に沿って移動する路面上
の座標系である。誘導線A1、A2の接線方向がZ軸、
路面に垂直な方向(高さ方向)がX軸、進行方向に向か
って右方向で路面に平行な方向がY軸である。又、カメ
ラ座標系(X’Y’Z’)は自動車に剛体的に固定され
たカメラから見た座標系である。Z’軸方向はカメラの
光軸方向であり、Y’はカメラを基準にした水平方向、
X’はカメラを基準にした垂直方向である。(x,y)
は画面上にとられた上述したxy座標系での座標であ
る。走行路に引かれた誘導線の道路座標系(XYZ)で
の曲線の式は、次式で表現される。
As shown in FIGS. 4A and 4B, a road coordinate system (XYZ) and a camera coordinate system (X'Y'Z '), which are three-dimensional space coordinates, are set. Road coordinate system (XYZ)
Is a center line between the two guide lines A1 and A2 (hereinafter simply referred to as
This is a coordinate system on a road surface having an origin on the center line (referred to as a center line) and moving along the center line such that the origin changes as the vehicle moves. The tangent direction of the guide lines A1 and A2 is the Z axis,
The direction perpendicular to the road surface (height direction) is the X axis, and the direction parallel to the road surface in the right direction toward the traveling direction is the Y axis. The camera coordinate system (X'Y'Z ') is a coordinate system viewed from a camera rigidly fixed to an automobile. Z 'axis direction is the optical axis direction of the camera, Y' is the horizontal direction with respect to the camera,
X 'is the vertical direction with respect to the camera. (X, y)
Are coordinates in the xy coordinate system described above taken on the screen. The equation of the curve in the road coordinate system (XYZ) of the guide line drawn on the traveling path is expressed by the following equation.

【0016】[0016]

【数1】 X=0 (1)X = 0 (1)

【数2】 Y=cZc 2+κW−e (2)Y = cZ c 2 + κW-e (2)

【数3】 Z=Zc (3)## EQU3 ## Z = Z c (3)

【0017】ただし、Zc は中央線上のZ座標、cは誘
導線の曲率の1/2、Wは2本の誘導線A1とA2の間
隔、即ち、走行路の幅の1/2、κは1,−1である。
右側の誘導線A2はκ=1、左側の誘導線A2はκ=−
1である。eはカメラ原点の道路座標系(XYZ)にお
けるY座標(カメラ原点の中央線に対する位置偏差)で
ある。上記の(1)〜(3)式は、中央線上のZ座標Z
c を媒介変数とした誘導線A1、A2の曲線の方程式で
ある。
Here, Z c is the Z coordinate on the center line, c is の of the curvature of the guide line, W is the interval between the two guide lines A1 and A2, ie, の of the width of the traveling path, κ. Is 1, -1.
The right lead A2 is κ = 1, and the left lead A2 is κ = −.
It is one. e is the Y coordinate of the camera origin in the road coordinate system (XYZ) (positional deviation from the center line of the camera origin). The above equations (1) to (3) are expressed by the Z coordinate Z on the center line.
It is an equation of the curve of the guide lines A1 and A2 using c as a parameter.

【0018】道路座標系(XYZ)におけるカメラの位
置、姿勢、焦点距離等のカメラパラメータを用いた投影
変換により、道路座標系(XYZ)から画面上の座標系
(xy)への変換が可能である。よって、上記の誘導線
上の点(X,Y,Z)を画像上の座標(x,y)で表す
と、(6)、(7)式を代入した(4)、(5)式で与
えられる。
The projection coordinate conversion using the camera parameters such as the position, orientation, and focal length of the camera in the road coordinate system (XYZ) can convert the road coordinate system (XYZ) to the coordinate system (xy) on the screen. is there. Therefore, if the point (X, Y, Z) on the above guide line is represented by coordinates (x, y) on the image, the points (X, Y, Z) are given by equations (4) and (5), into which equations (6) and (7) are substituted. Can be

【0019】[0019]

【数4】 x=x’cos ψ+y’sin ψ (4)X = x'cos {+ y'sin} (4)

【数5】 y=−x’sin ψ+y’cos ψ (5)Y = −x′sin {+ y′cos} (5)

【数6】 x’=−Fx h/Zc −Fx φ (6)[6] x '= - F x h / Z c -F x φ (6)

【数7】 y’=Fy (cZc 2 /2+κW−e)/Zc −Fy θ (7)Equation 7] y '= F y (cZ c 2/2 + κW-e) / Z c -F y θ (7)

【0020】但し、Fx ,Fy はレンズ焦点距離、hは
カメラ原点の道路座標系(XYZ)でのZ座標(高
さ)、θはヨー角、φはピッチ角、ψはロール角であ
る。これらの変数(θ,φ,ψ)は道路座標系(XY
Z)の各軸を基準として定義される変数であり、カメラ
の姿勢を表す。但し、θとφは小さいものと仮定してい
る。
Where F x and F y are lens focal lengths, h is a Z coordinate (height) in the road coordinate system (XYZ) at the camera origin, θ is a yaw angle, φ is a pitch angle, and ψ is a roll angle. is there. These variables (θ, φ, ψ) are in the road coordinate system (XY
This variable is defined with reference to each axis of Z), and represents the attitude of the camera. However, it is assumed that θ and φ are small.

【0021】画面上の誘導線A1,A2の位置から道路
座標系(XYZ)での誘導線A1、A2の位置が分か
る。これにより、中央線からの車体の位置偏差e、姿勢
(θ,φ,ψ)、中央線上のZ座標ZC 、誘導線の曲率
cを求めることができる。これらの測定されたパラメー
タに基づいて、自動車の位置及び姿勢の制御や警報が行
なわれる。この制御方法は公知の方法があり、本発明の
要旨ではないので説明を省略する。
From the positions of the guide lines A1 and A2 on the screen, the positions of the guide lines A1 and A2 in the road coordinate system (XYZ) can be known. Thus, the position deviation e, posture (θ, φ, ψ) of the vehicle body from the center line, the Z coordinate Z C on the center line, and the curvature c of the guide line can be obtained. Based on these measured parameters, control and warning of the position and attitude of the vehicle are performed. Since this control method is a known method and is not the gist of the present invention, the description is omitted.

【0022】次に、上記のように自動車の位置及び姿勢
を制御するための本発明の要旨である画面上での誘導線
の決定の方法について説明する。前回までに観測された
画像から求められているパラメータ(e(t),c
(t),W(t),θ(t),φ(t),ψ(t))の
軌跡から次回の観測時でのこれらのパラメータの値が予
測演算されている。即ち、前回の撮像タイミングにおけ
る後述するステップS160において、次回の撮像時に
おける上記のパラメータの値がカルマンフィルタを用い
て予測されている。これについては、後述する。
Next, a method of determining a guide line on a screen, which is the gist of the present invention, for controlling the position and attitude of an automobile as described above will be described. Parameters (e (t), c) obtained from the images observed up to the last time
From the locus of (t), W (t), θ (t), φ (t), ψ (t)), the values of these parameters at the next observation are predicted and calculated. That is, in step S160 described later at the previous imaging timing, the values of the above parameters at the time of the next imaging are predicted using the Kalman filter. This will be described later.

【0023】誘導線予測手段であるステップS120で
は、予測されている今回の撮像時点におけるこれらのパ
ラメータに基づいて、画面上における誘導線A1,A2
の存在位置が予測演算される。即ち、それらのパラメー
タを用いて、(4)〜(7)式により画面上での誘導線
A1の予測線L1が求められる。図3では、誘導線A1
についてのみ記載されているが、誘導線A2についても
同様である。
In step S120, which is a guide line predicting means, the guide lines A1 and A2 on the screen are based on these predicted parameters at the time of the current imaging.
Is calculated. That is, the predicted line L1 of the guide line A1 on the screen is obtained by the equations (4) to (7) using those parameters. In FIG. 3, the guide line A1
, But the same applies to the guide wire A2.

【0024】図3(a)、(b)に示すように誘導線候
補が抽出された上記強度画像上に、パラメータの予測値
に基づいて計算された予測線L1が形成される。
As shown in FIGS. 3A and 3B, a predicted line L1 calculated based on the predicted values of the parameters is formed on the intensity image from which the guide line candidates are extracted.

【0025】次に、ステップS130〜ステップS15
0で、この予測線L1に基づいて、ステップS110で
抽出された誘導線候補の妥当性が調べられる。ステップ
S130が、偏差演算手段である。ここでは、予測線L
1に対する誘導線候補の偏差分布が求められる。図3
(a)、(b)に示されるように予測線L1を中心に所
定の探索幅2D1を持つ第1ウィンドDW1が設定さ
れ、その中で誘導線候補Bが探索される。
Next, steps S130 to S15
At 0, the validity of the guide line candidate extracted at step S110 is checked based on the predicted line L1. Step S130 is a deviation calculating means. Here, the prediction line L
The deviation distribution of the guide line candidate for 1 is obtained. FIG.
As shown in (a) and (b), a first window DW1 having a predetermined search width 2D1 around the prediction line L1 is set, and a guide line candidate B is searched therein.

【0026】探索方法は、便宜上、特定の走査線にイン
デクスiを定義し、その走査線iと交差する予測線L1
のy座標値biと同じく走査線iと交差する誘導線候補
Bのy座標値ciを求める。この走査線iが誘導線候補
Bと交差する点を、便宜上、候補点Ciと呼ぶ。
In the search method, for convenience, an index i is defined for a specific scanning line, and a prediction line L1 intersecting with the scanning line i is defined.
The y-coordinate value ci of the guide line candidate B that intersects with the scanning line i in the same manner as the y-coordinate value bi is obtained. The point where the scanning line i intersects with the guide line candidate B is referred to as a candidate point Ci for convenience.

【0027】そして、それらの差すなわち、位置偏差d
i(=ci- bi)が算出される。位置偏差diは符号
を有しており、その符号は、例えば、予測線L1を基準
として右にあれば正、左にあれば負である。そして、イ
ンデックスiで示される個数だけのdi(図3では、i
=1・・・N)すなわち偏差分布が求められ、ステップ
S140に移行する。
The difference between them, that is, the position deviation d
i (= ci-bi) is calculated. The position deviation di has a sign, and the sign is, for example, positive on the right with respect to the prediction line L1 and negative on the left with respect to the prediction line L1. Then, as many dis as indicated by the index i (in FIG. 3, i
= 1... N), that is, a deviation distribution is obtained, and the process proceeds to step S140.

【0028】ステップS140及び次のステップS15
0が分散関連値演算手段を構成している。又、ステップ
S140はこの分散関連値演算手段のうちの平均値演算
手段でもある。ここでは、ステップS130で求められ
た偏差分布の平均値dave が算出される。
Step S140 and the next step S15
0 constitutes the dispersion-related value calculation means. Step S140 is also an average value calculating means of the dispersion related value calculating means. Here, the average value dave of the deviation distribution obtained in step S130 is calculated.

【0029】次に、ステップS150、ステップS16
0に移行する。先ずステップS150では、ステップS
130で求められた各位置偏差diの妥当性すなわち候
補点Ciの妥当性を判断するため、上記偏差平均値dav
e を基にして、各位置偏差diの分散状態が調べられ
る。その方法は、図3(a)、(b)に示されるよう
に、新たに、予測線L1に上記平均値dave を加えた平
均値線L2を作成する。そして、その平均値線L2を中
心とし、所定の探索幅2D2 を持つ第2ウィンドDW2
を設定し、その領域内で、誘導線候補Bを探索するもの
である。
Next, step S150, step S16
Move to 0. First, in Step S150, Step S
In order to determine the validity of each position deviation di obtained in 130, that is, the validity of the candidate point Ci, the deviation average value dav is determined.
Based on e, the dispersion state of each position deviation di is examined. In this method, as shown in FIGS. 3A and 3B, an average value line L2 is newly created by adding the above average value dave to the prediction line L1. Then, a second window DW2 having a predetermined search width 2D2 around the average value line L2.
Is set, and a guide line candidate B is searched in the area.

【0030】その探索方法を、図5に示すステップS1
51から始まるサブルーチンで示す。ステップS151
では、走査線インデクスiとカウンタWが0に初期化さ
れる。ステップS152では、そのインデックスiが更
新され、次のステップS153で、平均値線L2からの
距離、|ci−bi−dave |、すなわち、平均位置偏
差に対する位置偏差の偏差の絶対値|di - dave |
(=Δiとする)が算出される。
The search method is described in step S1 shown in FIG.
This is indicated by a subroutine starting from 51. Step S151
Then, the scanning line index i and the counter W are initialized to 0. In step S152, the index i is updated, and in the next step S153, the distance from the average value line L2, | ci-bi-dave |, that is, the absolute value of the deviation of the position deviation with respect to the average position deviation | di-dave |
(= Δi) is calculated.

【0031】その値Δiが所定の値D2より小さいか否
かが判定され、D2より小さければ、ステップS154
へ移行して、カウンタWを1だけ加算更新する。又、D
2より小さくなければ、カウンタWの値は更新されな
い。次に、ステップS155へ移行して、インデックス
iが最終値Nか否かが判定され、最終値でなければ、ス
テップS152に戻り、次の走査線に対して同様な処理
が実行される。ステップS155で最終値と判定される
と、ステップS156へ移行して、カウンタWの値が所
定値Th以上か否かが判定される。所定値以上であれ
ば、平均値からの位置偏差の分散が所定値以下であると
して、誘導線候補は真正なものと判定される。このステ
ップS156が誘導線決定手段を構成する。
It is determined whether or not the value Δi is smaller than a predetermined value D2. If it is smaller than D2, step S154 is performed.
Then, the counter W is incremented by 1 and updated. D
If not, the value of the counter W is not updated. Next, the process proceeds to step S155, where it is determined whether or not the index i is the final value N. If not, the process returns to step S152, and the same processing is performed for the next scanning line. If it is determined in step S155 that the value is the final value, the process proceeds to step S156 to determine whether the value of the counter W is equal to or greater than a predetermined value Th. If it is equal to or greater than the predetermined value, the variance of the position deviation from the average value is equal to or less than the predetermined value, and the guide line candidate is determined to be authentic. This step S156 constitutes the guide line determination means.

【0032】このカウンタWの値は、位置偏差di の分
散σに対応している。よって、位置偏差の分散σが小さ
いならば、誘導線としてのまとまりがあり、線分の全体
判断として誘導線である確率が高いので、この誘導線候
補Bを真正な誘導線として決定する。
The value of the counter W corresponds to the variance σ of the position deviation di. Therefore, if the variance σ of the positional deviation is small, there is a unity as a guide line, and the probability that the line segment is a guide line as a whole judgment is high, so that the guide line candidate B is determined as a genuine guide line.

【0033】真正な誘導線として決定された誘導線の情
報は、ステップS157において、インデックスiに対
応する誘導線候補のy座標値ci、すなわち候補点Ci
の(x,y)座標として所定のメモリ領域に登録され
る。
In step S157, the information of the guide line determined as a genuine guide line is obtained as the y coordinate value ci of the guide line candidate corresponding to the index i, ie, the candidate point Ci.
(X, y) coordinates are registered in a predetermined memory area.

【0034】そのデータ構造を図6に示す。ここでk
は、走査線間隔を表す定数であり、例えば5走査線間隔
で調べる場合は、5とする。Nは、必要な誘導線形成点
の総数であり、例えば50である。
FIG. 6 shows the data structure. Where k
Is a constant representing the scanning line interval. For example, when checking at 5 scanning line intervals, it is set to 5. N is the total number of necessary guide line formation points, for example, 50.

【0035】カウンタWの値が所定値Th以下であれ
ば、位置偏差の分散σが大きいことを示している。即
ち、誘導線としてのまとまりがなく、その誘導線候補
は、線分の全体判断の結果、誘導線である確率が低いの
で、この誘導線候補Bを真正な誘導線としては採用しな
い。
If the value of the counter W is equal to or less than the predetermined value Th, it indicates that the variance σ of the position deviation is large. That is, since the guide line candidate is not united as a guide line and the probability of the guide line candidate being a guide line is low as a result of the overall determination of the line segment, the guide line candidate B is not adopted as a genuine guide line.

【0036】例えば、図3(b)のように縁石など誘導
線の類似物の場合には、予測線L1に対して、不規則に
分布することが予測される。この場合には、上述した位
置偏差の平均値に対する偏差の分散が大きくなる。これ
により、真正な誘導線と雑音線とを正確に区別すること
ができる。
For example, as shown in FIG. 3B, in the case of an analog of a guide line such as a curb, it is predicted that the guide line is irregularly distributed with respect to the prediction line L1. In this case, the variance of the deviation with respect to the average value of the position deviation described above increases. This makes it possible to accurately distinguish a genuine guide line from a noise line.

【0037】このようにして、真正な誘導線が決定され
た後は、図2のステップS160が実行される。ステッ
プS160では、次回の予測線の位置を求めるために、
ステップS150で得られた現在の誘導線の位置から上
述したように、(4)〜(7)式を用いて、パラメータ
(e(t),c(t),W(t),θ(t),φ
(t),ψ(t))が演算される。そして、これらのパ
ラメータから、次回の撮像タイミングにおけるパラメー
タの値が予測演算される。これは、良く知られたカルマ
ンフィルタを用いて演算される。カルマンフィルタと
は、システムのダイナミクスとノイズの統計的性質と観
測データから、システム状態の最小2乗推定を逐次的に
与える手法である。
After the genuine guide line is determined in this way, step S160 in FIG. 2 is executed. In step S160, to determine the position of the next predicted line,
As described above, the parameters (e (t), c (t), W (t), W (t), θ (t) are obtained from the current position of the guide line obtained in step S150 using the equations (4) to (7). ), Φ
(T), ψ (t)) are calculated. From these parameters, the values of the parameters at the next imaging timing are predicted and calculated. This is calculated using a well-known Kalman filter. The Kalman filter is a technique for sequentially estimating the least-squares estimation of the system state from the dynamics of the system, the statistical properties of noise, and observation data.

【0038】尚、本実施例では、拡張カルマンフィルタ
が用いられた。拡張カルマンフィルタとは、非線形のダ
イナミクスや観測過程を線型化して、カルマンフィルタ
を適用する手法である。次に、概略する。
In this embodiment, an extended Kalman filter is used. The extended Kalman filter is a method of applying a Kalman filter by linearizing nonlinear dynamics and an observation process. Next, an outline will be given.

【0039】上述したパラメータの組(e,θ,φ,
ψ,c,W)(以下、時間変数tは記載を省略)を以下
のように6次元状態ベクトルpで定義する。
The above set of parameters (e, θ, φ,
ψ, c, W) (hereinafter, the description of the time variable t is omitted) is defined by a six-dimensional state vector p as follows.

【0040】[0040]

【数8】 p=[eθφψcW]T :Tは転置行列 (8) また、観測対象は、例えば、図7に示す予測線L1と誘
導線候補との距離dとする。
P = [eθφψcW] T : T is a transposed matrix (8) The observation target is, for example, the distance d between the prediction line L1 and the guide line candidate shown in FIG.

【0041】一般に、パラメータに急激な変化がない場
合、k番目の状態ベクトルpk とk+1番目の状態ベク
トルpk+1 の間、およびk番目の状態ベクトルpk とk
番目の距離dkとの間には、次の関係が成立する。
In general, when there is no abrupt change in parameters, between the k-th state vector p k and the k + 1-th state vector p k + 1 , and between the k-th state vector p k and k
The following relationship is established with the distance dk.

【数9】 pk+1 =fK (pk )+uk (9)[Equation 9] p k + 1 = f K ( p k) + u k (9)

【数10】 dk =hk (pk )+vk (10) ここで、k:更新回数 uk :システムに付加されるノイズベクトル fk :ダイナミクスを表現する関数 vk :観測ノイズ項のベクトル hk :観測過程を表現する関数D k = h k (p k ) + v k (10) where k: number of updates u k : noise vector added to the system f k : function expressing dynamics v k : function of observation noise term Vector h k : function representing the observation process

【0042】カルマンフィルタの教える所によれば、関
数fk ,hk を線形化し、行列式で表現できれば、kを
逐次更新することにより、この(9)、(10)の方程
式は解くことができ、最後に次回のパラメータ状態ベク
トルpk+1 が求められる。尚、実際には、pk が独立変
数6個の列ベクトルであることから、関数fk ,hk
同じく1行6列の行列式で表される。この状態ベクトル
k+1 を表すe,θ,φ,ψ,c,Wが次回に予想され
るパラメータとなる。
According to the teaching of the Kalman filter, if the functions f k and h k can be linearized and can be expressed by a determinant, the equations (9) and (10) can be solved by successively updating k. , And finally the next parameter state vector p k + 1 is obtained. In practice, since p k is the independent variable six column vector, the function f k, h k is also expressed by the matrix equation 1 rows and six columns. E, θ, φ, ψ, c, and W representing the state vector p k + 1 are parameters expected next time.

【0043】ステップS160では、このように次回の
撮像時におけるパラメータ値が予測され、その値に基づ
いて前回に決定された誘導線に対する予測偏差dk が演
算されて、その予測偏差dk に基づいて次回の予測線L
1の画面上の位置が決定される。このような処理が繰返
実行される。尚、前回に真正な誘導線が決定されなかっ
た場合には、過去の最新に決定された誘導線に基づく予
測偏差dk が演算されることになる。一方、真正な誘導
線が決定される毎に、最新のパラメータが決定され、そ
のパラメータに基づいて、又は、雑音除去のためにカル
マンフィルタにより予測されたパラメータ値に基づい
て、走行路の所定位置(例えば、中央線)に位置決め走
行路に沿った姿勢となるように、自動車の位置及び姿勢
を制御することは上述したとおりである。これらの制御
値は、I/Oインターフェース130を介して、図示し
ない制御機器に出力され、自動車の姿勢制御等に使用さ
れる。上記の手法によれば、直線道路や緩やかなカーブ
道路は言うまでもなく、曲率の大きいカーブ道路やある
いは急激な誘導線の変化も、確実に予測し捉えることが
できる。
In step S160, the parameter value at the time of the next imaging is predicted as described above, and based on the value, the predicted deviation d k with respect to the previously determined guide line is calculated, and based on the predicted deviation d k . Next forecast line L
1 is determined on the screen. Such processing is repeatedly executed. If a genuine guide line has not been determined last time, a predicted deviation d k based on the latest guide line determined in the past is calculated. On the other hand, each time a genuine guide line is determined, the latest parameter is determined, and based on the parameter or a parameter value predicted by a Kalman filter for noise removal, a predetermined position ( As described above, the position and the attitude of the vehicle are controlled so that the attitude is along the positioning travel path at the center line). These control values are output to a control device (not shown) via the I / O interface 130, and are used for controlling the attitude of the vehicle. According to the above-mentioned method, it is possible to reliably predict and capture not only straight roads and gentle curved roads, but also curved roads with large curvatures or sudden changes in guidance lines.

【0044】以上、本発明を表わす1実施例を示した
が、他にさまざまな変形例が考えられる。上記実施例で
は、誘導線候補の予測線に対する位置偏差の分散を求め
るのに、位置偏差の平均値に対して所定範囲に存在する
誘導線候補上の点の数で求めているが、これを直接、位
置偏差の分散σを求めるようにしても良い。要するに、
位置偏差の分散σに関連する値を演算すれば、本発明の
効果を達成することができる。
While one embodiment of the present invention has been described above, various other modifications are possible. In the above embodiment, the variance of the position deviation of the guide line candidate with respect to the prediction line is obtained by the number of points on the guide line candidate existing in a predetermined range with respect to the average value of the position deviation. The variance σ of the position deviation may be directly obtained. in short,
By calculating a value related to the variance σ of the position deviation, the effect of the present invention can be achieved.

【0045】また、ステップS153では、各位置偏差
に符号があるため、偏差平均との差の絶対値の大きさで
判断したが、差の2乗をもって判断してもよい。また、
本実施例では、ステップS160で、誘導線に関するパ
ラメータおよびカメラ姿勢に関するパラメータの全てを
予測したが、カメラ姿勢、即ち、自動車の姿勢の変化が
緩慢な場合、誘導線に関するパラメータのみを用いても
良い。又、予測線の演算には、カルマンフィルタを用い
ているが、最小自乗近似等の他の方法でも良い。特に、
パラメータを簡略化する場合には、過去に抽出された誘
導線の時間に関するラグランジェ補間、スプライン補
間、最小2乗近似曲線補間を用いることができる。
In step S153, since each position deviation has a sign, the determination is made based on the magnitude of the absolute value of the difference from the deviation average. However, the determination may be made based on the square of the difference. Also,
In the present embodiment, in step S160, all of the parameters related to the guide line and the parameters related to the camera attitude are predicted. However, when the camera attitude, that is, the attitude of the automobile is slowly changing, only the parameter related to the guide line may be used. . Although the Kalman filter is used for the calculation of the prediction line, other methods such as least square approximation may be used. In particular,
When parameters are simplified, Lagrange interpolation, spline interpolation, and least-squares approximation curve interpolation relating to the time of a guide line extracted in the past can be used.

【0046】また、本実施例では、1台の撮像装置で画
像処理を行ったが、より高速処理が必要な場合は、左右
の誘導線に対してそれぞれ別の撮像装置を1台づつ設
け、同じ処理を施し、総合的に判断してもよい。また、
誘導線には走行路の両端に引かれている白線を用いた
が、片側の白線でも良い。その他、ガードレール等、車
両を誘導するための指標となるものであれば、任意の誘
導線を用いることが可能である。その他、いろいろな変
形例が考えられるが、本発明の主旨である誘導線候補の
予測線に対する位置偏差の分散により、誘導線の真偽を
判定するものであれば、その方法は問わない。
In this embodiment, the image processing is performed by one image pickup device. However, if higher speed processing is required, another image pickup device is provided for each of the left and right guide lines. The same processing may be performed to make a comprehensive judgment. Also,
Although white lines drawn at both ends of the travel path are used as the guide lines, white lines on one side may be used. In addition, any guide line, such as a guardrail, can be used as long as it serves as an index for guiding the vehicle. In addition, various modified examples are conceivable. However, any method may be used as long as the authenticity of the guide line is determined based on the variance of the positional deviation of the guide line candidate from the predicted line, which is the gist of the present invention.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の1実施例に係る走行路認識装置の構成
を示す構成図。
FIG. 1 is a configuration diagram showing a configuration of a traveling road recognition device according to one embodiment of the present invention.

【図2】走行路認識装置のCPUの処理手順を示すフロ
ーチャート。
FIG. 2 is a flowchart showing a processing procedure of a CPU of the travel path recognition device.

【図3】予測線に対する位置偏差の分散により誘導線を
確定する方法を示した説明図。
FIG. 3 is an explanatory diagram showing a method for determining a guide line based on a variance of a position deviation with respect to a prediction line.

【図4】道路座標系、カメラ座標系、撮像素子座標系の
関係を示した説明図。
FIG. 4 is an explanatory diagram showing a relationship among a road coordinate system, a camera coordinate system, and an image sensor coordinate system.

【図5】位置偏差の分散関連値と誘導線を確定するため
のCPUの処理手順を示したフローチャート。
FIG. 5 is a flowchart showing a processing procedure of a CPU for determining a variance-related value of position deviation and a guide line.

【図6】確定された真正な誘導線の位置を記憶するため
のデータ構造を示した説明図。
FIG. 6 is an explanatory diagram showing a data structure for storing a position of a genuine guide line determined.

【図7】カルマンフィルタを使用して予測線の位置を求
める方法を示した説明図。
FIG. 7 is an explanatory diagram showing a method of obtaining a position of a prediction line using a Kalman filter.

【図8】従来の誘導線の確定方法を示した説明図。FIG. 8 is an explanatory view showing a conventional method for determining a guide line.

【符号の説明】[Explanation of symbols]

100 CPU 110 ROM 120 RAM 140 システムバス 150 カメラ 160 画像入力装置 165 フレームメモリ L1 予測線 L2 平均値線 Ci 候補点 DW1 第1ウィンド DW2 第2ウィンド 100 CPU 110 ROM 120 RAM 140 System bus 150 Camera 160 Image input device 165 Frame memory L1 Prediction line L2 Average value line Ci Candidate point DW1 First window DW2 Second window

フロントページの続き (56)参考文献 特開 平9−35198(JP,A) 特開 平6−225308(JP,A) 特開 平8−261756(JP,A) 特開 平7−78234(JP,A) 特開 平8−320998(JP,A) 特開 平5−164569(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06T 1/00 330 B60R 21/00 624 G06T 7/60 200 G08G 1/16 Continuation of front page (56) References JP-A-9-35198 (JP, A) JP-A-6-225308 (JP, A) JP-A-8-261756 (JP, A) JP-A-7-78234 (JP) JP-A 8-320998 (JP, A) JP-A 5-164569 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) G06T 1/00 330 B60R 21/00 624 G06T 7/60 200 G08G 1/16

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】移動体に搭載された撮像装置により走行路
を撮像し、得られた画像から移動体の誘導指標となる誘
導線を認識する走行路認識装置において、 前記画像から前記誘導線の候補となる誘導線候補を抽出
する誘導線候補抽出手段と、 前回の撮像時に得られた誘導線と、移動体の走行状態と
から、次回の撮像時に得られる画像に対して、誘導線の
出現位置を予測する誘導線予測手段と、 前記誘導線候補抽出手段により処理された画像に対し、
前記誘導線予測手段により予測された予測線を中心とし
て所定幅の範囲を設定し、該範囲内を探索する事によ
り、誘導線候補点を抽出し、予測線に対する該誘導線候
補点の偏差分布を演算する偏差演算手段と、 前記偏差演算手段により演算された偏差分布の分散に関
連した分散関連値を演算する分散関連値演算手段と、 前記分散関連値が所定値以下の場合に、前記誘導線候補
を真正な誘導線として採用する誘導線決定手段と、から
成る走行路認識装置。
1. A travel path recognition device which images a travel path by an imaging device mounted on a moving body and recognizes a guide line serving as a guide index of the mobile body from an obtained image, comprising: A guide line candidate extracting means for extracting candidate guide line candidates; a guide line obtained at the time of the previous imaging; and a traveling state of the moving object; A guide line predicting unit for predicting a position, and for an image processed by the guide line candidate extracting unit,
By setting a range of a predetermined width around the predicted line predicted by the guide line predicting means and searching the range, a guide line candidate point is extracted, and a deviation distribution of the guide line candidate point with respect to the predicted line is calculated. And a dispersion-related value calculation means for calculating a variance-related value related to the variance of the deviation distribution calculated by the deviation calculation means. If the variance-related value is equal to or less than a predetermined value, the derivation is performed. A travel line recognition device comprising: a guide line determination unit that employs a line candidate as a genuine guide line.
JP08018698A 1998-03-11 1998-03-11 Roadway recognition device Expired - Fee Related JP3319383B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP08018698A JP3319383B2 (en) 1998-03-11 1998-03-11 Roadway recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP08018698A JP3319383B2 (en) 1998-03-11 1998-03-11 Roadway recognition device

Publications (2)

Publication Number Publication Date
JPH11259639A JPH11259639A (en) 1999-09-24
JP3319383B2 true JP3319383B2 (en) 2002-08-26

Family

ID=13711350

Family Applications (1)

Application Number Title Priority Date Filing Date
JP08018698A Expired - Fee Related JP3319383B2 (en) 1998-03-11 1998-03-11 Roadway recognition device

Country Status (1)

Country Link
JP (1) JP3319383B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3521860B2 (en) 2000-10-02 2004-04-26 日産自動車株式会社 Vehicle travel path recognition device
JP3780848B2 (en) 2000-12-27 2006-05-31 日産自動車株式会社 Vehicle traveling path recognition device
JP3867542B2 (en) * 2001-10-09 2007-01-10 日産自動車株式会社 White line detector
JP4687563B2 (en) 2006-05-23 2011-05-25 株式会社デンソー Lane mark recognition device for vehicles
JP5180126B2 (en) * 2009-03-24 2013-04-10 富士重工業株式会社 Road recognition device
JP5363921B2 (en) * 2009-08-31 2013-12-11 富士重工業株式会社 Vehicle white line recognition device
JP5276637B2 (en) * 2010-09-08 2013-08-28 富士重工業株式会社 Lane estimation device
JP5559650B2 (en) * 2010-09-29 2014-07-23 富士重工業株式会社 Lane estimation device
JP6560355B2 (en) * 2015-08-28 2019-08-14 株式会社日立製作所 Landmark recognition apparatus and recognition method

Also Published As

Publication number Publication date
JPH11259639A (en) 1999-09-24

Similar Documents

Publication Publication Date Title
JP5733395B2 (en) In-vehicle image recognition apparatus, imaging axis adjustment apparatus, and lane recognition method
US8005266B2 (en) Vehicle surroundings monitoring apparatus
EP2422320B1 (en) Object detection device
US7925050B2 (en) Vehicle environment monitoring apparatus
US20190188498A1 (en) Image Processing Method For Recognizing Ground Marking And System For Detecting Ground Marking
JP4420011B2 (en) Object detection device
US6868168B2 (en) Lane recognition system for vehicle
US6546118B1 (en) Image processing apparatus for vehicle
JP4930046B2 (en) Road surface discrimination method and road surface discrimination device
CN107305632B (en) Monocular computer vision technology-based target object distance measuring method and system
JP2007179386A (en) Method and apparatus for recognizing white line
JP4670528B2 (en) Imaging device deviation detection method, imaging device deviation correction method, and imaging device
US8160300B2 (en) Pedestrian detecting apparatus
JP3319383B2 (en) Roadway recognition device
Kumar et al. An efficient approach for highway lane detection based on the Hough transform and Kalman filter
JP3925285B2 (en) Road environment detection device
JP2007299045A (en) Lane recognition device
JP2005173899A (en) Surrounding situation display unit
JP3606039B2 (en) Road shape detection device
JPH08320998A (en) Lane marker detector
JP4225242B2 (en) Travel path recognition device
US7899212B2 (en) Image processing apparatus and image processing method
CN112513573B (en) Stereo camera device
JP3732108B2 (en) Image processing apparatus and image processing method for lane recognition
JP2003196798A (en) Device for detecting white line

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees