JP2728171B2 - Mobile car image processing device - Google Patents

Mobile car image processing device

Info

Publication number
JP2728171B2
JP2728171B2 JP63273304A JP27330488A JP2728171B2 JP 2728171 B2 JP2728171 B2 JP 2728171B2 JP 63273304 A JP63273304 A JP 63273304A JP 27330488 A JP27330488 A JP 27330488A JP 2728171 B2 JP2728171 B2 JP 2728171B2
Authority
JP
Japan
Prior art keywords
image
straight line
image processing
roadside
road
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP63273304A
Other languages
Japanese (ja)
Other versions
JPH02120910A (en
Inventor
健二 藤田
八州男 香川
和宏 角
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Matsuda KK
Original Assignee
Matsuda KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsuda KK filed Critical Matsuda KK
Priority to JP63273304A priority Critical patent/JP2728171B2/en
Publication of JPH02120910A publication Critical patent/JPH02120910A/en
Application granted granted Critical
Publication of JP2728171B2 publication Critical patent/JP2728171B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明は、走行路の画像からその走行路端を認識する
ための移動車の画像処理装置に関する。
Description: TECHNICAL FIELD The present invention relates to an image processing apparatus for a moving vehicle for recognizing a road end from an image of the road.

(従来の技術) 外界を認識して自律走行制御を行なう移動車において
は、一般に路端等を検出して、この路端に沿つて走行制
御を行なうようにしている。例えば、特開昭61−240307
号のように、画像を取り込んで、この画像中から路端の
無限遠点を認識し、この点から規定される無限遠線に基
づいて移動車の走行制御を行なうようにしている。即
ち、走行制御のためには、少なくとも、目標コースに対
する横変位(走行路端からの距離)の誤差を知る必要が
あるのである。
2. Description of the Related Art Generally, a mobile vehicle that performs autonomous traveling control by recognizing the outside world detects a roadside or the like and performs traveling control along the roadside. For example, JP-A-61-240307
As shown in the figure, an image is fetched, the infinity point on the roadside is recognized from the image, and the traveling control of the mobile vehicle is performed based on the infinity line defined from this point. In other words, for traveling control, it is necessary to know at least an error of the lateral displacement (distance from the traveling road end) with respect to the target course.

(発明が解決しようとする課題) ところで、画像から走行路端を認識するためには、第
7図に示したように、走行路端画像の直線方程式y=kx
+lを求める必要がある。この直線は走行路端に接する
ものとして認識される。ところが、従来においては、こ
の方程式を求めるために1画面全体の画像データを処理
対象としており、走行路端認識に時間がかかり高速処理
には適していなかつた。
(Problems to be Solved by the Invention) By the way, in order to recognize the roadside edge from the image, as shown in FIG. 7, the linear equation y = kx
It is necessary to find + l. This straight line is recognized as being in contact with the road end. However, conventionally, image data of one entire screen is processed for obtaining this equation, and it takes a long time to recognize a road end, and is not suitable for high-speed processing.

そこで、本発明は上述従来例の欠点を除去するために
提案されたもので、その目的は、画像処理対象領域を何
等かの形で絞り込み、走行路端認識のための画像処理を
高速に行なうことのできる移動車の画像処理装置を提案
するところにある。
Therefore, the present invention has been proposed in order to eliminate the drawbacks of the above-described conventional example. The purpose of the present invention is to narrow down the image processing target area in some form and perform image processing for roadway edge recognition at high speed. The present invention proposes an image processing device for a mobile vehicle that can perform the image processing.

(課題を達成するための手段及び作用) 上記課題を達成するための本発明に係る移動車の画像
処理装置の構成は、認識された走行路端に基づいて走行
制御を行なう移動車において、外界認識のために走行路
の画像を撮る撮像手段と、走行路端に関する複数の認識
結果に基づいて、走行路端認識のための画像処理対象領
域を、前記撮像された画像から抽出する手段と、この抽
出された画像領域の情報から走行路端を認識する手段と
を備えたことを特徴とする。
(Means and Actions for Achieving the Object) A configuration of an image processing device for a mobile vehicle according to the present invention for achieving the above object is provided in a mobile vehicle that performs travel control based on a recognized travel road edge. Imaging means for taking an image of the traveling road for recognition, and means for extracting an image processing target area for traveling road edge recognition from the captured image based on a plurality of recognition results regarding the traveling road edge, Means for recognizing the road end from the information of the extracted image area.

(実施例) 以下添付図面を参照して、本発明の画像処理装置を、
走行制御のための走行路端認識に適用した実施例を説明
する。
(Embodiment) With reference to the accompanying drawings, an image processing apparatus of the present invention will be described.
An embodiment applied to recognition of a road end for traveling control will be described.

(実施例の原理) この実施例は、道路の構造が、特に、高速道路等の環
境においては、連続的且つ滑らかに変化している点に着
目する。即ち、過去認識された走行路端の情報から、現
在若しくは未来の走行路端のありそうな範囲を予測し、
現時点で得られた画像中のこの予測された範囲内を走行
路端認識のための探索範囲とする。道路構造が連続的且
つ滑らかに変化していれば、このような予測範囲内に走
行路端があるという可能性はかなり高くなる。そして、
この絞られた範囲内に画像処理を集中すれば、走行路端
認識の速度は向上するのである。
(Principle of Embodiment) This embodiment focuses on the fact that the structure of a road changes continuously and smoothly, especially in an environment such as a highway. That is, from the information of the traveling road edge recognized in the past, a likely range of the present or future traveling road edge is predicted,
The predicted range in the image obtained at the present time is set as a search range for roadway edge recognition. If the road structure changes continuously and smoothly, the possibility that the road end lies within such a predicted range is considerably increased. And
If image processing is concentrated within the narrowed range, the speed of roadside recognition can be improved.

走行路端を表わす直線の方程式は、基本的には2つの
パラメータで規定できる。これらのパラメータとは、例
えば、 :xy直交座標形では、傾きと切片(第7図の場合で
は、傾きkと切片l)、若しくは2点の座標位置であ
り、 :また曲座標表示では、その直線上の一点が与えられ
た場合、この一点と所定の原点との距離ρと、この原点
とその一点とを結ぶ線分と座標軸との交角θとである。
The equation of the straight line representing the road end can be basically defined by two parameters. These parameters are, for example, in the: xy rectangular coordinate system, a slope and an intercept (in the case of FIG. 7, a slope k and an intercept l) or coordinate positions of two points. When a point on the straight line is given, the distance ρ between the point and a predetermined origin, and the intersection angle θ between a line connecting the origin and the point and the coordinate axis.

その他にも、直線の表現方法は種々ある。このよう
に、平面内の直線は2つのパラメータで規定されるか
ら、本実施例では、過去認識された直線のパラメータ
を、現在若しくは未来に対して外挿して、凡そのパラメ
ータ(範囲を持つ)を予測し、この予測されたパラメー
タを初期情報として現時点で得られた画像を修正する、
即ち、画像領域を絞り込むようにしている。そして、絞
り込んだ画像から走行路端を表わす直線を高速且つ正確
に得るようにしている。即ち、この実施例では (i):過去の認識結果に基づいたパラメータの予測、 (ii):予測に基づいた探索範囲の設定、 (iii):探索範囲に基づいた画像抽出、 (iv)抽出部分の画像データに基づいたパラメータ算
出、 (v):認識結果の更新 という循環で路端認識を行なう。
There are various other methods of expressing a straight line. As described above, since the straight line in the plane is defined by the two parameters, in this embodiment, the parameters of the straight line recognized in the past are extrapolated to the present or future, and the approximate parameters (having a range) are obtained. , And corrects the image obtained at this time using the predicted parameters as initial information.
That is, the image area is narrowed down. Then, a straight line representing the road end is obtained at high speed and accurately from the narrowed-down images. That is, in this embodiment, (i): prediction of parameters based on past recognition results, (ii): setting of a search range based on prediction, (iii): image extraction based on the search range, (iv) extraction The roadside recognition is performed in a cycle of calculating parameters based on the image data of the part, and (v): updating the recognition result.

〈実施例装置の構成〉 第2図は、本発明に係る画像処理装置を、走行制御を
行なうために移動車に組み込んだときの、その移動車1
の構成を示す図である。移動車1は、外界の画像を撮る
ためのビデオカメラ2、画像処理装置を組み込んだ走行
制御コントローラ5、走行距離を計るために車輪の回転
数を検知するエンコーダセンサ3、そして、実際に移動
車1の走行を制御するための車両コントローラ4を搭載
している。この移動車1は通常のガソリンエンジン(不
図示)により駆動され、不図示のステアリング機構によ
り操舵される。車両コントローラ4は、スロツトルアク
チユエータを制御することにより移動車走行速度を制御
し、また、ステアリングアクチユエータを制御すること
により移動車走行方向を制御し、ブレーキアクチユエー
タ(不図示)を制御して移動車の制動を行なわしめる。
尚、6はカメラ2の取付け角度(α)を検知するセンサ
であり、この角度とカメラ取付け位置dでもつて、画像
内の水平線を推定する。
<Configuration of Example Apparatus> FIG. 2 shows a mobile vehicle 1 when the image processing apparatus according to the present invention is incorporated in a mobile vehicle for performing travel control.
FIG. 3 is a diagram showing the configuration of FIG. The moving vehicle 1 includes a video camera 2 for taking an image of the outside world, a traveling control controller 5 incorporating an image processing device, an encoder sensor 3 for detecting the number of rotations of wheels for measuring a traveling distance, and an actual moving vehicle. 1 is mounted with a vehicle controller 4 for controlling the traveling of the vehicle. The mobile vehicle 1 is driven by a normal gasoline engine (not shown) and is steered by a steering mechanism (not shown). The vehicle controller 4 controls the traveling speed of the moving vehicle by controlling the throttle actuator, controls the traveling direction of the moving vehicle by controlling the steering actuator, and controls the brake actuator (not shown). Is controlled so that the moving vehicle is braked.
Reference numeral 6 denotes a sensor for detecting the mounting angle (α) of the camera 2, and estimates the horizontal line in the image based on the angle and the camera mounting position d.

走行制御コントローラ5の詳細を第1図に示す。この
コントローラ5は、同図に示すように、画像処理部10と
経路誘導部11とからなる。画像処理部10は、画像抽出部
10aと、予測部10bと、修正部10cと、補間式生成部10dと
からなる。予測部10bは、補間式生成部10dが生成した補
間式(これは過去のデータに基づいて生成された)に従
つて、現在の画像の路端を規定するであろうパラメータ
ρP,θPを補間する(即ち、予測する)。この予測法
は、後述のラグランジユ(Lagrange)の補間法に従つて
いる。予測部10bはこの予測パラメータρPθPを修正部1
0cに出力する。修正部10cはこのパラメータρP,θP
基づいて、画像内の探索範囲に関するデータ[R,Θ]を
画像抽出部10aに出力する。画像抽出部10aは抽出した領
域の画像データを修正部10cに送る。修正部10cでは、後
述のハフ(Hough)変換を用いて、路端を表わす近似直
線を規定するパラメータρCθCを出力する。この路端情
報パラメータρCθCは経路誘導部に送られ、そこで、自
動位置と路端との誤差に基づいた走行制御を行なうため
のステアリング角度,車速等を演算して、車両コントロ
ーラ4に出力する。
FIG. 1 shows details of the travel control controller 5. The controller 5 includes an image processing unit 10 and a route guidance unit 11, as shown in FIG. The image processing unit 10 includes an image extraction unit
10a, a prediction unit 10b, a correction unit 10c, and an interpolation formula generation unit 10d. According to the interpolation formula generated by the interpolation formula generation unit 10d (which is generated based on past data), the prediction unit 10b determines parameters ρ P and θ P that will define the road end of the current image. (Ie, predict). This prediction method follows the Lagrange interpolation method described later. The prediction unit 10b modifies the prediction parameter ρ P θ P
Output to 0c. The correction unit 10c outputs data [R, Θ] regarding the search range in the image to the image extraction unit 10a based on the parameters ρ P and θ P. The image extracting unit 10a sends the image data of the extracted area to the correcting unit 10c. The correction unit 10c outputs a parameter ρ C θ C that defines an approximate straight line representing a roadside by using a Hough transform described later. The road-edge information parameter [rho C theta C is sent to the route guidance unit, where the steering angle for performing travel control based on the error between the automatic position and Michitan, by calculating the vehicle speed, the vehicle controller 4 Output.

本実施例では、路端を規定する直線方程式を、上述の
のパラメータρ,θによつて表わす手法を採用する。
これは、主に、パラメータρ,θがハフ変換に用い易い
からである。また、ハフ変換は最小自乗法よりも直線方
程式を得るのに高速に行なえるからである。
In this embodiment, a method is employed in which a straight line equation defining a road end is represented by the above-mentioned parameters ρ and θ.
This is mainly because the parameters ρ and θ are easy to use for the Hough transform. Also, the Hough transform can be performed faster to obtain a linear equation than the least squares method.

〈ハフ変換〉 第3図に従つて、ハフ変換について説明する。路端は
画像として入力されると“1"の画素の集りとなる。ハフ
変換はこの“1"の画素点が線状に分布しているときに、
この各点を沿つた直線を近似的に得る方法である。
<Hough Transform> The Hough transform will be described with reference to FIG. The roadside is a group of “1” pixels when input as an image. Hough transform is performed when the pixel points of "1" are linearly distributed.
In this method, a straight line along each point is approximately obtained.

XY空間で、第3A図のように、2つの点、 A:(XAyA) B:(xByB) があるとする。これらの点が“1"の画素を表わすものと
する。A点を通るあらゆる直線は、 ρ=XAcosθ+yAsinθ また、B点を通るあらゆる直線は、 ρ=xBcosθ+yBsinθ で表わされる。ρ,θを変数と考えれば、A点を通る直
線群は、第3B図の三角関数の曲線Iのようになり、同じ
く、点Bを通る直線群は第3B図の曲線IIのようになる。
点A及びBを通る直線を表わすρP,θPは、曲線IとII
の交点にある筈である。即ち、ρP,θPに対して、 ρP=xAcosθP+yAsinθP ρP=xBcosθP+yBsinθP が成り立つ。さて、2点を通る直線は一意的に決まる
が、3点を通る直線は一般的に近似的にしか決まらな
い。3点を通る夫々の直線群に対応する3つのρθ曲線
は3点で交わる。もし、この3点が略1つの直線上に載
り得るほどに直線近似が可能であれば、3つの交点は近
接している筈である。この考え方を発展させて、画像内
の“1"の画素群は、各画素を通る直線群の夫々に対応す
るρθ平面上のρθ曲線に変換できる。そして、これら
の曲線同士の交点の分布内の特定のρ*,θ*によつて特
定される直線、例えば、 ρ*=xAcosθ*+yAsinθ* によつて、画素群は直線近似される。
In XY space, as in the Figure 3A, two points, A: (X A y A ) B: a is (x B y B). These points represent the pixel of "1". Any straight line passing through the point A is represented by ρ = X A cos θ + y A sin θ, and any straight line passing through the point B is represented by ρ = x B cos θ + y B sin θ. If ρ and θ are considered as variables, a straight line group passing through the point A is like a triangular function curve I in FIG. 3B, and a straight line group passing through the point B is like a curve II in FIG. 3B. .
Ρ P and θ P representing a straight line passing through points A and B are represented by curves I and II
Should be at the intersection of That, [rho P, with respect to θ P, ρ P = x A cosθ P + y A sinθ P ρ P = x B cosθ P + y B sinθ P holds. A straight line passing through two points is uniquely determined, but a straight line passing through three points is generally determined only approximately. Three ρθ curves corresponding to respective straight line groups passing through three points intersect at three points. If a straight line approximation is possible so that these three points can be placed on substantially one straight line, the three intersection points should be close to each other. By developing this idea, the group of “1” pixels in the image can be converted into a ρθ curve on the ρθ plane corresponding to each of the straight lines passing through each pixel. The specific [rho * in the distribution of the intersection of these curves between a straight line is Yotsute identified theta *, for example, ρ * = x A cosθ * + y A sinθ * in Yotsute, pixel groups are linearly approximated You.

ただ、このようなハフ変換による近似直線を求める処
理を、画像内の全ての点に対して行なうのは現実的でな
い。何故なら、画像内には走行路端以外の画像も存在す
るから、路端に関係のない画素を含めて、全ての画素点
を通る近似直線は算出して、もつて路端の直線近似をす
ること自体が無意味となるからである。
However, it is not realistic to perform such a process of obtaining an approximate straight line by the Hough transform for all points in an image. Because there is an image other than the roadside in the image, the approximate straight line passing through all the pixel points including the pixel unrelated to the roadside is calculated, and the straight line approximation of the roadside is calculated. This is because doing it becomes meaningless.

そこで、本実施例では、ハフ変換による近似直線を求
める処理を次のようにしている。即ち、後述の補間式に
基づいた予測に従つて、過去の路端情報に基づいて、現
時点の路端があり得るだろう予測値ρP,θP(Pは予測
を意味する添字)を得、この予測値に基づいて、一定の
範囲を走行路端の探索対象範囲とするのである。ここ
で、補間式とは、本実施例では、一例として、ラグラン
ジユの補間法に従つている。また、上記一定範囲とは、
ρθの集合[R,Θ]により規定され、 R∈[ρP−Δρ,ρP+Δρ] Θ∈[θP−Δθ,θP+Δθ] の範囲である。このような予測により、第3B図に示した
ような範囲III内にハフ変換が限定され、直線抽出処理
が早まるのである。
Therefore, in the present embodiment, the process of obtaining an approximate straight line by the Hough transform is performed as follows. Obtained i.e. accordance connexion to prediction based on interpolation formula below, past based on the road-edge information, the predicted value will get there are road-edge of current [rho P, theta P a (subscript P is to mean prediction) On the basis of the predicted value, a certain range is set as a search target range of the roadside. In the present embodiment, the interpolation expression follows the Lagrangian interpolation method as an example. Also, the above-mentioned fixed range is
set of ρθ [R, Θ] is defined by, R∈ [ρ P -Δρ, ρ P + Δρ] Θ∈ [θ P -Δθ, θ P + Δθ] is in the range of. With such a prediction, the Hough transform is limited to the range III as shown in FIG. 3B, and the straight line extraction processing is accelerated.

〈ラグランジユの補間法〉 第4図に基づいて、ラグランジユの補間法について説
明する。この補間法は、過去のn個のデータに基づいて
次のデータを補間する方法であり、n時の補間多項式に
よつて表わされる。
<Lagrangian interpolation method> A Lagrange interpolation method will be described with reference to FIG. This interpolation method is a method of interpolating the next data based on the past n data, and is represented by an interpolation polynomial at the time of n.

第4A図及び第4B図は、移動車が走行位置d0d1d2
…dnと順々に移動したときに、過去得られた前記パラ
メータρθの変化を表わしている。例えば、位置d0にい
たときに路端の直線(ρ0θ0)が得られ、位置d1にいた
ときに路端の直線(ρ1θ1)が得られ、‥‥‥、(ρn
θn)が得られたというわけである。そして、これらの
データから走行位置dにいるときのρθを予測して、 ρP(d),θP(d) を得ることを目的とする。尚、dはエンコーダセンサ3
から得られる。
FIG. 4A and FIG. 4B show that the moving vehicle is traveling at a position d 0 d 1 d 2
.., D n , which represent changes in the parameter ρθ obtained in the past. For example, a roadside straight line (ρ 0 θ 0 ) is obtained when the vehicle is at the position d 0 , and a road end straight line (ρ 1 θ 1 ) is obtained when the vehicle is at the position d 1. n
θ n ) was obtained. Then, by predicting the ρθ when you are from these data the running position d, ρ P (d), and to obtain theta P a (d). Note that d is the encoder sensor 3
Obtained from

ρP及びθPについての予測手法は同じであるから、以
下、ρについての予測を説明する。
Since the prediction method for ρ P and θ P is the same, the prediction for ρ will be described below.

第4A図において、点(d0ρ0),(d1ρ1)‥‥‥,
(dnρn)を通り、予測値ρP(d)を与えるn次の補間
多項式は、 で表わされる。ここで、(n+1)個のa0〜anはこの多
項式の係数である。点(d0ρ0),(d1ρ1),‥‥‥,
(dnρn)は過去の点であるから、それらの値は既知の
ものである。また、上式で与えられる一般式のρ
P(d)はn+1個の点を通るから、 であるから、このn+1個の式を解くことにより係数a0
〜anを求めると 従って、d点で予測したときのρP(d)は、 と表わされる。θP(d)についても全く同様にして得
られる。尚、区別のために、θP(d)についての係数
を、bで表わすこととすると、 であり、d点で予測したときのθP(d)は、 である。
In FIG. 4A, the points (d 0 ρ 0 ), (d 1 ρ 1 ) ‥‥‥,
The ( n ) th order interpolation polynomial that passes through (d n ρ n ) and gives the predicted value ρ P (d) is Is represented by Here, the coefficients of the (n + 1) number of a 0 ~a n This polynomial. The points (d 0 ρ 0 ), (d 1 ρ 1 ), ‥‥‥,
Since (d n ρ n ) is a point in the past, their values are known. Also, ρ of the general formula given by the above formula
Since P (d) passes through n + 1 points, By solving the n + 1 equations, the coefficient a 0
If you ask ~ an Therefore, ρ P (d) when predicted at point d is It is expressed as θ P (d) is obtained in exactly the same way. For the sake of distinction, if the coefficient for θ P (d) is represented by b, And θ P (d) when predicted at point d is It is.

即ち、過去のデータd0〜dn、a0〜an、b0〜bn、ρ0
ρn、θ0〜θnと、現時点の位置dとが分かれば、ρ
P(d)とθP(d)が予測できるのであり、このρ
P(d)、θP(d)をρPθPとして、前述の探索範囲
[R,Θ]、 R∈[ρP−Δρ,ρP+Δρ] Θ∈[θP−Δθ,θP+Δθ] の決定に使用するものである。
In other words, historical data d 0 ~d n, a 0 ~a n, b 0 ~b n, ρ 0 ~
If ρ n and θ 0 to θ n and the current position d are known, ρ
P (d) and θ P (d) can be predicted.
Let P (d) and θ P (d) be ρ P θ P , and the search range [R, Θ], R ∈ [ρ P −Δρ, ρ P + Δρ] Θ∈ [θ P −Δθ, θ P + Δθ] ] Is used for the determination.

〈制御手順〉 第5図は、画像処理部10における処理制御手順を示す
フローチヤートである。ステツプS2ではエンコーダ3か
ら走行距離dを求める。ステツプS4では、過去のデータ
d0〜dn、a0〜an、b0〜bn、ρ0〜ρn、θ0〜θnをメモリ
から読出す。これらの過去のデータは所定のメモリに第
6図に示すように、インデツクス読出し可能に格納され
ている。ステツプS6では、補間多項式ρP(d),θ
P(d)を生成し、ステツプS8では新たな係数a′,b′
(第6図のa1′等)を計算し、前述した式に基づいてρ
P(d),θP(d)を計算する。ステツプS10では探索
範囲[R,Θ]、 R∈[ρP−Δρ,ρP+Δρ] Θ∈[θP−Δθ,θP+Δθ] を決定する。このときのΔρ,Δθは例えば、 Δρ=|ρP−ρ0|/2 Δθ=|θP−θ0|/2 と選ぶとよい。ρ0,θ0は予測に使用した過去のデータ
であり、予測値とかけ離れた値とはならないからであ
る。
<Control Procedure> FIG. 5 is a flowchart showing a processing control procedure in the image processing unit 10. In step S2, the traveling distance d is obtained from the encoder 3. In step S4, past data
d 0 ~d n, reads a 0 ~a n, b 0 ~b n, ρ 0 ~ρ n, the θ 0n from memory. These past data are stored in a predetermined memory so that the index can be read out, as shown in FIG. In step S6, the interpolation polynomial ρ P (d), θ
P (d) is generated, and in step S8, new coefficients a 'and b'
(Such as a 1 ′ in FIG. 6) and calculate ρ based on the above-described equation.
Calculate P (d) and θ P (d). Step S10 in the search range [R, Θ], R∈ [ ρ P -Δρ, ρ P + Δρ] Θ∈ [θ P -Δθ, θ P + Δθ] determined. At this time, Δρ and Δθ may be selected, for example, as follows: Δρ = | ρ P −ρ 0 | / 2 Δθ = | θ P −θ 0 | / 2 This is because ρ 0 and θ 0 are past data used for prediction and do not become values far from predicted values.

ステツプS12では、この探索範囲を抽出部10aに送つ
て、その範囲の画像データを切り出してきて、ステツプ
S14で、その画像データに基づいて、前述のハフ変換に
従つて、近似直線 ρC=xicosθC+yisinθc を計算する。ステツプS16では、車両コントローラに対
して、ρC,θCを送出する。
In step S12, this search range is sent to the extraction unit 10a, and image data in that range is cut out.
In S14, based on the image data, an approximate straight line ρ C = x i cos θ C + y i sin θ c is calculated according to the Hough transform described above. In step S16, ρ C and θ C are sent to the vehicle controller.

ステツプS16では、次回の予測のために、今回演算し
たa′,b′,をa,bの領域に移して更新する(第6図参
照)。また、同じく、 ρn←ρC θn←θC も行なつて更新する。
In step S16, for the next prediction, the currently calculated a ', b', are moved to the area a, b and updated (see FIG. 6). Similarly, ρ n ← ρ C θ n ← θ C is also updated.

以上の制御手順を、1枚の画像を入力する毎に繰返
す。こうして、予測を行なつて画像処理領域を絞り込
み、路端を表わす直線を規定するパラメータを高速に演
算できる。そして、高速に認識された路端から、高速に
走行制御が可能となる。
The above control procedure is repeated every time one image is input. Thus, the image processing area is narrowed down by performing the prediction, and the parameter defining the straight line representing the roadside can be calculated at high speed. Then, traveling control can be performed at high speed from the road edge recognized at high speed.

上記説明では、補間多項式はn次であつたが、予測精
度及び計算時間のバランスから、n=3〜5程度が適当
である。また、Δρ及びΔθは、上述の定義の他に、前
もつて予測精度に応じて決めておいてもよい。
In the above description, the interpolation polynomial is of order n, but it is appropriate that n = about 3 to 5 from the balance between prediction accuracy and calculation time. Further, Δρ and Δθ may be determined according to the prediction accuracy in addition to the above-described definitions.

上記実施例では、直線抽出にハフ変換を用いたが、こ
れは、計算速度の関係から使用したのであり、他にエツ
ジ検出差分法を適用できる。また、補間式も、ラグラン
ジユ多項式の他に、ニユートン(Newton)補間多項式を
用いてもよい。即ち、本発明においては、過去のデータ
から、直線抽出のための探索範囲を予測し、この範囲内
で直線抽出するものであれば、直線表現方法、直線抽出
方法、予測方法には限定されないのである。
In the above embodiment, the Hough transform is used for the straight line extraction. However, this is used because of the calculation speed, and the edge detection difference method can be applied. In addition, a Newton interpolation polynomial may be used as the interpolation formula in addition to the Lagrangian polynomial. That is, in the present invention, a search range for extracting a straight line is predicted from past data, and a straight line extraction method, a straight line extraction method, and a prediction method are not limited as long as a straight line is extracted within this range. is there.

(発明の効果) 以上説明したように本発明に係る移動車の画像処理装
置の構成は、認識された走行路端に基づいて走行制御を
行なう移動車において、外界認識のために走行路の画像
を撮る撮像手段と、走行路端に関する複数の認識結果に
基づいて、走行路端認識のための画像処理対象領域を、
前記撮像された画像から抽出する手段と、この抽出され
た画像領域の情報から走行路端を認識する手段とを備え
たことを特徴とする。
(Effects of the Invention) As described above, the configuration of the image processing device for a moving vehicle according to the present invention is applied to a moving vehicle that performs running control based on a recognized running road edge. Imaging means for photographing, based on a plurality of recognition results related to the roadside, an image processing target area for the roadside recognition,
It is characterized by comprising means for extracting from the captured image, and means for recognizing the road end from the information of the extracted image area.

従つて、画像処理対象領域が絞り込まれているので、
走行路端認識のための時間が短くなる。また、過去の認
識結果に基づいて、画像処理対象領域が規定されるの
で、このような絞り込みを行なつても誤差は少ない。
Therefore, since the image processing target area is narrowed down,
The time for roadside recognition is reduced. Further, since the image processing target area is defined based on the past recognition result, even if such a narrowing is performed, an error is small.

本発明の好適な一態様に拠れば、路端を直線近似する
ことにより、路端認識の精度及び速度が向上する。
According to a preferred aspect of the present invention, the accuracy and speed of roadside recognition are improved by linearly approximating the roadside.

【図面の簡単な説明】[Brief description of the drawings]

第1図は本発明に係る画像処理装置の一実施例の構成を
示す図、 第2図は実施例に使用される移動車の内部構成を説明す
る図、 第3A図,第3B図はハフ変換の原理を説明する図、 第4A図,第4B図はラグランジユ補間の原理を説明する
図、 第5図は実施例の制御に係る手順を示すフローチヤー
ト、 第6図は予測に使用される過去の認識結果データを格納
するときの構成を示す図、 第7図は従来の欠点を説明する図図である。 図中、 1…移動車、2…カメラ、3…エンコーダセンサ、4…
車両コントローラ、5…走行コントローラ、6…カメラ
角度センサ、10…画像処理装置、10a…画像抽出部、10b
…予測部、10c…修正部、10d…補間式生成部、11…経路
誘導部である。
FIG. 1 is a diagram showing a configuration of an embodiment of an image processing apparatus according to the present invention, FIG. 2 is a diagram for explaining an internal configuration of a moving vehicle used in the embodiment, FIG. 3A and FIG. 4A and 4B are diagrams illustrating the principle of Lagrangian interpolation, FIG. 5 is a flowchart illustrating a procedure related to control of the embodiment, and FIG. 6 is used for prediction. FIG. 7 is a diagram showing a configuration for storing past recognition result data, and FIG. 7 is a diagram for explaining a conventional defect. In the figure, 1 ... moving vehicle, 2 ... camera, 3 ... encoder sensor, 4 ...
Vehicle controller, 5: Travel controller, 6: Camera angle sensor, 10: Image processing device, 10a: Image extraction unit, 10b
.., A prediction unit, 10c, a correction unit, 10d, an interpolation formula generation unit, and 11, a route guidance unit.

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】認識された走行路端に基づいて走行制御を
行なう移動車において、 外界認識のために走行路の画像を撮る撮像手段と、 走行路端に関する複数の認識結果に基づいて、走行路端
認識のための画像処理対象領域を、前記撮像された画像
から抽出する手段と、 この抽出された画像領域の情報から走行路端を認識する
手段とを備えた移動車の画像処理装置。
An image pickup means for taking an image of a traveling road for recognizing the outside world, and traveling based on a plurality of recognition results relating to the traveling road edge. An image processing device for a mobile vehicle, comprising: means for extracting an image processing target area for roadside recognition from the captured image; and means for recognizing a roadside edge from information on the extracted image area.
【請求項2】前記認識手段は、走行路端を直線近似によ
り、前記画像領域から認識することを特徴とする請求項
1に記載の移動車の画像処理装置。
2. The apparatus according to claim 1, wherein said recognizing means recognizes a road end from the image area by linear approximation.
JP63273304A 1988-10-31 1988-10-31 Mobile car image processing device Expired - Fee Related JP2728171B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63273304A JP2728171B2 (en) 1988-10-31 1988-10-31 Mobile car image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63273304A JP2728171B2 (en) 1988-10-31 1988-10-31 Mobile car image processing device

Publications (2)

Publication Number Publication Date
JPH02120910A JPH02120910A (en) 1990-05-08
JP2728171B2 true JP2728171B2 (en) 1998-03-18

Family

ID=17526000

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63273304A Expired - Fee Related JP2728171B2 (en) 1988-10-31 1988-10-31 Mobile car image processing device

Country Status (1)

Country Link
JP (1) JP2728171B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04293109A (en) * 1991-03-22 1992-10-16 Matsushita Electric Ind Co Ltd Running lane tracking device, running lane deviation alarm device and autonomous running controller
JP2907613B2 (en) * 1991-12-16 1999-06-21 株式会社クボタ Crop row detector

Also Published As

Publication number Publication date
JPH02120910A (en) 1990-05-08

Similar Documents

Publication Publication Date Title
JP6323473B2 (en) Travel control device
JP2835764B2 (en) Automatic traveling device
JP2660727B2 (en) Automatic traveling device
JPH10208047A (en) On-vehicle traveling environment recognizing device
JP4670528B2 (en) Imaging device deviation detection method, imaging device deviation correction method, and imaging device
JP2018048949A (en) Object recognition device
JP2618254B2 (en) Travel route display device
JP3079841B2 (en) Road shape and own vehicle position measurement device
JPH08136237A (en) Device for calculating gradient of road and car speed controller
RU2733198C1 (en) Method of vehicle movement control and vehicle movement control device
US11619495B2 (en) Position estimating apparatus and position estimating method
JP2728171B2 (en) Mobile car image processing device
JPH07296291A (en) Traveling lane detector for vehicle
JPH1137730A (en) Road shape estimating apparatus
JPH04274935A (en) Device for deciding quantity of operation of vehicle
JP3319383B2 (en) Roadway recognition device
JP2603523B2 (en) Automatic traveling device
JP3757500B2 (en) Leading vehicle following device
JPH1139464A (en) Image processor for vehicle
JPH09243326A (en) Road white line recognition system
JP2923664B2 (en) Automatic traveling device
JP2720630B2 (en) Steering control device for autonomous vehicles
JPH03139706A (en) Vehicle state quantity measuring instrument
JPH07198349A (en) Measurement device of road shape and self attitude of vehicle
JP2915474B2 (en) Travel control device for mobile vehicles

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees