JPH02120910A - Image processor for moving vehicle - Google Patents

Image processor for moving vehicle

Info

Publication number
JPH02120910A
JPH02120910A JP63273304A JP27330488A JPH02120910A JP H02120910 A JPH02120910 A JP H02120910A JP 63273304 A JP63273304 A JP 63273304A JP 27330488 A JP27330488 A JP 27330488A JP H02120910 A JPH02120910 A JP H02120910A
Authority
JP
Japan
Prior art keywords
image
image processing
road
straight line
parameters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP63273304A
Other languages
Japanese (ja)
Other versions
JP2728171B2 (en
Inventor
Kenji Fujita
健二 藤田
Yasuo Kagawa
香川 八州男
Kazuhiro Sumi
和宏 角
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP63273304A priority Critical patent/JP2728171B2/en
Publication of JPH02120910A publication Critical patent/JPH02120910A/en
Application granted granted Critical
Publication of JP2728171B2 publication Critical patent/JP2728171B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PURPOSE:To narrow down an image processing area and to rapidly execute image processing for recognizing the end of a traveling road by extracting the image processing area for recognizing the end of the traveling road from a picked-up image. CONSTITUTION:A forecasting part 10b interpolates (forecastes) parameters rhop, thetap for regulating the road end of a current image in accordance with an interpolation formula formed by an interpolation formula forming part 10d and a correction part 10c outputs data [R, THETA] relating to a searching range in the image based upon the parameters rhop, thetap to an image extracting part 10a. The image extracting part 10a sends image data in the extracted area to the correction part 10c and the correction part 10c outputs parameters rhoc, thetac for regulating an approximate straight line expressing the road end to a route guiding part 11. Thus, the image processing area can be narrowed down and time required for recognizing the end of the traveling route can be shortened.

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明は、走行路の画像からその走行路端を認識するだ
めの移動車の画像処理装置に関する。
DETAILED DESCRIPTION OF THE INVENTION (Field of Industrial Application) The present invention relates to an image processing device for a moving vehicle that recognizes the edge of a running road from an image of the running road.

(従来の技術) 外界を認識して自律走行制御を行なう移動車においては
、一般に絡端等を検出して、この絡端に沿って走行制御
を行なうようにしている。例えば、特開昭61−240
307号のように、画像を取り込んで、この画像中から
絡端の無限遠点を認識し、この点から規定される無限遠
線に基づいて移動車の走行制御を行なうようにしている
。即ち、走行制御のためには、少なくとも、目標コース
に対する横変位(走行路端からの距離)の誤゛差を知る
必要があるのである。
(Prior Art) In a mobile vehicle that recognizes the outside world and performs autonomous driving control, a tangled edge or the like is generally detected and running control is performed along this tangled edge. For example, JP-A-61-240
As in No. 307, an image is captured, the point at infinity of the tied end is recognized from this image, and the running of the moving vehicle is controlled based on the line at infinity defined from this point. That is, for running control, it is necessary to know at least the error difference in lateral displacement (distance from the end of the road) with respect to the target course.

(発明が解決しようとする課題) ところで、画像から走行路端を認識するためには、第7
図に示したように、走行絡端画像の直線方程式y=kx
+nを求める必要がある。この直線は走行路端に接する
ものとして認識される。ところが、従来においては、こ
の方程式を求めるために1画面全体の画像データを処理
対象としており、走行路端認識に時間がかかり高速処理
には適していなかった。
(Problem to be solved by the invention) By the way, in order to recognize the road edge from an image, the seventh
As shown in the figure, the straight line equation of the running end image y=kx
It is necessary to find +n. This straight line is recognized as being in contact with the edge of the road. However, in the past, in order to obtain this equation, the image data of the entire screen was processed, which took time to recognize the road edge and was not suitable for high-speed processing.

そこで、本発明は上述従来例の欠点を除去するために提
案されたもので、その目的は、画像処理対象領域を何等
かの形で絞り込み、走行路端認識のための画像処理を高
速に行なうことのできる移動車の画像処理装置を提案す
るところにある。
Therefore, the present invention was proposed in order to eliminate the drawbacks of the above-mentioned conventional example, and its purpose is to narrow down the image processing target area in some way and perform image processing for road edge recognition at high speed. The aim is to propose an image processing device for moving vehicles that can perform the following tasks.

(課題を達成するだめの手段及び作用)上記課題を達成
するための本発明に係る移動車の画像処理装置の構成は
、認識された走行路端に基づいて走行制御を行なう移動
車において、外界認識のために走行路の画像を撮る撮像
手段と、走行路端に関する複数の認識結果に基づいて、
走行路端認識のための画像処理対象領域を、前記撮像さ
れた画像から抽出する手段と、この抽出された画像領域
の情報から走行路端を認識する手段とを備えたことを特
徴とする。
(Means and operations for achieving the object) The configuration of the image processing device for a moving vehicle according to the present invention for achieving the above object is such that a moving vehicle that performs driving control based on the recognized road edge is configured to Based on an imaging means that takes an image of the running road for recognition and multiple recognition results regarding the running road edge,
The present invention is characterized by comprising means for extracting an image processing target area for recognizing a running road edge from the captured image, and means for recognizing a running road edge from information on the extracted image area.

(実施例) 以下添付図面を参照して、本発明の画像処理装置を、走
行制御のための走行路端認識に適用した実施例を説明す
る。
(Example) An example in which the image processing device of the present invention is applied to road edge recognition for travel control will be described below with reference to the accompanying drawings.

〈実施例の原理〉 この実施例は、道路の構造が、特に、高速道路等の環境
においては、連続的且つ滑らかに変化している点に着目
する。即ち、過去認識された走行路端の情報から、現在
若しくは未来の走行路端のありそうな範囲を予測し、現
時点で得られた画像中のこの予測された範囲内を走行路
端認識のための探索範囲とする。道路構造か連続的且つ
滑らかに変化していれば、このような予測範囲内に走行
路端があるという可能性はかなり高くなる。そして、こ
の絞られた範囲内に画像処理を集中すれば、走行路端認
識の速度は向上するのである。
<Principle of Embodiment> This embodiment focuses on the point that the structure of a road changes continuously and smoothly, especially in an environment such as an expressway. In other words, the likely range of the current or future road edge is predicted from the information of the road edge recognized in the past, and the area within this predicted range in the currently obtained image is used for road edge recognition. The search range is If the road structure changes continuously and smoothly, the possibility that the road edge will be within such a predicted range is quite high. By concentrating image processing within this narrowed range, the speed of road edge recognition can be improved.

走行路端を表わす直線の方程式は、基本的には2つのパ
ラメータで規定できる。これらのパラメータとは、例え
ば、 ■、Xy直交座標形では、傾きと切片(第7図の場合で
は、傾きkと切 片1.若しくは2点の座標位置であり
、 ■、また曲座標表示では、その直線上の一点が与えられ
た場合、この−点と所定の原点との距離ρと、この原点
とその一点とを結ぶ線分と座標軸との交角θとである。
The equation of the straight line representing the edge of the road can basically be defined by two parameters. These parameters are, for example, (1) in the XY orthogonal coordinate system, the slope and the intercept (in the case of Figure 7, the slope k and the coordinate position of the intercept 1 or 2 points, and (2), and in the curved coordinate system, , when one point on the straight line is given, the distance ρ between this - point and a predetermined origin, and the intersection angle θ between the line segment connecting this origin and that one point and the coordinate axis.

その他にも、直線の表現方法は種々ある。このように、
平面内の直線は2つのパラメータで規定されるから、本
実施例では、過去認識された直線のパラメータを、現在
若しくは未来に対して外挿して、凡そのパラメータ(範
囲を持つ)を予測し、この予測されたパラメータを初期
情報として現時点で得られた画像を修正する、即ち、画
像領域を絞り込むようにしている。そして、絞り込んだ
画像から走行路端を表わす直線を高速且つ正確に得るよ
うにしている。即ち、この実施例では(i)・過去の認
識結果に基づいたパラメータの予測、 (ii):予測に基づいた探索範囲の設定、(iii)
:探索範囲に基づいた画像抽出、(iv)抽出部分の画
像データに基づいたパラメータ算出、 ()認識結果の更新 という循環で絡端認識を行なう。
In addition, there are various ways to express straight lines. in this way,
Since a straight line in a plane is defined by two parameters, in this embodiment, the parameters of straight lines recognized in the past are extrapolated to the present or future to predict approximate parameters (with a range), The currently obtained image is modified using the predicted parameters as initial information, that is, the image area is narrowed down. Then, a straight line representing the edge of the road is quickly and accurately obtained from the narrowed down images. That is, in this embodiment, (i) prediction of parameters based on past recognition results, (ii) setting of search range based on prediction, (iii)
Tangled end recognition is performed in a cycle of: image extraction based on the search range, (iv) parameter calculation based on the image data of the extracted portion, and () updating of recognition results.

〈実施例装置の構成〉 第2図は、本発明に係る画像処理装置を、走行制御を行
なうために移動車に組み込んだときの、その移動車1の
構成を示す図である。移動車1は、外界の画像を撮るた
めのビデオカメラ2、画像処理装置を組み込んだ走行制
御コントローラ5、走行距離を計るために車輪の回転数
を検知するエンコーダセンサ3、そして、実際に移動車
1の走行を制御するための車両コントローラ4を搭載し
ている。この移動車1は通常のガソリンエンジン(不図
示)により駆動され、不図示のステアリング機構により
操舵される。車両コントローラ4は、スロットルアクチ
ュエータを制御することにより移動車走行速度を制御し
、また、ステアリングアクチュエータを制御することに
より移動車走行方向を制御し、ブレーキアクチュエータ
(不図示)を制御して移動車の制動を行なわしめる。
<Configuration of Example Apparatus> FIG. 2 is a diagram showing the configuration of the mobile vehicle 1 when the image processing device according to the present invention is incorporated into the mobile vehicle to perform travel control. The moving vehicle 1 includes a video camera 2 for taking images of the outside world, a travel controller 5 incorporating an image processing device, an encoder sensor 3 for detecting the number of rotations of the wheels to measure travel distance, and the actual moving vehicle. The vehicle is equipped with a vehicle controller 4 for controlling the running of the vehicle. This mobile vehicle 1 is driven by a normal gasoline engine (not shown) and is steered by a steering mechanism (not shown). The vehicle controller 4 controls the speed of the vehicle by controlling a throttle actuator, the direction of travel of the vehicle by controlling a steering actuator, and the direction of travel of the vehicle by controlling a brake actuator (not shown). Perform braking.

尚、6はカメラ2の取付は角度(α)を検知するセンサ
であり、この角度とカメラ取付は位置dでもって、画像
内の水平線を推定する。
Note that 6 is a sensor that detects the angle (α) at which the camera 2 is attached, and this angle and the camera attachment position d are used to estimate the horizontal line in the image.

走行制御コントローラ5の詳細を第1図に示す。このコ
ントローラ5は、同図に示すように、画像処理部10と
経路誘導部11とからなる。画像処理部10は、画像抽
出部]、 Oaと、予測部1obと、修正部10cと、
補間式生成部10dとからなる。予測部10bは、補間
式生成部10dが生成した補間式(これは過去のデータ
に基づいて生成された)に従って、現在の画像の絡端な
規定するであろうパラメータρ1.θ、を補間する(即
ち、予測する)。この予測法は、後述のラグランシュ(
Lagrange)の補間法に従っている。予測部ta
bはこの予測パラメータρPθ2を修正部10cに出力
する。修正部10cはこのパラメータρ2.θ、に基づ
いて、画像内の探索範囲に関するデータ[R,θ]を画
像抽出部10aに出力する。画像抽出部10aは抽出し
た領域の画像データを修正部10cに送る。修正部10
cでば、後述のハフ(1−1ough )変換を用いて
、絡端を表わす近似直線を規定するパラメータρ。θC
を出力する。この絡端情報パラメータρ。θ。は経路誘
導部に送られ、そこで、自軍位置と絡端との誤差に基づ
いた走行制御を行なうためのステアリング角度、車速等
を演算して、車両コントローラ4に出力する。
Details of the travel controller 5 are shown in FIG. As shown in the figure, this controller 5 includes an image processing section 10 and a route guidance section 11. The image processing unit 10 includes an image extraction unit], Oa, a prediction unit 1ob, and a correction unit 10c.
It consists of an interpolation formula generation section 10d. The prediction unit 10b generates a parameter ρ1. which will define the tangled edges of the current image, according to the interpolation formula generated by the interpolation formula generation unit 10d (this was generated based on past data). Interpolate (i.e., predict) θ. This prediction method is based on Lagranche (
Lagrange's interpolation method. Prediction part ta
b outputs this prediction parameter ρPθ2 to the correction unit 10c. The correction unit 10c adjusts this parameter ρ2. Based on θ, data [R, θ] regarding the search range within the image is output to the image extraction unit 10a. The image extraction section 10a sends the image data of the extracted area to the modification section 10c. Correction part 10
c is a parameter ρ that defines an approximate straight line representing the tied end using Hough (1-1ough) transformation, which will be described later. θC
Output. This tangled end information parameter ρ. θ. is sent to the route guidance section, which calculates the steering angle, vehicle speed, etc. for running control based on the error between the own army's position and the tangled end, and outputs it to the vehicle controller 4.

本実施例では、絡端な規定する直線方程式を、上述の■
のパラメータρ、θによって表わす手法を採用する。こ
れは、主に、パラメータρ、θがハフ変換に用い易いか
らである。また、ハフ変換は最小自乗法よりも直線方程
式を得るのに高速に行なえるからである。
In this example, the straight line equation that defines the tangled ends is
We adopt a method expressed by parameters ρ and θ. This is mainly because the parameters ρ and θ are easy to use in the Hough transform. In addition, the Hough transform can be performed faster to obtain a linear equation than the least squares method.

〈ハフ変換〉 第3図に従って、ハフ変換について説明する。<Hough transform> The Hough transform will be explained according to FIG.

絡端は画像として人力されると1”の画素の集りとなる
。ハフ変換はこの″1”の画素点が線状に分布している
ときに、この各点を沿った直線を近似的に得る方法であ
る。
When a tangled edge is manually input as an image, it becomes a collection of 1" pixels. When these "1" pixel points are distributed linearly, the Hough transform approximates a straight line along each of these points. This is the way to get it.

XY空間で、第3A図のように、2つの点、A : (
xA yA ) B:(Xa  ye) があるとする。これらの点が″1°°の画素を表わすも
のとする。A点を通るあらゆる直線は、ρ= X AC
O3θ+y As1nθまた、B点を通るあらゆる直線
は、 p ” X acO3O+y、sinθで表わされる。
In the XY space, as shown in Figure 3A, two points A: (
Suppose there is xA yA ) B: (Xa ye). Let these points represent "1°° pixels. Any straight line passing through point A is ρ = X AC
O3θ+y As1nθ Also, any straight line passing through point B is expressed as p''X acO3O+y, sinθ.

ρ、θを変数と考えれば、A点を通る直線群は、第3B
図の三角関数の曲線Iのようになり、同じく、点Bを通
る直線群は第3B図の曲線IIのようになる。点A及び
Bを通る直線を表わすρ2.θ、は、曲線■とIIの交
点にある筈である。即ち、ρ2.θ2に対して、 /)P=XACQ3θ、+yAsinθP9 p ” 
X ecO8θp + yesjnθPが成り立つ。さ
て、2点を通る直線は一意的に決まるが、3点を通る直
線は一般的に近似的にしか決まらない。3点を通る夫々
の直線群に対応する3つの90曲線は3点で交わる。も
し、この3点が略1つの直線上に載り得るほどに直線近
似が可能であれば、3つの交点は近接している筈である
。この考え方を発展させて、画像内の1°°の画素群は
、各画素を通る直線群の夫々に対応するpθ平面上の9
0曲線に変換できる。そして、これらの曲線同士の交点
の分布内の特定のρ“θ″によって特定される直線、例
えば、p  :XACO3θ”+yAsine″″によ
って、画素群は直線近似される。
If we consider ρ and θ as variables, the straight line group passing through point A is the 3rd B
The trigonometric function curve I in the figure will be the same, and the straight line group passing through the point B will be the curve II in FIG. 3B. ρ2 representing a straight line passing through points A and B. θ should be at the intersection of curves ■ and II. That is, ρ2. For θ2, /)P=XACQ3θ,+yAsinθP9 p”
X ecO8θp + yesjnθP holds true. Now, a straight line passing through two points is uniquely determined, but a straight line passing through three points is generally determined only approximately. Three 90 curves corresponding to straight line groups passing through the three points intersect at the three points. If linear approximation is possible to the extent that these three points can be placed on substantially one straight line, the three intersection points should be close to each other. Developing this idea, a 1° pixel group in an image has 9 points on the pθ plane corresponding to each of the straight lines passing through each pixel.
It can be converted to 0 curve. Then, the pixel group is linearly approximated by a straight line specified by a specific ρ "θ" in the distribution of intersection points between these curves, for example, p :XACO3θ"+yAsine".

ただ、このようなハフ変換による近似直線を求める処理
を、画像内の全ての点に対して行なうのは現実的でない
。何故なら、画像内には走行絡端以外の画像も存在する
から、絡端に関係のない画素を含めて、全ての画素点を
通る近似直線は算出して、もって絡端の直線近似をする
こと自体が無意味となるからである。
However, it is not realistic to perform the process of finding an approximate straight line using Hough transform for all points in an image. This is because there are images other than running ends in the image, so calculate the approximate straight line that passes through all pixel points, including pixels that are unrelated to the ends, and use this to approximate the ends as a straight line. This is because that in itself is meaningless.

そこで、本実施例では、ハフ変換による近似直線を求め
る処理を次のようにしている。即ち、後述の補間式に基
づいた予測に従って、過去の絡端情報に基づいて、現時
点の絡端があり得るだろう予測値ρ2.θP (Pは予
測を意味する添字)を得、この予測値に基づいて、一定
の範囲を走行路端の探索対象範囲とするのである。ここ
で、補間式とは、本実施例では、−例として、ラグラン
シュの補間法に従っている。また、上記一定範囲とは、
ρθの集合[R,θ]により規定され、RE[ρ、−△
ρ、ρ2+△ρ] θG[θ、−△θ、θ2+△θJ の範囲である。このような予測により、第3B図に示し
たような範囲Ill内に八)変換が限定され、直線抽出
処理が早まるのである。
Therefore, in this embodiment, the process of obtaining an approximate straight line by Hough transform is performed as follows. That is, according to a prediction based on an interpolation formula described later, a predicted value ρ2. θP (P is a subscript indicating prediction) is obtained, and based on this predicted value, a certain range is set as the search target range at the end of the road. Here, in this embodiment, the interpolation formula is based on the Lagranche interpolation method, for example. In addition, the above-mentioned certain range is
defined by the set [R, θ] of ρθ, and RE[ρ, −△
ρ, ρ2+Δθ] θG[θ, −Δθ, θ2+ΔθJ. By such prediction, the conversion is limited to the range Ill as shown in FIG. 3B, and the straight line extraction process is accelerated.

くラグランシュの補間法〉 第4図に基づいて、ラグランシュの補間法について説明
する。この補間法は、過去のn個のデータに基づいて次
のデータを補間する方法であり、0時の補間多項式によ
って表わされる。
Lagranche interpolation method> The Lagranche interpolation method will be explained based on FIG. This interpolation method is a method of interpolating the next data based on n pieces of past data, and is represented by an interpolation polynomial at 0 o'clock.

第4A図及び第4B図は、移動車が走行位置doΦd、
c=>d2e=>・・・φd、と順々に移動したときに
、過去得られた前記パラメータρθの変化を表わしてい
る。例えば、位置d。にいたときに絡端の直線(ρ。θ
。)が得られ、位置d+にいたときに絡端の直線(p+
  01)が得られ、・・・・・・(ρ。On)が得ら
れたというわけである。そして、これらのデータから走
行位置dにいるときのρθを予測して、 pp(a)、pP(dl を得ることを目的とする。尚、dはエンコーダセンサ3
から得られる。
FIG. 4A and FIG. 4B show that the moving vehicle is at the traveling position doΦd,
It represents the change in the parameter ρθ obtained in the past when moving sequentially as c=>d2e=>...φd. For example, position d. When the straight line of the tangled end (ρ. θ
. ) is obtained, and when you are at position d+, the straight line (p+
01) was obtained, and...(ρ.On) was obtained. Then, the purpose is to predict ρθ at the traveling position d from these data and obtain pp(a) and pP(dl. Note that d is the encoder sensor 3
obtained from.

pp及びpPについての予測手法は同じであるから、以
下、ρについての予測を説明する。
Since the prediction method for pp and pP is the same, prediction for ρ will be explained below.

第4A図において、点(do 、)O)、(at ρ+
)・・・・・・、(d、ρ。)を通り、予測値ρP(d
)を与えるn次の補間多項式は、 pP(d) a o (d−dl) (d−d2) (d−d3) 
−(d−do)十a+ (d−do) (d−cjz)
 (d−d3) −(d−do)+ a o(cldo
)(d−dl)(d−d2)  ・= (d−do−+
)で表わされる。ここで、(n+1)個のa。〜anは
この多項式の係数である。点(doρo)。
In Figure 4A, the points (do,)O), (at ρ+
)......, (d, ρ.), and the predicted value ρP(d
) is pP(d) a o (d-dl) (d-d2) (d-d3)
-(d-do) ten a+ (d-do) (d-cjz)
(d-d3) −(d-do)+ ao(cldo
) (d-dl) (d-d2) ・= (d-do-+
). Here, (n+1) a. ~an are the coefficients of this polynomial. Point (doρo).

(d、ρl)、・・・・・・、(dnp、、)は過去の
点であるから、それらの値は既知のものである。また、
上式で与えらる一般式のpP(d)はn+1個の点を通
るから、 pp(do)=p。
Since (d, ρl), . . . , (dnp, ,) are past points, their values are known. Also,
Since pP(d) in the general formula given by the above equation passes through n+1 points, pp(do)=p.

pp(at)=ρ と表わされる。pp(d)についても全く同様にして得
られる。尚、区別のために、pP(d)についての係数
を、bで表わすこととすると、pP(dn)=ρ。
It is expressed as pp(at)=ρ. pp(d) can be obtained in exactly the same manner. For the sake of distinction, let b represent the coefficient for pP(d), then pP(dn)=ρ.

であるから、このn+1個の式を解くことにより係数a
。〜anを求めると であり、d点で予測したときのpp(a)は、従って、
d点で予測したときのpP(d)は、である。
Therefore, by solving these n+1 equations, the coefficient a
. ~an is calculated, and pp(a) when predicted at point d is therefore,
pP(d) when predicted at point d is.

即ち、過去のデータd O〜d n 、a O□ a 
n、bo〜bn、ρ0〜ρ。、00〜θ。と、現時点の
位置dとが分れば、pP(d)とpP(d)が予測でき
るのであり、このpP(d)  pP(d)をpPθ6
として、前述の探索範囲[R,C)]、RE[ρ2−△
ρ、ρ2+△ρ] θC[θ2−△θ、θ2+△θ] の決定に使用するのである。
That is, past data d O ~ d n , a O□ a
n, bo~bn, ρ0~ρ. , 00~θ. If we know the current position d, we can predict pP(d) and pP(d).
As, the aforementioned search range [R, C)], RE[ρ2−△
ρ, ρ2+Δρ] θC[θ2−Δθ, θ2+Δθ].

〈制御手順〉 第5図は、画像処理部10における処理制御手順を示す
フローチャートである。ステップS2ではエンコーダ3
から走行距離dを求める。ステップS4では、過去のデ
ータd o ”□ d n 、a o〜a、、1つ。−
bo、ρ。〜ρ。、Oo〜θ。をメモリから読出ず。こ
れらの過去のデータは所定のメモリに第6図に示すよう
に、インデックス読出し可能に格納されている。ステッ
プS6では、補間多項式ρp(a)、pP(d)を生成
し、ステップS8では新たな係数a’、b’(第6図の
al等)を計算し、前述した式に基づいてpp(d)p
p(a)をg1算する。ステップSIOでは、探索範囲
[R,e]、 Rε[ρP−△ρ、ρP+△ρ] θG[θ2−Δθ、θ2+△O] を決定する。このときの△p、△θは例えば、△ρ二 
Ipp−ρ。1/2 △θ= 108−〇o1/2 と選ふとよい。po、  θ0は予測に使用した過去の
データであり、予測値とか(づ離れた値とはならないか
らである。
<Control Procedure> FIG. 5 is a flowchart showing a processing control procedure in the image processing section 10. In step S2, encoder 3
Find the traveling distance d from . In step S4, past data d o ”□ d n , a o to a,, 1.-
bo, ρ. ~ρ. , Oo~θ. without reading it from memory. These past data are stored in a predetermined memory in a readable index manner as shown in FIG. In step S6, interpolation polynomials ρp(a) and pP(d) are generated, and in step S8, new coefficients a' and b' (al etc. in FIG. 6) are calculated, and pp( d)p
Calculate p(a) by g1. In step SIO, search ranges [R, e], Rε[ρP−Δρ, ρP+Δρ] θG[θ2−Δθ, θ2+ΔO] are determined. At this time, △p and △θ are, for example, △ρ2
Ipp-ρ. It is best to choose 1/2 △θ= 108-〇o1/2. This is because po and θ0 are past data used for prediction, and are not values that are different from the predicted values.

ステップS12では、この探索範囲を抽出部10aに送
って、その範囲の画像データを切り出してきて、ステッ
プS14で、その画像データに基づいて、前述のハフ変
換に従って、近似直線pc=xlcosθC+y+Si
nθ。
In step S12, this search range is sent to the extraction unit 10a to extract image data in that range, and in step S14, based on the image data, an approximate straight line pc=xlcosθC+y+Si
nθ.

を計算する。ステップS16では、車両コントローラに
対して、ρ。、θ0を送出する。
Calculate. In step S16, ρ is sent to the vehicle controller. , θ0.

ステップS16では、次回の予測のために、今回演算し
たa’ 、b’ 、をa、bの領域に移して更新する(
第6図参照)。また、同じく、ρ n  ’−pc θ。−〇。
In step S16, for the next prediction, a', b', calculated this time are moved to the a, b area and updated (
(See Figure 6). Similarly, ρ n ′−pc θ. −〇.

も行なって更新する。and update it.

以上の制御手順を、1枚の画像を入力する毎に繰返す。The above control procedure is repeated every time one image is input.

こうして、予測を行なって画像処理領域を絞り込み、絡
端を表わす直線を規定するパラメタを高速に演算できる
。そして、高速に認識された絡端から、高速に走行制御
が可能となる。
In this way, the image processing area can be narrowed down by prediction, and the parameters defining the straight line representing the bound end can be calculated at high speed. Then, high-speed travel control becomes possible from the fast-recognized binding edge.

上記説明では、補間多項式はn次であったが、予測精度
及び計算時間のバランスから、n=3〜5程度が適当で
ある。また、△ρ及び△θは、上述の定義の他に、前も
って予測精度に応じて決めておいてもよい。
In the above description, the interpolation polynomial is n-th degree, but in view of the balance between prediction accuracy and calculation time, it is appropriate that n=3 to 5. In addition to the above definitions, Δρ and Δθ may be determined in advance according to prediction accuracy.

上記実施例では、直線抽出にハフ変換を用いたが、これ
は、計算速度の関係から使用したのであり、他にエツジ
検出差分法も適用できる。また、補間式も、ラグランシ
ュ多項式の他に、ニュートン(Newton)補間多項
式を用いてもよい。即ち、本発明においては、過去のデ
ータから、直線抽出のための探索範囲を予測し、この範
囲内で直線抽出するものであれば、直線表現方法、直線
抽出方法、予測方法には限定されないのである。
In the above embodiment, the Hough transform was used for straight line extraction, but this was used because of the calculation speed; an edge detection differential method may also be applied. Further, as the interpolation formula, a Newton interpolation polynomial may be used in addition to the Lagranche polynomial. That is, the present invention is not limited to the straight line expression method, straight line extraction method, or prediction method as long as the search range for straight line extraction is predicted from past data and straight lines are extracted within this range. be.

(発明の効果) 以上説明したように本発明に係る移動車の画像処理装置
の構成は、認識された走行路端に基づいて走行制御を行
なう移動車において、外界認識のために走行路の画像を
撮る撮像手段と、走行路端に関する複数の認識結果に基
づいて、走行路端認識のための画像処理対象領域を、前
記撮像された画像から抽出する手段と、この抽出された
画像領域の情報から走行路端を認識する手段とを備えた
ことを特徴とする。
(Effects of the Invention) As explained above, the configuration of the image processing device for a moving vehicle according to the present invention is such that a moving vehicle that performs running control based on the recognized edge of the running road uses an image of the running road for recognition of the outside world. an imaging means for taking a picture of the roadside; a means for extracting an image processing target area for roadside recognition from the captured image based on a plurality of recognition results regarding the roadside; and information on the extracted image area. The present invention is characterized by comprising means for recognizing the edge of the road on which the vehicle is traveling.

従って、画像処理対象領域が絞り込まれているので、走
行路端認識のための時間が短くなる。また、過去の認識
結果に基づいて、画像処理対象領域が規定されるので、
このような絞り込みを行なっても誤差は少ない。
Therefore, since the image processing target area is narrowed down, the time required to recognize the road edge is shortened. In addition, since the image processing target area is defined based on past recognition results,
Even with such narrowing down, there is little error.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明に係る画像処理装置の一実施例の構成を
示す図、 第2図は実施例に使用される移動車の内部構成を説明す
る図、 第3A図、第3B図は八ツ変換の原理を説明する図、 第4A図、第4B図はラグランシュ補間の原理を説明す
る図、 第5図は実施例の制御に係る手順を示すフローチャート
、 第6図は予測に使用される過去の認識結果データを格納
するときの構成を示す図、 第7図は従来の欠点を説明する図画である。 路誘導部である。 図中、 1・・・移動車、2・・・カメラ、3・・・エンコーダ
センサ、4・・・車両コントローラ、5・・・走行コン
トローラ、6・・・カメラ角度センサ、10・・・画像
処理装置、10a・・・画像抽出部、fob・・・予測
部、10c・・・修正部、10d・・・補間式生成部、
11・・・経第4A図 第4B図
1 is a diagram showing the configuration of an embodiment of an image processing device according to the present invention, FIG. 2 is a diagram illustrating the internal configuration of a moving vehicle used in the embodiment, and FIGS. 3A and 3B are 8 Figures 4A and 4B are diagrams explaining the principle of Lagranche interpolation, Figure 5 is a flowchart showing the procedure related to control of the embodiment, and Figure 6 is a diagram used for prediction. FIG. 7 is a diagram illustrating the drawbacks of the conventional method. This is the road guidance section. In the figure, 1... moving vehicle, 2... camera, 3... encoder sensor, 4... vehicle controller, 5... traveling controller, 6... camera angle sensor, 10... image Processing device, 10a... image extraction unit, fob... prediction unit, 10c... correction unit, 10d... interpolation formula generation unit,
11... Figure 4A Figure 4B

Claims (1)

【特許請求の範囲】[Claims] (1)認識された走行路端に基づいて走行制御を行なう
移動車において、 外界認識のために走行路の画像を撮る撮像手段と、 走行路端に関する複数の認識結果に基づいて、走行路端
認識のための画像処理対象領域を、前記撮像された画像
から抽出する手段と、 この抽出された画像領域の情報から走行路端を認識する
手段とを備えた移動車の画像処理装置。
(1) In a moving vehicle that performs driving control based on the recognized road edge, an imaging means takes an image of the road to recognize the outside world, and a vehicle detects the road edge based on a plurality of recognition results regarding the road edge. An image processing device for a moving vehicle, comprising: means for extracting an image processing target area for recognition from the captured image; and means for recognizing a road edge from information on the extracted image area.
JP63273304A 1988-10-31 1988-10-31 Mobile car image processing device Expired - Fee Related JP2728171B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63273304A JP2728171B2 (en) 1988-10-31 1988-10-31 Mobile car image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63273304A JP2728171B2 (en) 1988-10-31 1988-10-31 Mobile car image processing device

Publications (2)

Publication Number Publication Date
JPH02120910A true JPH02120910A (en) 1990-05-08
JP2728171B2 JP2728171B2 (en) 1998-03-18

Family

ID=17526000

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63273304A Expired - Fee Related JP2728171B2 (en) 1988-10-31 1988-10-31 Mobile car image processing device

Country Status (1)

Country Link
JP (1) JP2728171B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04293109A (en) * 1991-03-22 1992-10-16 Matsushita Electric Ind Co Ltd Running lane tracking device, running lane deviation alarm device and autonomous running controller
JPH05165519A (en) * 1991-12-16 1993-07-02 Kubota Corp Crop string detector

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04293109A (en) * 1991-03-22 1992-10-16 Matsushita Electric Ind Co Ltd Running lane tracking device, running lane deviation alarm device and autonomous running controller
JPH05165519A (en) * 1991-12-16 1993-07-02 Kubota Corp Crop string detector

Also Published As

Publication number Publication date
JP2728171B2 (en) 1998-03-18

Similar Documents

Publication Publication Date Title
JP6026295B2 (en) Curve shape modeling apparatus, method, and in-vehicle navigation apparatus
JP6323473B2 (en) Travel control device
US7085633B2 (en) System and method for improving vehicle operator driving assistance of automotive vehicle
RU2692097C1 (en) Device and method for setting a position for stopping a vehicle
JP2660727B2 (en) Automatic traveling device
US5367457A (en) Apparatus and method for improving accuracy of an automatic travelling apparatus
JP6634100B2 (en) Trajectory determination device and automatic driving device
EP2624575A1 (en) Image processing device and image capturing device using same
JP2013154730A (en) Apparatus and method for processing image, and parking support system
JP2618254B2 (en) Travel route display device
CN113753028B (en) Driving support device, driving support method, and computer-readable recording medium
JPH02120910A (en) Image processor for moving vehicle
CN110083158B (en) Method and equipment for determining local planning path
JP2603523B2 (en) Automatic traveling device
CN114037977B (en) Road vanishing point detection method, device, equipment and storage medium
JP2012014298A (en) Vehicle route estimation device
JP2720630B2 (en) Steering control device for autonomous vehicles
EP0448060B1 (en) Automatic travelling apparatus
JP4905016B2 (en) Wheel speed pulse correction system
JP6409711B2 (en) Driving environment recognition device
JP2019016005A (en) Lane recognition device
JP2584297B2 (en) Travel route display device
JP3220578B2 (en) Road image white line recognition device
JP2757595B2 (en) Steering control device for autonomous vehicles
JP7306419B2 (en) Operation control device

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees