JP3331095B2 - In-vehicle image processing device - Google Patents

In-vehicle image processing device

Info

Publication number
JP3331095B2
JP3331095B2 JP18740795A JP18740795A JP3331095B2 JP 3331095 B2 JP3331095 B2 JP 3331095B2 JP 18740795 A JP18740795 A JP 18740795A JP 18740795 A JP18740795 A JP 18740795A JP 3331095 B2 JP3331095 B2 JP 3331095B2
Authority
JP
Japan
Prior art keywords
white line
image
time
recognition
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP18740795A
Other languages
Japanese (ja)
Other versions
JPH0935065A (en
Inventor
公一 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP18740795A priority Critical patent/JP3331095B2/en
Publication of JPH0935065A publication Critical patent/JPH0935065A/en
Application granted granted Critical
Publication of JP3331095B2 publication Critical patent/JP3331095B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、車載用画像処理
装置に関し、特に白線認識を行うための車載用画像処理
装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an in-vehicle image processing apparatus, and more particularly to an in-vehicle image processing apparatus for performing white line recognition.

【0002】[0002]

【従来の技術】従来、車載用画像処理装置として知られ
る、例えば自動車用白線認識装置にはは、図9に示すよ
うに、CCDカメラである画像撮影手段1から入力した
画像情報からA/D変換手段2により画像信号をディジ
タル信号に変換し、該ディジタル変換された信号から白
線認識手段3により白線認識を行うものが知られてい
る。
2. Description of the Related Art Conventionally, a white line recognition device for a vehicle, for example, which is known as an on-vehicle image processing device, includes an A / D converter based on image information input from an image photographing means 1 which is a CCD camera, as shown in FIG. It is known that an image signal is converted into a digital signal by a conversion unit 2 and a white line recognition unit 3 performs white line recognition from the digitally converted signal.

【0003】かかる従来技術において、ディジタル信号
から白線認識により白線位置を求める白線認識手段につ
いては種々のものが提案されており、例えば、白線と道
路面との輝度差を利用して、画像を所定の閾値で二値化
して白線候補を求める方式、或いは、特開平3−273
498号公報のように、白線と道路面との輝度差の変化
率、すなわち輝度信号を空間的に微分する等の処理を実
行して白線候補点を求める方式が知られている。
In the prior art, various white line recognition means for finding a white line position by recognizing a white line from a digital signal have been proposed. For example, a predetermined image is determined using a luminance difference between the white line and a road surface. A method of obtaining a white line candidate by binarizing with a threshold value of
As disclosed in Japanese Patent Publication No. 498, a method is known in which a white line candidate point is obtained by executing a process such as spatially differentiating a rate of change of a luminance difference between a white line and a road surface, that is, a luminance signal.

【0004】また更には、画像信号に前例の二値化等既
存の前処理を行った信号、もしくは画像信号そのものを
時間積分し、候補点を求める方式も考えられている。以
下にこのような時間積分から候補点を求めるようにした
白線位置検出手段について説明する。
[0004] Further, a method has been considered in which a signal obtained by subjecting an image signal to existing preprocessing such as binarization as in the previous example or the image signal itself is time-integrated to obtain a candidate point. In the following, a description will be given of a white line position detecting means for obtaining a candidate point from such a time integration.

【0005】図10は画像撮影手段1によって車両前方
を撮影したときの画像の一例であり、4は道路上の白
線、5は道路、6は道路上の文字等である。ここで、白
線4の検出は走査線毎に行い、左右それぞれ1点ずつ白
線位置を出力することで行われる。
FIG. 10 shows an example of an image when the front of the vehicle is photographed by the image photographing means 1, wherein 4 is a white line on the road, 5 is the road, 6 is characters on the road, and the like. Here, the detection of the white line 4 is performed for each scanning line, and the detection is performed by outputting the white line position for each of the right and left points.

【0006】以下に、1走査線上において、入力画面か
ら白線認識を行うための構成および動作について説明す
る。図11は、ある1走査線(図10のa線)を抜き出
し、処理を行った時のフロー(a)、及びそのときのデ
ータ(b)を横軸を画面上の横位置にとって表したもの
である。
Hereinafter, a configuration and operation for performing white line recognition from an input screen on one scanning line will be described. FIG. 11 shows a flow (a) when a certain scanning line (a line in FIG. 10) is extracted and processed, and the data (b) at that time, with the horizontal axis representing the horizontal position on the screen. It is.

【0007】図11(b)の8は縦軸を輝度値に取った
ときの入力画像データを示す。このように、白線4や道
路上の文字6等は輝度値が大きく道路5等は輝度値が小
さく現れている。まず、入力画面(入力画像データ)に
対して輪郭線検出手段9による検出を行う。輪郭線検出
手段9により、輪郭線は入力画像データの変化分絶対値
で求められる。入力画像データ8が入力された輪郭線検
出手段9の出力データ(輪郭線検出データ)は、10の
ようなグラフで示される。
[0008] Reference numeral 8 in FIG. 11B shows input image data when the luminance value is plotted on the vertical axis. As described above, the white line 4, the character 6 on the road, and the like have a large luminance value, and the road 5 and the like have a small luminance value. First, the input screen (input image data) is detected by the contour detection unit 9. The contour line is obtained by the contour line detecting means 9 by the absolute value of the change in the input image data. The output data (contour detection data) of the contour detection means 9 to which the input image data 8 has been input is shown by a graph such as 10.

【0008】次に、特定の閾値により二値化手段11に
よる二値化を行う。輪郭線検出データ10に特定閾値に
よる二値化を施すと、12で示すような二値化データが
得られる。次に二値化データ12を時間積分手段13に
より時間積分する。
Next, binarization is performed by the binarizing means 11 using a specific threshold value. When the contour detection data 10 is binarized by a specific threshold, binarized data as indicated by 12 is obtained. Next, the binary data 12 is time-integrated by the time integration means 13.

【0009】時間積分は例えば、画面上の1画素に注目
し、図12の様に1画面遅延手段23と内分手段24に
より構成される。内分手段24は、ある内分比率を表わ
す時定数τ25が与えられたとき、2入力のτ−1:1
内分値を出力するものである。ある時点でのその画素の
輝度値をP(n)、同時刻の同じ画素の時間積分値をI
(n)、その前フレームの同じ画素の時間積分値をI
(n−1)、ある所定の時定数をτとすると、時間積分
値は次の式で与えられる。
The time integration focuses on one pixel on the screen, for example, and is constituted by one screen delay means 23 and internal division means 24 as shown in FIG. When a time constant τ25 representing a certain internal division ratio is given, the internal dividing means 24 receives two input τ−1: 1.
It outputs the internal division value. The luminance value of the pixel at a certain time is P (n), and the time integration value of the same pixel at the same time is I
(N), the time integration value of the same pixel in the previous frame is represented by I
(N-1), assuming that a predetermined time constant is τ, the time integration value is given by the following equation.

【0010】 I(n)=(1−1/τ)×I(n−1)+1/τ×P(n) (式1)I (n) = (1-1 / τ) × I (n−1) + 1 / τ × P (n) (Equation 1)

【0011】ここで時定数τを大きくとると積分時間は
長くなり、小さくとると積分時間は短くなる。かかる積
分処理によれば、時間的に安定して同じ位置に現れる輪
郭線が強く現れるため、道路上の文字等の時間的に不安
定な輪郭線は小さい値となる。
Here, if the time constant τ is made large, the integration time becomes long, and if it is made small, the integration time becomes short. According to such integration processing, a contour line which appears temporally stably at the same position strongly appears, so that a temporally unstable contour line such as a character on a road has a small value.

【0012】二値化データ12を時間積分したグラフは
14の様になる。このように、白線4の位置に対応する
データは大きな値となり、一方、道路の文字等6の位置
に対応するデータは小さな値となる。
A graph obtained by integrating the binary data 12 with respect to time is as shown in FIG. As described above, the data corresponding to the position of the white line 4 has a large value, while the data corresponding to the position of the character 6 on the road has a small value.

【0013】次に積分手段13により得られたデータ1
4を変化分検出手段15によって変化分データ16を求
める。変化分検出手段15は輪郭線検出手段9と同じく
変化分を変化分絶対値で求める。
Next, the data 1 obtained by the integration means 13
For 4, change data 16 is obtained by the change detection means 15. The variation detecting means 15 obtains the variation as an absolute value of the variation, similarly to the contour detection means 9.

【0014】次に、走査開始点設定手段17は、ライン
上の中心点を特定基準点18とし、これを走査開始点と
して設定する。走査手段19は、この特定基準点18よ
り左右方向に変化分データ16を走査する。また、走査
手段19と平行して変化分検出手段20により変化分デ
ータ16に対し変化分検出を行い、白線候補点21を検
出する。変化分検出手段20は、例えば、データの変化
分を計算し、この変化分データが所定の閾値以上である
ものを検出する。
Next, the scanning start point setting means 17 sets the center point on the line as the specific reference point 18 and sets this as the scanning start point. The scanning unit 19 scans the variation data 16 from the specific reference point 18 in the left-right direction. Further, in parallel with the scanning unit 19, the change detection unit 20 detects a change in the change data 16 to detect a white line candidate point 21. The change detecting means 20 calculates a change in the data, for example, and detects a data whose change data is equal to or larger than a predetermined threshold.

【0015】変化分検出手段20により検出された白線
候補21は判断手段22により、白線候補が時系列的に
安定していればこれを白線位置と決定し、そうでなけれ
ば前回の白線位置を白線と決定する。
The white line candidate 21 detected by the change detecting means 20 is determined by the judging means 22 as a white line position if the white line candidate is stable in time series, otherwise the previous white line position is determined. Determined as the white line.

【0016】以上に、この発明の一つの従来技術におけ
る白線位置検出手段について説明したが、この発明の他
の従来技術における白線位置検出手段としては、特公平
6−24035号公報に示されるように、撮像画像から
輪郭線を抽出し、Hough変換を施して画像上で近似
する直線群を抽出する直線群抽出手段が知られている。
The white line position detecting means according to one prior art of the present invention has been described above. The white line position detecting means according to another prior art of the present invention is disclosed in Japanese Patent Publication No. 6-24035. There is known a straight line group extracting unit that extracts a contour line from a captured image, performs a Hough transform, and extracts a straight line group approximate on the image.

【0017】[0017]

【発明が解決しようとする課題】しかしながら、前者に
おける従来技術の場合、実際の道路で上述したような処
理を行うと、白線位置は実際の白線位置より内側に認識
されてしまい、正確な白線位置を認識することができな
いという問題がある。これは、実際に車両に搭載したカ
メラで撮った前方画面においては、車両の微妙な揺れ等
により、画面上の白線位置が左右に微妙に動くため、図
13に示す様に時間積分画像が実際の白線より幅が広い
ものとなり、そのため、検出走査は内側(特定基準点)
から行っていることから、白線が実際より内側に認識さ
れてしまうことによる。尚、図13において、(a)は
CCDカメラによる撮影画像、(b)は輪郭線データ、
(c)は時間積分されたデータを示している。
However, in the case of the former prior art, when the above-described processing is performed on an actual road, the white line position is recognized inside the actual white line position, and the accurate white line position is detected. There is a problem that cannot be recognized. This is because the position of the white line on the screen moves slightly to the left and right due to subtle shaking of the vehicle on the front screen actually taken by the camera mounted on the vehicle. Is wider than the white line, so the detection scan is inside (specific reference point)
This is because the white line is recognized inside from the actual. In FIG. 13, (a) is an image taken by a CCD camera, (b) is contour data,
(C) shows time-integrated data.

【0018】一方、後者における従来技術の場合は、輪
郭抽出点数が多いときにおいて、処理時間が長くなると
いう問題点がある。
On the other hand, the latter conventional technique has a problem in that the processing time becomes longer when the number of contour extraction points is large.

【0019】この発明はかかる問題点を解決すべく為さ
れたもので、正確な白線位置の認識等、正確な画像認識
処理をすることができる車載用画像処理装置を得ること
を目的とするものである。また、この発明は、処理時間
を低減することがき、且つ、正確な画像認識処理を行う
ことができる車載用画像処理装置を得ることを目的とす
るものである。
The present invention has been made to solve such a problem, and an object of the present invention is to provide an in-vehicle image processing apparatus capable of performing accurate image recognition processing such as accurate recognition of a white line position. It is. Another object of the present invention is to provide an in-vehicle image processing apparatus capable of reducing processing time and performing accurate image recognition processing.

【0020】[0020]

【課題を解決するための手段】この発明の請求項1に係
る車載用画像処理装置は、車両周辺を撮影する撮影手段
を備え、得られた画像信号に基づいて画像認識処理を行
う車載用画像処理装置において、上記撮影手段により得
られた画像信号に基づくデータを時間積分する時間積分
手段と、上記時間積分手段によって得られたデータに基
づいて上記データを複数領域に分割する分割手段とを備
え、上記分割手段により得られた上記分割領域に基づい
て、上記画像認識処理を行うようにしたものである。
According to a first aspect of the present invention, there is provided an in-vehicle image processing apparatus including a photographing means for photographing a periphery of a vehicle, and performing an image recognition process based on an obtained image signal. The processing device includes a time integrating means for time-integrating data based on the image signal obtained by the photographing means, and a dividing means for dividing the data into a plurality of regions based on the data obtained by the time integrating means. The image recognition processing is performed based on the divided area obtained by the dividing means.

【0021】また、この発明の請求項2に係る車載用画
像処理装置は、請求項1の車載用画像処理装置におい
て、上記複数領域のうちの少なくとも1つを限定して上
記画像認識処理を行うための限定手段を備えたものであ
る。
According to a second aspect of the present invention, in the in-vehicle image processing apparatus of the first aspect, the image recognition processing is performed by limiting at least one of the plurality of regions. Is provided.

【0022】さらに、この発明の請求項3に係る車載用
画像処理装置は、請求項1又は請求項2の車載用画像処
理装置において、上記時間積分手段による時間積分の時
定数を画像の位置に応じて変化させるようにしたもので
ある。
According to a third aspect of the present invention, there is provided the on-vehicle image processing apparatus according to the first or second aspect, wherein the time constant of the time integration by the time integration means is set at the position of the image. It is designed to be changed accordingly.

【0023】[0023]

【発明の実施の形態】BEST MODE FOR CARRYING OUT THE INVENTION

実施の形態1.図1は、この発明の一つの実施形態の全
体構成を示す図である。図1において、1は画像撮影手
段(CCDカメラ)、2はA/D変換手段、28は輪郭
線検出等の前処理手段、29は時間積分手段、30は領
域分割手段、3は白線認識手段、45は安定化処理手
段、46は車線幅学習手段である。
Embodiment 1 FIG. FIG. 1 is a diagram showing the overall configuration of one embodiment of the present invention. In FIG. 1, 1 is an image photographing means (CCD camera), 2 is A / D conversion means, 28 is preprocessing means such as contour detection, 29 is time integrating means, 30 is area dividing means, 3 is white line recognition means. , 45 are stabilization processing means, and 46 is a lane width learning means.

【0024】図2は、CCDカメラ1によって車両前方
を撮影したときの画像の一例であり、これは、図10に
対して、郭線検出、二値化処理等の前処理を行ったもの
である。図3は図2の画像に対し時間積分を行い領域分
割したときの図である。図3において、26は領域O、
27は領域Iをそれぞれ示している。ここで、上述した
図2は前処理手段28の出力図、図3は領域分割手段3
0の出力図をそれぞれ示している。
FIG. 2 shows an example of an image when the front of the vehicle is photographed by the CCD camera 1, which is obtained by performing preprocessing such as contour detection and binarization processing on FIG. is there. FIG. 3 is a diagram when time integration is performed on the image of FIG. 2 to divide the region. In FIG. 3, 26 is a region O,
Reference numeral 27 indicates the area I. Here, FIG. 2 described above is an output diagram of the preprocessing unit 28, and FIG.
0 is shown for each output.

【0025】図4は前処理手段の一例を表したものであ
る。31は1走査線遅延手段、32は1画素遅延手段、
33、34は差分手段、35、36は絶対値手段、37
は特定閾値、38、39は比較手段、40はOR演算子
である。ここで、差分手段33でカメラに対し水平方向
の変化分を求め、絶対値手段35でそれの絶対値を求
め、比較手段38で二値化して、カメラに対し水平方向
の輪郭線を得る。一方、差分手段34で同様にカメラの
垂直方向変化分を求め、絶対値手段36でそれの絶対値
を求め、比較手段39で二値化を行いカメラに対して垂
直方向の輪郭線を求める。さらにOR演算子40で水平
方向輪郭線と垂直方向輪郭線の論理和を求め、輪郭線を
検出している。
FIG. 4 shows an example of the preprocessing means. 31 is one scanning line delay means, 32 is one pixel delay means,
33 and 34 are difference means, 35 and 36 are absolute value means, 37
Is a specific threshold, 38 and 39 are comparison means, and 40 is an OR operator. Here, the difference in the horizontal direction with respect to the camera is obtained by the difference means 33, the absolute value thereof is obtained by the absolute value means 35, and the absolute value thereof is binarized by the comparison means 38 to obtain a contour in the horizontal direction with respect to the camera. On the other hand, the difference in the vertical direction of the camera is similarly obtained by the difference means 34, the absolute value thereof is obtained by the absolute value means 36, and binarization is performed by the comparison means 39, thereby obtaining the vertical contour of the camera. Further, a logical sum of the horizontal contour and the vertical contour is obtained by an OR operator 40 to detect the contour.

【0026】輪郭線検出及び二値化を施した画像は、図
12に示した積分装置を使って時間積分を行う。この積
分においては、上述した(式1)に示される内分比率を
定める時定数τを大きくすることにより長い時間の時間
積分を求めることができ、一方、時定数τを小さくする
ことにより短い時間の時間積分を求めることができる。
従って、例えば、道路の前方近距離に当たる部分は比較
的安定しているため時定数τを大きくとり、道路の前方
遠距離に当たる部分は比較的安定していないので時定数
τを小さくとるというように、場所によって時定数を使
い分けることにより、効率的に処理時間の短縮化を図る
ことができる。
The image subjected to contour detection and binarization is subjected to time integration using the integrator shown in FIG. In this integration, a long time integration can be obtained by increasing the time constant τ that determines the internal division ratio shown in the above (Equation 1), while a short time can be obtained by reducing the time constant τ. The time integral of can be obtained.
Therefore, for example, a portion corresponding to a short distance in front of the road is relatively stable, so a large time constant τ is taken, and a portion corresponding to a long distance in front of the road is relatively unstable, so that the time constant τ is set small. By properly using the time constant depending on the location, the processing time can be efficiently reduced.

【0027】次に、時間積分手段29による出力信号は
領域分割手段30に入力される。これは、図5のように
比較手段42を用いて行われ、比較手段42により特定
閾値41より信号が大きい場合は領域I(27)、特定
閾値41より小さければ領域O(26)に画面を2つの
領域に分割するものである。
Next, the output signal from the time integrating means 29 is input to the area dividing means 30. This is performed by using the comparing means 42 as shown in FIG. 5. When the signal is larger than the specific threshold 41 by the comparing means 42, the screen is displayed in the area I (27), and when the signal is smaller than the specific threshold 41, the screen is displayed in the area O (26). It is divided into two regions.

【0028】ここで、特定閾値41は例えば、時間積分
された信号の全画面分もしくは一走査線分の平均をもと
に特定の値を加えたものを用いる。例えば、道路の手前
(近距離)部分と奥(遠距離)部分の時定数τの値を変
えた場合などは、閾値は走査線ごとの平均を基に決める
ものとする。
Here, as the specific threshold value 41, for example, a value obtained by adding a specific value based on the average of the entire screen or one scanning line of the time-integrated signal is used. For example, when the value of the time constant τ is changed between the near (far distance) portion and the far (far distance) portion of the road, the threshold value is determined based on the average of each scanning line.

【0029】前段により分けられた領域のうち領域I
は、画面上での動きが少ない輪郭線の存在する領域であ
り、領域Oは画面上で動きの大きい輪郭線もしくは、輪
郭線そのものが無い領域である。
The region I in the region divided by the previous stage
Is a region where a contour line with a small movement on the screen exists, and a region O is a region with a large movement line on the screen or a region without the contour line itself.

【0030】例えば白線や車両等のように、画面上で時
間的にある程度同じ位置に存在するものは領域付近は領
域Iとなり、それ以外の領域、例えば道路に描かれた文
字、横断歩道等のような、車両が動いている場合に、画
面の同じ場所に時間的に存在していないものの付近は、
領域Oとなる。
For example, an area I such as a white line or a vehicle which exists at the same position on the screen to some extent in time is an area I, and other areas such as characters drawn on a road, pedestrian crossings, etc. When the vehicle is moving, such as near the thing that does not exist in the same place on the screen in time,
An area O is obtained.

【0031】このようにして、白線認識もしくは車両認
識等の検出処理を該領域Iに限定することにより、全体
的に処理速度を上げることができ、さらに装置の安定性
を上げることができる。次に、この領域を用いて白線認
識手段3による白線認識を行う。この白線認識は、求め
られた領域I内において、生の画像信号から白線輪郭を
検出し、これに基づいて白線認識を行うものである。
As described above, by limiting the detection processing such as white line recognition or vehicle recognition to the region I, the processing speed can be increased as a whole, and the stability of the apparatus can be further improved. Next, white line recognition is performed by the white line recognition means 3 using this area. In the white line recognition, a white line outline is detected from a raw image signal in the obtained region I, and white line recognition is performed based on the white line outline.

【0032】図6は白線認識のフローチャートである。
白線認識処理は走査線ごとに行い、さらに画面中心(特
定基準点)から左右2つに分けて2回、それぞれ別々に
処理される。まず、例えば基準点より右側について、図
6のフローチャートを実行する。まず、領域Iが存在す
るか調べ(ステップS1)、領域Iが存在しない場合
は、前回の白線認識値を候補点の1つとする(ステップ
S2)。領域Iが存在する場合は、領域Iのうち中心に
近い方から順番に走査を行い(ステップS3)、輪郭線
の存在を判断する(ステップS4)。輪郭線が存在する
と判断された場合は、内側から最大2つまでを白線認識
値の候補点とし(ステップS5)、ステップS7に進
む。ステップS7については後述する。ステップS2の
処理後、あるいはステップS5において領域Iに白線が
存在しない場合は、前回白線位置(積分値の極大値)を
白線認識位置の候補とし(ステップS6)、ステップS
7に進む。ステップS7の処理後は、基準点の左側につ
いて、同様の処理がなされる。
FIG. 6 is a flowchart for white line recognition.
The white line recognition processing is performed for each scanning line, and is further performed twice separately from the center of the screen (specific reference point) twice on each side. First, for example, the flowchart of FIG. 6 is executed on the right side of the reference point. First, it is checked whether or not the region I exists (step S1). If the region I does not exist, the previous white line recognition value is set as one of the candidate points (step S2). If the area I exists, scanning is performed in order from the area I closer to the center (step S3), and the existence of a contour line is determined (step S4). If it is determined that an outline exists, up to two from the inside are set as candidate points of the white line recognition value (step S5), and the process proceeds to step S7. Step S7 will be described later. After the processing in step S2 or when there is no white line in the region I in step S5, the position of the previous white line (the maximum value of the integral value) is set as a candidate for the white line recognition position (step S6), and step S6 is performed.
Go to 7. After the processing in step S7, the same processing is performed on the left side of the reference point.

【0033】次に、ステップS7の処理について説明す
る。ステップS7では、例えばまず右側における処理結
果について、ステップS5により輪郭線候補点があった
場合は、図に示されるように、領域(1)と(3)が指
定(付勢)される。一方、ステップS2、ステップS6
により前回白線位置が候補とされた場合は、領域(2)
と(4)が指定される。次に、左側における処理結果に
ついて、ステップS5により輪郭線候補点があった場合
は、領域(1)と(2)が指定され、一方、ステップS
2、ステップS6により前回白線位置が候補とされた場
合は、領域(3)と(4)が指定される。
Next, the processing in step S7 will be described. In step S7, for example, if there is a contour line candidate point in step S5 for the processing result on the right side, regions (1) and (3) are designated (energized) as shown in the figure. On the other hand, steps S2 and S6
When the white line position was previously determined as a candidate, the area (2)
And (4) are specified. Next, as for the processing result on the left side, if there is a contour line candidate point in step S5, regions (1) and (2) are designated, while step S5 is performed.
2. If the white line position was previously selected as a candidate in step S6, areas (3) and (4) are designated.

【0034】こうして、ステップS7において、左側、
右側でのそれぞれの指定が終了すると、左右で共に指定
された領域が左右白線候補点として選択され、各領域
(1)〜(4)に応じて、次のように白線が決定され
る。
Thus, in step S7,
When the specification on the right side is completed, the area specified on both the left and right sides is selected as the left and right white line candidate points, and the white line is determined as follows according to each of the areas (1) to (4).

【0035】領域(1)は、左右両方とも領域Iが存在
し、さらにその領域I内に輪郭線が存在する場合であ
る。この場合は、候補点のうち、左右の候補点の距離が
最も車線幅に近いものを白線認識点と決定する。
The region (1) is a case where a region I exists on both the left and right sides and a contour line exists in the region I. In this case, among the candidate points, the candidate point whose distance between the left and right candidate points is closest to the lane width is determined as the white line recognition point.

【0036】領域(2)は、左側に領域Iが存在し、さ
らに領域I内に輪郭線が存在し、右側には領域Iが存在
しないかまたは存在しても領域I内に輪郭線が存在しな
い場合である。この場合は、左側候補点は前回右側候補
点との距離が最も車線幅に近いものを選択し、右側候補
点は該選択された左側認識点から距離が車線幅になるよ
うに決定する。
In the area (2), the area I exists on the left side, and further, the outline exists in the area I, and the area I does not exist or the outline exists in the area I on the right side. If not. In this case, the left candidate point is selected so that the distance from the previous right candidate point is closest to the lane width, and the right candidate point is determined so that the distance from the selected left recognition point is the lane width.

【0037】右側認識点=左側認識点+車線幅(右側の
座標が左側の座標より大きい場合)
Right recognition point = left recognition point + lane width (when the right coordinate is larger than the left coordinate)

【0038】領域(3)は、右側に領域Iが存在し、さ
らに領域I内に輪郭線が存在し、左側には領域Iが存在
しないか、または存在しても領域I内に輪郭線が存在し
ない場合である。この場合は、右側候補点は前回左側候
補点との距離が最も車線幅に近いものを選択し、左側候
補点は該選択された右側認識点から距離が車線幅になる
ように決定する。
In the area (3), the area I exists on the right side, and the outline exists in the area I. The area I does not exist on the left side, or the outline exists in the area I even if it exists. It does not exist. In this case, the right candidate point is selected so that the distance from the previous left candidate point is closest to the lane width, and the left candidate point is determined so that the distance from the selected right recognition point is the lane width.

【0039】左側認識点=右側認識点−車線幅(右側の
座標が左側の座標より大きい場合)
Left recognition point = right recognition point−lane width (when the right coordinate is larger than the left coordinate)

【0040】領域(4)は、左右両方とも領域Iが存在
しないか、もしくは、存在しても領域I内に輪郭線が存
在しない場合である。この場合は、左右それぞれの候補
点のうち左右の距離が最も車線幅に近いものを決定す
る。ここで、車線幅は学習した車線幅を用いるものとす
る。(車線幅学習は後述)。
The region (4) corresponds to a case where the region I does not exist on both the left and right sides, or a case where there is no contour line in the region I. In this case, the left and right candidate points which are closest to the lane width are determined among the left and right candidate points. Here, the learned lane width is used as the lane width. (Lane width learning will be described later).

【0041】次に安定化処理手段45による認識点に対
する安定化処理を行う。安定化処理は認識点に対し積分
手段、変化量限定手段を用いて行われる。ここで、積分
手段は従来装置の積分手段(図12)と同じ方式で求め
る。変化量限定手段は、ある値a(n)の前回の値をa
(n−1)とし、最大変化量をδ(>0)とすると、
Next, stabilization processing is performed on the recognition points by the stabilization processing means 45. The stabilization process is performed on the recognition point by using the integrating means and the change amount limiting means. Here, the integration means is obtained by the same method as the integration means (FIG. 12) of the conventional device. The change amount limiting means sets a previous value of a certain value a (n) to a
(N-1) and the maximum change amount is δ (> 0),

【0042】a(n)−a(n−1)>δの時 a(n)=a(n−1)+δWhen a (n) −a (n−1)> δ a (n) = a (n−1) + δ

【0043】−δ<a(n)−a(n−1)<δの時 a(n)はそのまま。When -δ <a (n) -a (n-1) <δ a (n) is left as it is.

【0044】−δ<a(n)−a(n−1)の時 a(n)=a(n−1)−δWhen -δ <a (n) -a (n-1) a (n) = a (n-1) -δ

【0045】の処理を行うものである。The above processing is performed.

【0046】図7に積分処理と変化量限定処理のグラフ
を示す。図において、(a)が入力データ、(b)が入
力データに対し積分処理を行った時の一例、(c)が入
力データに対し変化量限定処理を行った時の一例であ
る。時間積分処理は微少のノイズを安定させる働きがあ
るのに対し、大きな変化量のノイズには効果が少ない。
一方、変化量限定処理は大きな変化量のノイズを安定さ
せる働きがあるのに対し、小さなノイズには効果が少な
い。
FIG. 7 shows a graph of the integration process and the change amount limiting process. In the figure, (a) shows an example when the integration process is performed on the input data, (b) shows an example when the change amount limiting process is performed on the input data, and (c) shows an example when the change amount limiting process is performed on the input data. The time integration process has a function of stabilizing minute noise, but has little effect on noise having a large change amount.
On the other hand, the change amount limitation processing has a function of stabilizing noise of a large change amount, but has little effect on small noise.

【0047】以下に車線幅学習手段46について説明す
る。車線幅学習は安定化処理後に行われ、下記の4つの
条件(a)〜(d)を全て満たしたときのみ、左右白線
認識点距離を基に学習するものとする。ここで、学習と
は、車線幅と認識し、且つ記憶する処理をいう。
The lane width learning means 46 will be described below. The lane width learning is performed after the stabilization process, and is performed based on the left and right white line recognition point distances only when all of the following four conditions (a) to (d) are satisfied. Here, learning refers to a process of recognizing and storing a lane width.

【0048】(a)領域(1)の場合。 (b)左右認識点距離が標準車線幅(画面上)±10%
以内。 (c)左右認識点距離が前回車線幅±10%以内。 (d)左右認識点距離が画面内のより下側の走査線で検
出された車線幅(実際の位置関係は手前)以下。
(A) Case of region (1). (B) Left and right recognition point distance is standard lane width (on screen) ± 10%
Within. (C) The distance between the left and right recognition points is within ± 10% of the previous lane width. (D) The distance between the left and right recognition points is equal to or less than the lane width (the actual positional relationship is nearer) detected on the lower scanning line in the screen.

【0049】これにより上記の条件に合うもののみが車
線幅に反映されるため常に正しい車線幅を得ることがで
きる。学習操作は、左右認識点の時間積分によって行わ
れる。これにより、車線幅を時間的に安定させることが
できる。また、安定化操作として、上述した変化量限定
を行うこともできる。
As a result, only the vehicle that meets the above conditions is reflected in the lane width, so that the correct lane width can always be obtained. The learning operation is performed by time integration of the left and right recognition points. Thus, the lane width can be stabilized over time. Further, as the stabilizing operation, the above-described change amount limitation can be performed.

【0050】実施の形態2.この発明の実施形態1にお
いては、分割手段により分割した後、限定手段により限
定された領域において、白線の輪郭を検出して白線認識
を行う例を示したが、以下には、実施形態2として、限
定された領域において、Hough変換により白線を抽
出する例について説明する。図8は上述した実施の形態
において、白線認識の代わりにHough変換を用いて
白線を直線として抽出する場合の一例を示している。ま
ずステップS11において、上述したように領域を分割
し、次に、ステップS12においてHough変換を行
う。
Embodiment 2 In the first embodiment of the present invention, an example has been described in which the outline of a white line is detected and white line recognition is performed in a region limited by the limiting unit after division by the dividing unit. An example in which a white line is extracted by a Hough transform in a limited area will be described. FIG. 8 shows an example in which a white line is extracted as a straight line using Hough transform instead of white line recognition in the above-described embodiment. First, in step S11, the region is divided as described above, and then, in step S12, Hough transform is performed.

【0051】ここで、Hough変換について、簡単に
説明すると、Hough変換は、例えば二値画像中から
直線を抽出する手法の一つであり、抽出する直線式を、
Here, the Hough transform will be briefly described. The Hough transform is one of the techniques for extracting a straight line from a binary image, for example.

【0052】y=ax+bY = ax + b

【0053】とおくと、画面上の点(x,y)に対応す
る係数(a,b)は、
In other words, the coefficients (a, b) corresponding to the point (x, y) on the screen are:

【0054】 b=y−xa (式1)B = y−xa (Equation 1)

【0055】と表され、点(x,y)のab平面での像
は、(1)の直線となる。ここで、全ての点(x,y)
についてab平面での直線像を求め、直線群が最も重な
った点(a,b)すなわちab平面で最も重みのある点
(a,b)を抽出することにより、直線を抽出するもの
である。まず分割された領域Iに限定してHough変
換を施す。領域I内のみに限定している為、データ量が
減り、処理速度を上げることができ、また白線以外のノ
イズの影響を受けにくくなる。次に左右近似直線抽出を
行う。前回抽出した直線との車幅条件から抽出領域を限
定する。
The image of the point (x, y) on the ab plane is a straight line of (1). Where all points (x, y)
, A straight line image on the ab plane is obtained, and a point (a, b) where the straight line group is most overlapped, that is, a point (a, b) having the highest weight on the ab plane is extracted, thereby extracting a straight line. First, Hough transform is performed only on the divided region I. Since the area is limited only to the area I, the data amount can be reduced, the processing speed can be increased, and the influence of noise other than the white line can be reduced. Next, a left-right approximate straight line is extracted. The extraction area is limited based on the vehicle width condition with the previously extracted straight line.

【0056】ステップS13における車線幅条件は例え
ば、左右の白線近似直線をそれぞれ(aL,bL)、(a
R,bR)と置くと、直線(aL,bL)、(aR,bR)の
距離は直線(aR−aL,bR−bL)で表され、これが画
面上での車線幅に近くなくてはならないという条件とし
てもよい。
The lane width condition in step S13 is, for example, that the approximate lines of the left and right white lines are (a L , b L ) and (a L , b L ), respectively.
R, putting a b R), the straight line (a L, b L), (a R, a distance b R) is represented by a straight line (a R -a L, b R -b L), which is on the screen It may be a condition that the vehicle must be close to the lane width of the vehicle.

【0057】まず、前回認識時の直線から車線幅条件を
満たしている直線群に(a,b)平面を限定する。次
に、ステップS14において、限定された領域の中で、
重みが最大値である(a,b)を抽出する。そして、ス
テップS15において、その重みがある閾値以下の場
合、前回抽出値を用い(ステップS16)、そうでない
場合、ステップS17において今回の抽出直線とする。
このような操作により、白線近似直線を抽出する。
First, the (a, b) plane is limited to a straight line group satisfying the lane width condition from the straight line recognized last time. Next, in step S14, within the limited area,
(A, b) having the maximum weight is extracted. Then, in step S15, if the weight is equal to or less than a certain threshold value, the previous extraction value is used (step S16), otherwise, the current extraction line is set in step S17.
By such an operation, a white line approximate straight line is extracted.

【0058】以上、この発明の実施形態においては、領
域の分割後、限定された領域について輪郭線を抽出する
白線認識、あるいは、Hough変換による直線抽出に
よる白線認識について説明したが、この発明は上述した
白線認識に関する画像認識処理に限定される事なく、例
えば、二値化処理、テンプレートマッチング処理等にお
いても適用できる。また、実施形態では、二つの領域
(動きの速い領域と遅い領域)に分割する例を示した
が、三つ以上の領域に分け、例えばそのうちの中間の動
き部分について認識を行うような場合にも適用できる。
As described above, in the embodiment of the present invention, white line recognition for extracting a contour line from a limited area after area division or white line recognition for extracting a straight line by Hough transform has been described. The present invention is not limited to the image recognition processing related to white line recognition described above, but can be applied to, for example, binarization processing, template matching processing, and the like. Further, in the embodiment, an example in which the image is divided into two regions (a fast moving region and a slow moving region) has been described. Is also applicable.

【0059】この発明の請求項1に係る車載用画像処理
装置によれば、白線等、認識対象に応じた適宜な画像処
理を行うことができ、例えば、この装置を白線認識に利
用した場合は、正確な白線認識(位置検出)を行うこと
ができるという効果を奏する。
According to the vehicle-mounted image processing apparatus according to the first aspect of the present invention, it is possible to perform appropriate image processing according to the recognition target such as a white line. For example, when this apparatus is used for white line recognition, This has the effect that accurate white line recognition (position detection) can be performed.

【0060】また、この発明の請求項2に係る車載用画
像処理装置によれば、請求項1の効果に加え、処理時間
の短縮を図ることができるという効果を奏する。
Further, according to the vehicle-mounted image processing apparatus according to the second aspect of the present invention, in addition to the effect of the first aspect, it is possible to reduce the processing time.

【0061】さらに、この発明の請求項3に係る車載用
画像処理装置は、請求項1または請求項2の効果をより
高めることができて、処理時間の短縮を図ることができ
るという効果を奏する。
Further, the vehicle-mounted image processing apparatus according to the third aspect of the present invention has the effect that the effects of the first or second aspect can be further enhanced and the processing time can be shortened. .

【図面の簡単な説明】[Brief description of the drawings]

【図1】 この発明の一つの実施の形態におけるブロッ
ク図である。
FIG. 1 is a block diagram according to one embodiment of the present invention.

【図2】 実施の形態における車両前方を撮影した画像
に輪郭線検出等の前処理を施した時の一例を示す図であ
る。
FIG. 2 is a diagram showing an example when preprocessing such as contour detection is performed on an image photographed in front of a vehicle according to the embodiment;

【図3】 図2の画像を時間積分処理を施し領域分割し
たときの一例を示す図である。
FIG. 3 is a diagram showing an example when the image of FIG. 2 is subjected to time integration processing and divided into regions.

【図4】 実施の形態における輪郭線検出等の前処理の
一例を示す図である。
FIG. 4 is a diagram illustrating an example of preprocessing such as contour detection in the embodiment;

【図5】 実施の形態における領域分割のブロック図で
ある。
FIG. 5 is a block diagram of area division according to the embodiment.

【図6】 実施の形態における白線認識処理の流れを示
したフローチャートである。
FIG. 6 is a flowchart illustrating a flow of a white line recognition process according to the embodiment.

【図7】 時間積分処理、変化量限定処理を行った時の
グラフである。
FIG. 7 is a graph when a time integration process and a change amount limiting process are performed.

【図8】 他の実施の形態における白線近似直線抽出の
流れを示したフローチャートである。
FIG. 8 is a flowchart showing a flow of white line approximate straight line extraction in another embodiment.

【図9】 従来技術のブロック図である。FIG. 9 is a block diagram of a conventional technique.

【図10】 従来技術における車両前方を撮像した画像
の一例を示す図である。
FIG. 10 is a diagram showing an example of an image obtained by imaging the front of a vehicle in the related art.

【図11】 従来例の認識処理の流れを示した図であ
る。
FIG. 11 is a diagram showing a flow of a recognition process of a conventional example.

【図12】 時間積分処理の構成を示すブロック図であ
る。
FIG. 12 is a block diagram illustrating a configuration of a time integration process.

【図13】 従来技術の課題の説明図である。FIG. 13 is an explanatory diagram of a problem in the related art.

【符号の説明】[Explanation of symbols]

1 画像撮影手段(CCDカメラ)、2 A/D変換手
段、3 白線認識手段、4 白線、5 道路、6 道路
上の文字、7 背景、23 一画面遅延手段、24 内
分手段、25 時定数τ、26 領域O、27 領域
I、28 前処理手段、29 時間積分手段、30 領
域分割手段、31 一走査線遅延手段、32 一画素遅
延手段、33、34 差分手段、35、36 絶対値手
段、37特定閾値、38、39 比較手段、40 OR
演算子、41 特定閾値、42比較手段。
1 image photographing means (CCD camera), 2 A / D conversion means, 3 white line recognition means, 4 white lines, 5 roads, 6 characters on roads, 7 background, 23 one screen delay means, 24 internal division means, 25 time constant τ, 26 area O, 27 area I, 28 preprocessing means, 29 time integration means, 30 area division means, 31 one scanning line delay means, 32 one pixel delay means, 33, 34 difference means, 35, 36 absolute value means , 37 specifying threshold value, 38, 39 comparing means, 40 OR
Operator, 41 specific threshold, 42 comparison means.

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 車両周辺を撮影する撮影手段を備え、得
られた画像信号に基づいて画像認識処理を行う車載用画
像処理装置において、 上記撮影手段により得られた画像信号に基づくデータを
時間積分する時間積分手段と、上記時間積分手段によっ
て得られたデータに基づいて上記データを複数領域に分
割する分割手段とを備え、上記分割手段により得られた
上記分割領域に基づいて、上記画像認識処理を行うこと
を特徴とする車載用画像処理装置。
1. An in-vehicle image processing apparatus comprising a photographing means for photographing a periphery of a vehicle and performing an image recognition process based on an obtained image signal, wherein a time based integration of data based on the image signal obtained by the photographing means is performed. And a dividing unit for dividing the data into a plurality of regions based on the data obtained by the time integrating unit. The image recognition processing is performed based on the divided regions obtained by the dividing unit. A vehicle-mounted image processing apparatus.
【請求項2】 上記複数領域のうちの少なくとも1つを
限定して上記画像認識処理を行うための限定手段を備え
たことを特徴とする請求項1の車載用画像処理装置。
2. The on-vehicle image processing apparatus according to claim 1, further comprising a limiting unit configured to perform the image recognition processing by limiting at least one of the plurality of regions.
【請求項3】 上記時間積分手段による時間積分の時定
数を画像の位置に応じて変化させる請求項1又は請求項
2の車載用画像処理装置。
3. The on-vehicle image processing apparatus according to claim 1, wherein a time constant of time integration by said time integration means is changed according to a position of an image.
JP18740795A 1995-07-24 1995-07-24 In-vehicle image processing device Expired - Fee Related JP3331095B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP18740795A JP3331095B2 (en) 1995-07-24 1995-07-24 In-vehicle image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18740795A JP3331095B2 (en) 1995-07-24 1995-07-24 In-vehicle image processing device

Publications (2)

Publication Number Publication Date
JPH0935065A JPH0935065A (en) 1997-02-07
JP3331095B2 true JP3331095B2 (en) 2002-10-07

Family

ID=16205499

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18740795A Expired - Fee Related JP3331095B2 (en) 1995-07-24 1995-07-24 In-vehicle image processing device

Country Status (1)

Country Link
JP (1) JP3331095B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE502005003754D1 (en) 2004-05-25 2008-05-29 Vdo Automotive Ag MONITORING UNIT NEBST ASSISTANCE SYSTEM FOR MOTOR VEHICLES
JP4677561B2 (en) * 2006-02-24 2011-04-27 国立大学法人長岡技術科学大学 Water level detection system, water level detection method, and program
JP6057660B2 (en) * 2012-10-19 2017-01-11 アルパイン株式会社 Lane monitoring system and lane monitoring method
JP6132359B2 (en) 2014-10-20 2017-05-24 株式会社Soken Traveling line recognition device
JP6408935B2 (en) * 2015-03-04 2018-10-17 株式会社Soken Traveling line recognition device

Also Published As

Publication number Publication date
JPH0935065A (en) 1997-02-07

Similar Documents

Publication Publication Date Title
US7729516B2 (en) Ranging device utilizing image processing
US8116523B2 (en) On-vehicle image processing apparatus
US20100110193A1 (en) Lane recognition device, vehicle, lane recognition method, and lane recognition program
US20150367781A1 (en) Lane boundary estimation device and lane boundary estimation method
US11270133B2 (en) Object detection device, object detection method, and computer-readable recording medium
JP2000011133A (en) Device and method for detecting moving object
JP2007179386A (en) Method and apparatus for recognizing white line
JP2888735B2 (en) Travel lane detection device
JPH11351862A (en) Foregoing vehicle detecting method and equipment
JP3961584B2 (en) Lane marking detector
JPH11175880A (en) Vehicle height measuring device and vehicle monitoring system using same
JP3331095B2 (en) In-vehicle image processing device
JP2000306097A (en) Road area decision device
JP3157958B2 (en) Leading vehicle recognition method
JPH11213284A (en) Vehicle kind discrimination device
JPH07244717A (en) Travel environment recognition device for vehicle
JPH06331335A (en) Vehicle recognition device
JPH10111939A (en) On-vehicle image processor
JPH05313736A (en) Obstacle recognizing device for moving vehicle
JPH0520593A (en) Travelling lane recognizing device and precedence automobile recognizing device
JPH0933216A (en) Image processor carried on vehicle
JPH09178855A (en) Method of detecting obstruction
CN112364835A (en) Video information frame taking method, device, equipment and storage medium
JPH0969162A (en) On-vehicle image processor
JP2003271930A (en) Lane mark recognizing device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070719

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080719

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090719

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100719

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100719

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110719

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110719

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120719

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees