JPS63142478A - White line detector - Google Patents

White line detector

Info

Publication number
JPS63142478A
JPS63142478A JP61288709A JP28870986A JPS63142478A JP S63142478 A JPS63142478 A JP S63142478A JP 61288709 A JP61288709 A JP 61288709A JP 28870986 A JP28870986 A JP 28870986A JP S63142478 A JPS63142478 A JP S63142478A
Authority
JP
Japan
Prior art keywords
white line
image
edge
value
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP61288709A
Other languages
Japanese (ja)
Other versions
JPH0656619B2 (en
Inventor
Hiroshi Saito
浩 斎藤
Kazunori Noso
千典 農宗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP61288709A priority Critical patent/JPH0656619B2/en
Publication of JPS63142478A publication Critical patent/JPS63142478A/en
Publication of JPH0656619B2 publication Critical patent/JPH0656619B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

PURPOSE:To stably detect a white line by detecting a white line candidate part and setting up a threshold in a maximum variable density value on a parameter plane obtained by HOUGH conversion. CONSTITUTION:A point changing a variable density value from dark to bright and a point changing the variable density value from bright to dark are detected from a two-dimensional observation image obtained by image-picking up external environment including a white line by an edge detecting means 100 and an edge formed by the assembly of the detected points is detected. When the area formed by the edge is less than a prescribed width, the area is detected as a white line candidate part by a white line candidate part detecting means 200. A pattern sorting means 300 classifies the pattern of the white line and a white line detecting means 400 executes the HOUGH conversion of the classified pattern to detect the white line.

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明は無人搬送車などの走行路に引かれた白線を検出
する白線検出装置に関する。
DETAILED DESCRIPTION OF THE INVENTION (Field of Industrial Application) The present invention relates to a white line detection device for detecting white lines drawn on a travel path of an automatic guided vehicle or the like.

(従来技術) 無人搬送車などの走行車の走行を制御するために、走行
車に取り付けられたテレビカメラなどの撮像部によって
外部環境を撮像し、その撮像された二次元画像から外部
環境を認識する技術が知られている。従来このような目
的で外部環境を認識する1段としては、走行路面や壁面
にセンシング可能なライン状またはスポット状の目印(
マーカー)を設こし、走行車に設けた受光素子によって
それらの目印を感知する方法が知られている(たとえば
特開昭59−224505号)。
(Prior art) In order to control the running of a traveling vehicle such as an automatic guided vehicle, the external environment is imaged by an imaging unit such as a television camera attached to the traveling vehicle, and the external environment is recognized from the captured two-dimensional image. There are known techniques to do this. Conventionally, the first step in recognizing the external environment for this purpose is to use line-shaped or spot-shaped landmarks that can be sensed on the road surface or wall surface.
A known method is to set up markers (markers) and detect the markers using a light-receiving element provided on a vehicle (for example, Japanese Patent Laid-Open No. 59-224505).

しかしながら、このような従来の方法においては、路面
や壁面に特別なマーカーを設置しなければならないため
に、外部環境のレイアウト変更か大変であるとか、マー
カーの汚れに弱いという問題があり、外部環境に手を加
えることなく安定して外部環境を認識する手法の開発が
望まれている。
However, in this conventional method, special markers must be installed on the road or wall surface, which makes it difficult to change the layout of the external environment, and the markers are susceptible to dirt. It is desired to develop a method to stably recognize the external environment without making any changes to the external environment.

(発IJ1の目的および構成) 本発明はL記の点にかんがみてなされたもので、レイア
ウトの変更や増設に際してマーカーの再設置をするなど
外部環境に手を加えずに外部環境を認識することを目的
とし、そのために工場内には人や走行車の通路と作業場
とを区別するために白線が引かれている点に着目し、上
記目的を達成するために、第1図に全体構成を示すよう
に、白線を含む外部環境を撮像して得られる二次元観測
画像からエツジ検出手段lOOにより濃淡値が暗から明
に変化する点と明から暗に変化する点を検出し、検出し
た点の集合により形成されるエツジを検出し、このエツ
ジにより形成される葡城が所定幅以下であるような領域
を白線候補部として白線候補部検出手段200により検
出し、パターン分類手段300により前記領域の中心点
の集合から白線のパターンを分類し、この分類されたパ
ターンについて白線検出手段40GにおいてHOUGH
変換を施すことにより白線を検出するように構成したも
のである。
(Purpose and configuration of IJ1) The present invention was made in consideration of the point L, and it is possible to recognize the external environment without making any changes to the external environment such as reinstalling markers when changing the layout or expanding the installation. For this purpose, we focused on the fact that white lines are drawn inside the factory to distinguish the paths for people and vehicles from the workplace, and in order to achieve the above purpose, the overall configuration is shown in Figure 1. As shown, from the two-dimensional observation image obtained by imaging the external environment including the white line, the edge detection means lOO detects points where the gray value changes from dark to light and points where the gray value changes from bright to dark. The white line candidate detecting means 200 detects an edge formed by a set of edges, and the white line candidate detecting means 200 detects an area where the edge formed by the edge is less than a predetermined width as a white line candidate, and the pattern classifying means 300 detects the area The white line detection means 40G classifies the white line pattern from the set of center points of
The system is configured to detect white lines by performing conversion.

(実施例) 以下本発明を図面に基づいて説明する。(Example) The present invention will be explained below based on the drawings.

第2図は本発明による白線検出装置の一実施例のブロッ
ク線図を示す。
FIG. 2 shows a block diagram of an embodiment of the white line detection device according to the present invention.

本装置は、撮像部101と、この撮像部ioiにより撮
像した画像データをストアしておく画像メモリ102と
、画像メモリ102にストアされた情報からエツジ情報
を演算する微分演算部103と、演算したエツジ情報を
閾値αで2値化する2 ((i化部104と、演算した
エツジ情報を閾値βで反転2値化する2値化部105と
、これらの2値化部104,105で抽出したエツジ情
報を輻1にそれぞれ細線化する細線化部106および1
07と、細線化された2枚の画像を加算する加算部10
8と、加算結果から鉛直方向エツジを除去する鉛直エツ
ジ除去部109と、そこから白線と思われる領域を検出
する白線候補部抽出部110と、白線候補とされた領域
から中心線(骨格線)を抽出する骨格線抽出部ittと
、抽出された骨格線から骨格線を右上りか左上りかでパ
ターン分けするパターン分類部112と、得られたパタ
ーンをストアしておく右上り骨格線格納用画像メモリ1
13と、同様の右下り骨格線格納用画像メモリ114と
、これらのメモリ113および114のデータから白線
を検出する白線検出部115とから構成されている。
This device includes an imaging unit 101, an image memory 102 that stores image data captured by the imaging unit ioi, and a differential calculation unit 103 that calculates edge information from the information stored in the image memory 102. Binarize the edge information with a threshold α 2 (Extracted by an i conversion unit 104, a binarization unit 105 that inverts and binarizes the calculated edge information with a threshold β, and these binarization units 104 and 105) Line thinning units 106 and 1 thin the edge information into a line 1, respectively.
07, and an adding unit 10 that adds the two thinned images.
8, a vertical edge removal unit 109 that removes vertical edges from the addition result, a white line candidate extraction unit 110 that detects a region that is considered to be a white line from there, and a center line (skeletal line) from the area that is considered a white line candidate. a skeletal line extraction unit itt that extracts the skeletal lines, a pattern classification unit 112 that divides the extracted skeletal lines into patterns based on whether they are upward-right or upward-left, and an image memory for storing upward-right skeleton lines that stores the obtained patterns. 1
13, a similar image memory 114 for storing right-down skeleton lines, and a white line detection unit 115 that detects white lines from data in these memories 113 and 114.

次に第3図を参照して動作を説明する。Next, the operation will be explained with reference to FIG.

撮像部101から取り込んだ同図(イ)に示すような画
像信号A(i、j)は画像メモリ102にストアされる
とともに微分演算部103に送られ、3×3の微分フィ
ルタP の作用によってエツジ画像A’(i、j)が得られる。
An image signal A(i, j) as shown in FIG. An edge image A'(i,j) is obtained.

たとえば、取扱う画像が1画素当り8ビツトの濃淡情報
(濃淡値0〜255)を持ち得るときA’(i、j)=
  lNT[(A(i+l、j−1)+2A(i+l、
j)+A(iす1゜j◆1)−A(i−1,j−1)−
2A(i−1,j)−A(i−1,j+1)+1024
 )/23] となる。ここでINT(X)はXを越えない最大整数を
与える関係であり、1024と23はともに正規化のた
めの項である。
For example, when the image to be handled can have 8-bit gradation information (gradation value 0 to 255) per pixel, A'(i, j)=
lNT[(A(i+l,j-1)+2A(i+l,
j)+A(isu1゜j◆1)-A(i-1,j-1)-
2A(i-1,j)-A(i-1,j+1)+1024
)/23]. Here, INT(X) is a relationship that gives the maximum integer that does not exceed X, and both 1024 and 23 are terms for normalization.

こうして得られたエツジ画像A’(i、j)は2イメi
化部104および105に送られ、2値化部104にお
いてA’(t T J )を濃淡値128を越えるある
閾値で2値化することにより(A’(i、j)において
濃淡値が閾値を越えている画素に対し、その濃淡値を2
55に置き変え、閾値を越えていない画素については濃
淡値0を置き変える操作を行う)、ラスター走査した際
のある一定値以上の明から暗への濃淡変化点が濃淡値2
55を有する画素として検出され、2値化部105にお
いては、A”(i、j)を濃淡値12Bを越えないある
閾値で反転2値化することにより(A’(i、j)にお
いて濃淡値が閾値を越えている画素に対しその濃淡値を
0に置き変え、閾値を越えていない画素については濃淡
値12Bに置き変える走査を行う)、ラスター走査した
際のある一定値以上の明から暗への濃淡変化点が濃淡値
255を有する画素として検出される。
The edge image A'(i, j) obtained in this way has two images i
A'(t T J ) is sent to the converting units 104 and 105, and the binarizing unit 104 binarizes A'(t T J ) with a certain threshold value exceeding the gray level value 128. For pixels that exceed
55, and replace the gray value 0 for pixels that do not exceed the threshold), the gray value 2 is the point where the gray changes from bright to dark above a certain value during raster scanning.
55, and the binarization unit 105 inverts and binarizes A''(i, j) with a certain threshold that does not exceed the gradation value 12B. For pixels whose value exceeds the threshold, the gray value is replaced with 0, and for pixels whose value does not exceed the threshold, the gray value is replaced with 12B), from brightness of more than a certain value during raster scanning. A point where the gray level changes to dark is detected as a pixel having a gray level value of 255.

次に2イ1化部104および105で得られた画像を細
線化部106および107で太さlに細線化し、細線化
部107て得られた明から暗への濃淡変化点に128な
る濃淡値を与え、加算部108において細線化部106
と細線化部107の結果の同一画素どうしの濃淡値の加
算を行う。以上の処理によって、たとえば第3図(イ)
に示したような原画像A(i、j)から同図(ロ)に示
したようなエツジ構成点画像B (i、j)が得られる
Next, the image obtained in the 2-1 conversion units 104 and 105 is thinned to a thickness l in the line thinning units 106 and 107, and the line thinning unit 107 produces a shading of 128 at the obtained shading change point from bright to dark. The value is given to the thinning unit 106 in the adding unit 108
Then, the grayscale values of the same pixels resulting from the thinning unit 107 are added. Through the above processing, for example, as shown in Fig. 3 (a)
An edge constituent point image B (i, j) as shown in FIG.

次に鉛直エツジ除去部109において、エツジ構成点画
像B (i、j)中の濃淡値255の鉛直方向ランおよ
び濃淡値128の鉛直方向ランをそれぞれ除去すること
によって同図(ハ)に示したような画像C(i、j)か
得られる。
Next, the vertical edge removal unit 109 removes the vertical run with a gray value of 255 and the vertical run with a gray value of 128 in the edge constituent point image B (i, j), resulting in the image shown in FIG. An image C(i,j) like this is obtained.

次に白線候補部抽出部110において、鉛直エツジ除去
画像C(i、j)の濃淡値を調べ、左端の濃淡値が25
5、右端の濃淡値が128であるような水平領域で1両
端の幅Xがあらかじめ設定しておいた第3図(ニ)で与
えられるWに対し、W/2≦X≦Wを満たすような領域
を探し、白線候補部として濃淡値255を与え、同図(
ホ)に示すような画像D (i、j)を得る。
Next, the white line candidate extracting unit 110 checks the shading values of the vertical edge removed image C(i, j), and determines that the shading value of the left end is 25.
5. In a horizontal area where the shading value at the right end is 128, the width X at both ends is set in advance and W is given in Figure 3 (d), so that W/2≦X≦W is satisfied. We searched for a region with a shading value of 255 as a white line candidate, and
An image D (i, j) as shown in e) is obtained.

第4図は白線候補部抽出のフローチャートである。縦M
画素、横N画素から成る鉛直エツジ除去画像C(i、j
)について、i=1.j=1として(F−1)画面の左
上から水平方向にラスター走査する。この間に画像C(
i、j)の濃淡値を調べ、濃淡値が255になる点を調
べる(F−2)。画像の濃淡値が255となる画素か見
つかったとき、次の式から定まる水平方向探索範囲Wを
設定する(F−3)。
FIG. 4 is a flowchart of white line candidate extraction. Vertical M
Vertical edge removed image C (i, j
), i=1. With j=1 (F-1), raster scan is performed in the horizontal direction from the upper left of the screen. During this time, image C (
Check the shading values of i, j) and check the point where the shading value becomes 255 (F-2). When a pixel with an image density value of 255 is found, a horizontal search range W determined by the following equation is set (F-3).

W=INT (j/20) ここで式中の20はカメラのレイアウトとか白線の太さ
などによって使用者が予、め決定する値の一例である。
W=INT (j/20) Here, 20 in the formula is an example of a value that is predetermined by the user based on the camera layout, the thickness of the white line, etc.

、次にWが0でないことを確認しくF−4)、確認でき
たところでに=i+WからKを求め(F−5)、に≧N
となるまで(F−6)画像C(i、j)の濃淡値が12
8になる点を調べる(F−7)。濃淡値が128になっ
たところでL=iとしくF−8)、D (L、j)=2
55となる画素を求める(F−9)。この処理後はステ
ップ(F−2)にもどり、i=1からN、j=1からM
について上述した処理を繰り返す。こうして画面を左か
ら右に向って探索を行ない、画像C(i、j)からWを
越えない最大の領域を抽出し、第3図(ホ)に示すよう
な白線候補部画像D(i、j)が得られる。
, Next, confirm that W is not 0 (F-4), and once confirmed, calculate K from =i+W (F-5), and find that ≧N
(F-6) The gray value of image C (i, j) is 12 until (F-6)
Check the point that becomes 8 (F-7). When the gradation value reaches 128, set L=i and F-8), D (L, j)=2
Find the pixel that is 55 (F-9). After this process, return to step (F-2), i=1 to N, j=1 to M
Repeat the process described above for . In this way, the screen is searched from left to right, and the largest area not exceeding W is extracted from the image C(i, j), resulting in a white line candidate image D(i, j) as shown in FIG. j) is obtained.

すなわち、この処理においても、まず画面の左上の画素
から水平方向に走査するものとし、i=1、j=1とす
る(P−1)。
That is, in this process as well, it is assumed that the screen is first scanned in the horizontal direction starting from the upper left pixel, and i=1 and j=1 (P-1).

まず、白線候補部画像D (i、j)の濃淡値が0か否
かを調べ(P−2)、Oならば白線候補部がないとし゛
、K平方向に1画素分だけ移動する。
First, it is checked whether the gradation value of the white line candidate portion image D (i, j) is 0 or not (P-2). If it is O, it is assumed that there is no white line candidate portion, and the white line candidate portion image D (i, j) is moved by one pixel in the K-plane direction.

これに対して画像D (i、j)の濃淡値が0でなけれ
ば白線候補部ありとしてA=1としくp−3)、次にi
をi+1として(P−4)i=Nになるまで(P−5)
、画像D(i、j)の濃度値がOか否かを調べ続ける(
P−6)。走査点が1画素分だけ水平方向に移動するた
びにAをlずつインクリメントしてい< (F−7)。
On the other hand, if the gradation value of image D (i, j) is not 0, it is assumed that there is a white line candidate and A=1 (p-3), then i
as i+1 (P-4) until i=N (P-5)
, continues to check whether the density value of image D (i, j) is O or not (
P-6). Each time the scanning point moves horizontally by one pixel, A is incremented by l (F-7).

ステップ(P−6)において、D(i、j)=Oとなっ
た求め(P−8)、そのKをX座標とする画素E(k、
j)=255を求める(P−9)。
In step (P-6), find D(i, j)=O (P-8), and calculate the pixel E(k,
Find j)=255 (P-9).

ステップ(P−2)にもどってi=1からN、j=1か
らMについて上述した処理を繰り返し全画面について骨
格線を求める。その結果第3図(へ)に示すような骨格
線画像E (i、j)が得られる。
Returning to step (P-2), the above-described process is repeated for i=1 to N and j=1 to M to obtain skeleton lines for the entire screen. As a result, a skeleton line image E (i, j) as shown in FIG. 3(f) is obtained.

次にパターン分離部112において、骨格線画像E (
i、j)から右上りの骨格線F (i、j)と右下りの
骨格線G(i、j)をそれぞれ抽出する。すなわちE(
i、j)にその中央に骨格線構成画素(e淡値255の
画素)がくるような3×3のマスクをかけると、マスク
内パターンは第6図に示したバタニンのいずれかになる
ため、右上りパターン、右下りパターンの分類を容易に
行うことができる。こうして得られた右上り骨格線F(
i、j)および右下り骨格1iG(i、j)の画像は第
3図(ト)および(チ)に示すようなもので、それぞれ
画像メモリ113および114にスドアされる。
Next, in the pattern separation unit 112, the skeleton line image E (
A skeleton line F (i, j) upward to the right and a skeleton line G (i, j) downward to the right are extracted from i, j). That is, E(
If you apply a 3 x 3 mask to i, j) so that the skeleton line constituent pixels (pixels with an e-light value of 255) are placed in the center, the pattern within the mask will be one of the batanine patterns shown in Figure 6. , right-up pattern, and right-down pattern can be easily classified. The upper right skeleton line F (
i, j) and the right-downward skeleton 1iG(i, j) as shown in FIGS. 3(g) and 3(h), and are stored in image memories 113 and 114, respectively.

次に白線検出部115において、これらの骨格線F (
i、j)およびG(i、j)にそれぞれHOUGH変換
を施すことにより白線を検出することができる。白線の
検出結果は第3図(す)に示すようになる。図1.およ
びfLRが検出した白線である。
Next, the white line detection unit 115 detects these skeleton lines F (
A white line can be detected by applying HOUGH transformation to each of i, j) and G(i, j). The white line detection results are shown in Figure 3. Figure 1. and the white line detected by fLR.

HOUGH変換とはF (i、j)、G (i、j)の
ような点列から直線を検出する手法であり、画像処理の
分野で広く用いられる。以下、今回用いたHOUGH変
換についてF (i、j)を例にとって第7図を用いて
説明する。
HOUGH transformation is a method for detecting straight lines from a sequence of points such as F (i, j) and G (i, j), and is widely used in the field of image processing. Hereinafter, the HOUGH transformation used this time will be explained using FIG. 7, taking F (i, j) as an example.

第7図(ロ)は同図(イ)上に設けた基準ラインy=α
上で点PをPoからPnまで変化させた際1点Pと骨格
構成点A点とを結ぶ直線が画像端と交わる点Qの軌跡を
表わしたものである。パラメータ平面上の点(Pl、Q
t)にはPt、Qtを結ぶ線分上に骨格線構成点が何点
乗っているかを表わすために軌跡の通過ごとに濃淡値を
インクリメントしていく。たとえば第7図(ロ)では、
点Aの射影パターン1いと点Bの射影パターン文、の交
点に濃淡値2を与え、その他のl s 、 l a上の
点には濃淡値lを与える。
Figure 7 (b) shows the reference line y = α set on the same figure (a).
This figure represents the locus of the point Q where the straight line connecting one point P and the skeleton constituent point A intersects with the edge of the image when the point P is changed from Po to Pn. A point on the parameter plane (Pl, Q
t), the gradation value is incremented each time the trajectory passes in order to represent how many skeleton line constituent points are on the line segment connecting Pt and Qt. For example, in Figure 7 (b),
A gradation value 2 is given to the intersection of the projection pattern 1 of point A and the projection pattern sentence of point B, and a gradation value 1 is given to the other points on l s and la.

第8図はF (i、j)のHOUGH変換のフローチャ
ートを示しており、パラメータ平面の濃淡値をR(P、
Q)とする。
Figure 8 shows a flowchart of the HOUGH transformation of F (i, j), in which the gradation values of the parameter plane are converted to R(P,
Q).

まず点Pを20に定め(W−1) 、基準ライン上の左
端の画素(1= l # J =α)から始めて(W−
2)、右上り骨格線F (i、j)の濃淡値が255に
なるまでiを1からPまで、jをαからMまで増してい
く。右上り骨格線F (i、j)の濃淡値が255・に
なったところでQlを算出しくW−4)、パラメータ平
面の濃淡値R(P、Q)をlたけインクリメントする(
W−S)。ここでパラメータ平面の最大濃淡値V=0、
x=p、、Y ” Q oから始めて(W−6)、Xを
PoからPnまで、YをQ。からQnまで変化させて点
(x。
First, set the point P to 20 (W-1), and start from the leftmost pixel (1 = l # J = α) on the reference line (W-
2) Increase i from 1 to P and j from α to M until the gray value of the upward-right skeleton line F (i, j) reaches 255. When the shading value of the upper right skeleton line F (i, j) becomes 255, calculate Ql (W-4), and increment the shading value R (P, Q) of the parameter plane by l (
W-S). Here, the maximum shading value of the parameter plane V = 0,
x=p,,Y''Q Starting from o (W-6), change X from Po to Pn, Y from Q. to Qn, and reach the point (x.

Yl)e淡値R(X、Y)が最大濃淡値V(=O)より
大きくなる点(X、Y)を求める。
Yl)e Find the point (X, Y) where the lightness value R(X, Y) is greater than the maximum grayness value V(=O).

最大濃淡値Vを与えるp、(x)をSとし、Q。Let p and (x) be S, which gives the maximum gray value V, and Q.

(Y)をTとして最大濃淡値Vを求め(W−a)、この
最大濃淡値Vが閾値vTHより大きくなったとき白線あ
り、小さいとき白線なしとする(W−9)。
The maximum shading value V is determined by setting (Y) to T (W-a), and when this maximum shading value V is larger than the threshold value vTH, there is a white line, and when it is smaller, there is no white line (W-9).

こうして、与えられたすべての骨格構成点について処理
を行い、パラメータ平面(P、Q)上で最大濃淡値を有
する点をもって、最適直線と見なすことができる。
In this way, all the given skeleton constituent points are processed, and the point having the maximum gray value on the parameter plane (P, Q) can be regarded as the optimal straight line.

ここでたとえば、原画像に白線が1本しか見えないとき
、たとえば右上りの白線しか見えないときを考えると、
右下りの骨格線として抽出したG(i、j)には白線デ
ータは何も入っていないわけである。したがってG(i
、j)をHOUGH変換した際のパラメータ平面の最大
濃淡値は、白線が見えているときのそれに比べて小さく
なることが予想される。したがって、HOUGH変換し
た際のパラメータ平面上の最大濃淡値Vに閾値な設定す
ることによって白線が1本しか見えないときでも対処可
能になる。上の例では右下りの骨格線G(i、j)から
得られたパラメータ平面の最大濃淡値がVに満たないこ
とになって、右下りの白線は検出されないようになる。
For example, consider a case where only one white line is visible in the original image, for example, when only the white line at the top right is visible.
G(i,j) extracted as a skeleton line descending to the right does not contain any white line data. Therefore G(i
, j) is expected to be smaller than that when the white line is visible. Therefore, by setting a threshold value to the maximum gradation value V on the parameter plane upon HOUGH conversion, it becomes possible to deal with the situation even when only one white line is visible. In the above example, the maximum gradation value of the parameter plane obtained from the skeleton line G(i, j) descending to the right is less than V, and the white line descending to the right is not detected.

このようにして検出した白線位置を通路端位置と見なす
ことができ、無人搬送車の走行制御などに用いることか
できる。
The white line position detected in this way can be regarded as the path end position, and can be used for travel control of an automatic guided vehicle.

なお、第3図(ワ)に示すようなHOUGH変換により
求めた2木の白線i、と1.の支点vpをi測角像の消
点と見なすことができる。
Note that the white line i of the two trees obtained by the HOUGH transformation as shown in FIG. 3 (W) and 1. The fulcrum vp of can be regarded as the vanishing point of the i angle measurement image.

(発明の効果) 以上説明したように、本発明においては、![lNN両
画面おいて濃度が暗から明に変化する点を左端、明から
暗に変化する点を右端とする領域のうち白線幅に近いも
のだけを検出し、その領域の中心点をもって白線候補部
とみなし、HOUGH変換で得られるパラメータ平面の
最大濃淡値に閾値を設定することにより白線を検出する
ようにしたので、従来のように走行路面や壁面に設けた
マーカーを用いずに外部環境を認識することができるた
め工場のレイアウトを変更したり増設したりしてもマー
カーを設置し直すとか新たに設ける必要がなくて汎用性
か高く、設備コストが大幅に節減できるとともに、保守
管理の煩わしさが全くなくランニングコスト上も有利で
ある。また検出は白線の多少の汚れには影響を受けずに
、安定して白線位置を検出できる。さらに、白線を求め
るHOυGH変換が安定して迅速にできるという利点も
ある。
(Effects of the Invention) As explained above, in the present invention,! [lNNOn both screens, detect only the area whose left edge is the point where the density changes from dark to bright and the right edge is the point where the density changes from bright to dark, and use the center point of that area as a white line candidate. Since the white line is detected by setting a threshold value to the maximum gradation value of the parameter plane obtained by HOUGH conversion, it is possible to detect the external environment without using markers placed on the driving road or wall surface as in the past. Because it can be recognized, there is no need to reinstall or install new markers even if the factory layout is changed or expanded, making it highly versatile, greatly reducing equipment costs, and reducing the hassle of maintenance management. It is also advantageous in terms of running costs. Furthermore, detection is not affected by slight dirt on the white line, and the position of the white line can be detected stably. Furthermore, there is an advantage that the HOυGH conversion for determining the white line can be performed stably and quickly.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明による白線検出装置の全体構成図、第2
図は本発明による白線検出装置の一実施例のブロック線
図、第3図は本発明による白線検出の画像処理の各ステ
ップにおいて得られる画像を示し、(イ)は観測画像、
(ロ)はエツジ構成点画像、(ハ)は鉛直エツジ除去画
像、(ニ)は水平方向探索範囲、(ホ)は白線候補部画
像、(へ)は骨格線画像、(ト)は右上り骨格像、(チ
)は右下り骨格像、(す)は白線検出結果を示す画像、
第4図は白線候補部抽出のフローチャート、第5図は骨
格線画像精製のフローチャート、第6図は骨格線のパタ
ーン、第7図はHOUGH変換の説明図、第8図はHO
UGH変換のフローチャートである。 ioo・・・エツジ検出手段、200−・白線候補部検
出手段、300−・・パターン分類手段、400・・・
白線検出手段 特許出願人 日産自動車株式会社 代理人  弁理士  鈴 木 弘 男 第3図 (へ) (ト) (チ) (す) 」11R 第6図 第7図
Fig. 1 is an overall configuration diagram of a white line detection device according to the present invention;
The figure is a block diagram of an embodiment of the white line detection device according to the present invention, and FIG. 3 shows images obtained in each step of image processing for white line detection according to the present invention.
(B) is an edge constituent point image, (C) is a vertical edge removed image, (D) is a horizontal search range, (E) is a white line candidate image, (F) is a skeleton line image, (G) is an upper right image. Skeleton image, (C) is a skeleton image descending to the right, (S) is an image showing white line detection results,
Figure 4 is a flowchart of white line candidate extraction, Figure 5 is a flowchart of skeleton line image purification, Figure 6 is a skeleton line pattern, Figure 7 is an explanatory diagram of HOUGH conversion, and Figure 8 is a flowchart of HOUGH conversion.
It is a flowchart of UGH conversion. ioo...edge detection means, 200--white line candidate detection means, 300--pattern classification means, 400...
White line detection means patent applicant Nissan Motor Co., Ltd. agent Patent attorney Hiroshi Suzuki

Claims (1)

【特許請求の範囲】[Claims] 白線を含む観測画像中濃淡値が暗から明に変化する点と
明から暗に変化する点を画像全体にわたって検出し検出
した点の集合により形成されるエッジを検出するエッジ
検出手段と、前記エッジにより形成される領域が所定幅
以下であるような領域を白線候補部として検出する白線
候補部検出手段と、前記領域の中心点を抽出し該中心点
の集合から白線のパターンを分類するパターン分類手段
と、分類されたパターンについてHOUGH変換を施す
ことにより白線を検出する白線検出手段とを有すること
を特徴とする白線検出装置。
an edge detection means for detecting points where the gray scale value changes from dark to light and points where the gray value changes from bright to dark over the entire image in an observed image including a white line, and detecting an edge formed by a set of detected points; a white line candidate detecting means for detecting an area formed by the area having a predetermined width or less as a white line candidate, and a pattern classification for extracting a center point of the area and classifying a white line pattern from a set of the center points. and white line detection means for detecting white lines by performing HOUGH transformation on the classified patterns.
JP61288709A 1986-12-05 1986-12-05 White line detector Expired - Fee Related JPH0656619B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61288709A JPH0656619B2 (en) 1986-12-05 1986-12-05 White line detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61288709A JPH0656619B2 (en) 1986-12-05 1986-12-05 White line detector

Publications (2)

Publication Number Publication Date
JPS63142478A true JPS63142478A (en) 1988-06-14
JPH0656619B2 JPH0656619B2 (en) 1994-07-27

Family

ID=17733670

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61288709A Expired - Fee Related JPH0656619B2 (en) 1986-12-05 1986-12-05 White line detector

Country Status (1)

Country Link
JP (1) JPH0656619B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0352081A (en) * 1989-07-20 1991-03-06 Fujitsu Ltd Monitor for self-running car
US5301115A (en) * 1990-06-01 1994-04-05 Nissan Motor Co., Ltd. Apparatus for detecting the travel path of a vehicle using image analysis
US5929784A (en) * 1994-02-17 1999-07-27 Fuji Electric Co., Ltd. Device for determining distance between vehicles
US7218207B2 (en) 2002-08-27 2007-05-15 Clarion Co., Ltd. Method for detecting position of lane marker, apparatus for detection position of lane marker and alarm apparatus for lane deviation
WO2009116328A1 (en) 2008-03-19 2009-09-24 三洋電機株式会社 Image processing device and method, driving support system, and vehicle
JP2012146135A (en) * 2011-01-12 2012-08-02 Denso Corp Boundary detector and boundary detection program
US8239131B2 (en) 2007-06-12 2012-08-07 Panasonic Corporation Navigation device, navigation method, and navigation program
JP2012248168A (en) * 2011-05-31 2012-12-13 Honda Motor Co Ltd Lane mark recognition device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2927060B1 (en) * 2012-11-27 2019-05-08 Clarion Co., Ltd. On-vehicle image processing device

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0352081A (en) * 1989-07-20 1991-03-06 Fujitsu Ltd Monitor for self-running car
US5301115A (en) * 1990-06-01 1994-04-05 Nissan Motor Co., Ltd. Apparatus for detecting the travel path of a vehicle using image analysis
US5929784A (en) * 1994-02-17 1999-07-27 Fuji Electric Co., Ltd. Device for determining distance between vehicles
US7218207B2 (en) 2002-08-27 2007-05-15 Clarion Co., Ltd. Method for detecting position of lane marker, apparatus for detection position of lane marker and alarm apparatus for lane deviation
US8239131B2 (en) 2007-06-12 2012-08-07 Panasonic Corporation Navigation device, navigation method, and navigation program
WO2009116328A1 (en) 2008-03-19 2009-09-24 三洋電機株式会社 Image processing device and method, driving support system, and vehicle
JP2012146135A (en) * 2011-01-12 2012-08-02 Denso Corp Boundary detector and boundary detection program
US8682033B2 (en) 2011-01-12 2014-03-25 Denso Corporation Boundary detection device for vehicles
JP2012248168A (en) * 2011-05-31 2012-12-13 Honda Motor Co Ltd Lane mark recognition device

Also Published As

Publication number Publication date
JPH0656619B2 (en) 1994-07-27

Similar Documents

Publication Publication Date Title
KR101724658B1 (en) Human detecting apparatus and method
Al-Ghaili et al. Vertical-edge-based car-license-plate detection method
KR101719549B1 (en) Image preprocessing method for license plate recognition and license plate recognition device using thereof
Badr et al. Automatic number plate recognition system
Naito et al. Robust license-plate recognition method for passing vehicles under outside environment
KR101717613B1 (en) The moving vehicle detection system using an object tracking algorithm based on edge information, and method thereof
KR101403876B1 (en) Method and Apparatus for Vehicle License Plate Recognition
Al-Hmouz et al. License plate localization based on a probabilistic model
CN103903018A (en) Method and system for positioning license plate in complex scene
JPH06203154A (en) Image processor
CN102004924A (en) Human head detection system and method
JPH05298591A (en) Object recognition device
Babbar et al. A new approach for vehicle number plate detection
JP2002228423A (en) Tire detecting method and device
KR101794632B1 (en) The logo pattern recognizing method in number plate of electric vehicle
JPS63142478A (en) White line detector
JPH11175880A (en) Vehicle height measuring device and vehicle monitoring system using same
KR100942409B1 (en) Method for detecting a moving vehicle at a high speed
He et al. Segmentation of characters on car license plates
Hommos et al. Hd Qatari ANPR system
Anagnostopoulos et al. Using sliding concentric windows for license plate segmentation and processing
JPH07146916A (en) Recognizing device for license plate
Lin et al. Locating license plate based on edge features of intensity and saturation subimages
Deb et al. Statistical characteristics in HSI color model and position histogram based vehicle license plate detection
Deb et al. Vehicle license plate detection algorithm based on color space and geometrical properties

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees