JPH0656619B2 - White line detector - Google Patents
White line detectorInfo
- Publication number
- JPH0656619B2 JPH0656619B2 JP61288709A JP28870986A JPH0656619B2 JP H0656619 B2 JPH0656619 B2 JP H0656619B2 JP 61288709 A JP61288709 A JP 61288709A JP 28870986 A JP28870986 A JP 28870986A JP H0656619 B2 JPH0656619 B2 JP H0656619B2
- Authority
- JP
- Japan
- Prior art keywords
- white line
- line
- image
- gray value
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Description
【発明の詳細な説明】 (産業上の利用分野) 本発明は無人搬送車などの走行路に引かれた白線を検出
する白線検出装置に関する。Description: TECHNICAL FIELD The present invention relates to a white line detection device for detecting a white line drawn on a traveling path such as an automated guided vehicle.
(従来技術) 無人搬送車などの走行車の走行を制御するために、走行
車に取り付けられたテレビカメラなどの撮像部によって
外部環境を撮像し、その撮像された二次元画像から外部
環境を認識する技術が知られている。従来このような目
的で外部環境を認識する手段としては、走行路面や壁面
にセンシング可能なライン状またはスポット状の目印
(マーカー)を設置し、走行車に設けた受光素子によっ
てそれらの目印を感知する方法が知られている。(たと
えば特開昭59−224505号)。(Prior Art) In order to control the traveling of a traveling vehicle such as an automated guided vehicle, an external environment is captured by an image capturing unit such as a television camera attached to the traveling vehicle, and the external environment is recognized from the captured two-dimensional image. The technology to do is known. Conventionally, as means for recognizing the external environment for such a purpose, line-shaped or spot-shaped marks (markers) that can be sensed have been installed on a road surface or a wall surface, and those marks are detected by a light-receiving element provided on a traveling vehicle. It is known how to do it. (For example, JP-A-59-224505).
しかしながら、このような従来の方法においては、路面
や壁面に特別なマーカーを設置しなければならないため
に、外部環境のレイアウト変更が大変であるとか、マー
カーの汚れに弱いという問題があり、外部環境に手を加
えることなく安定して外部環境を認識する手法の開発が
望まれている。However, in such a conventional method, it is necessary to install a special marker on a road surface or a wall surface, so that it is difficult to change the layout of the external environment or there is a problem that the marker is dirty. It is desired to develop a method for stably recognizing the external environment without modification.
(発明の目的および構成) 本発明は上記の点にかんがみてなされたもので、レイア
ウトの変更や増設に際してマーカーの再設置をするなど
外部環境に手を加えずに外部環境を認識することを目的
とし、そのために工場内には人や走行車の通路と作業場
とを区別するために白線が引かれている点に着目し、上
記目的を達成するために、第1図に全体構成を示すよう
に、白線を含む外部環境を撮像して得られる二次元観測
画像からエッジ検出手段100により濃淡値が暗から明
に変化する点と明から暗に変化する点を検出し、検出し
た点の集合により形成されるエッジを検出し、このエッ
ジにより形成される領域のうち左端のエッジが濃淡値が
暗から明に変化する点で右端のエッジが濃淡値が明から
暗に変化する点であり且つその幅が検出すべき白線の太
さに応じた所定幅範囲にある領域を白線候補部として白
線候補部検出手段200により検出し、パターン分類手
段300により白線候補部の水平方向の中心点を白線候
補部全体について求めこの中心点を結んで白線候補部の
骨格線を求めるとともにこの骨格線を右上りの線か右下
りの線かで分類し、この分類されたパターンについて白
線検出手段400においてHOUGH変換を施すことに
より白線を検出するように構成したものである。(Object and Structure of the Invention) The present invention has been made in view of the above points, and an object of the present invention is to recognize the external environment without changing the external environment such as re-installing markers when changing the layout or adding the markers. Therefore, pay attention to the fact that a white line is drawn in the factory to distinguish the passages of people and traveling vehicles from the workplace, and in order to achieve the above purpose, the overall configuration is shown in Fig. 1. In addition, from the two-dimensional observation image obtained by imaging the external environment including the white line, the edge detecting unit 100 detects the point where the gray value changes from dark to bright and the point where the gray value changes from bright to dark, and the set of detected points is detected. The edge at the left end of the area formed by this edge is the point where the gray value changes from dark to bright, and the edge at the right end is the point where the gray value changes from light to dark. That width should be detected An area within a predetermined width range corresponding to the thickness of the white line is detected by the white line candidate portion detection means 200 as a white line candidate portion, and the horizontal center point of the white line candidate portion is obtained by the pattern classification means 300 for the entire white line candidate portion. The skeletal line of the white line candidate portion is obtained by connecting the central points, the skeletal line is classified into an upper right line and a lower right line, and the white line detecting means 400 performs HOUGH conversion on the classified pattern to obtain a white line. Is configured to detect.
(実施例) 以下本発明を図面に基づいて説明する。(Example) The present invention will be described below with reference to the drawings.
第2図は本発明による白線検出装置の一実施例のブロッ
ク線図を示す。FIG. 2 shows a block diagram of an embodiment of the white line detecting apparatus according to the present invention.
本装置は、撮像部101と、この撮像部101により撮
像した画像データをストアしておく画像メモリ102
と、画像メモリ102にストアされた情報からエッジ情
報を演算する微分演算部103と、演算したエッジ情報
を閾値αで2値化する2値化部104と、演算したエッ
ジ情報を閾値βで反転2値化する2値化部105と、こ
れらの2値化部104、105で抽出したエッジ情報を
幅1にそれぞれ細線化する細線化部106および107
と、細線化された2枚の画像を加算する加算部108
と、加算結果から鉛直方向エッジを除去する鉛直エッジ
除去部109と、そこから白線と思われる領域を検出す
る白線候補部抽出部110と、白線候補とされた領域か
ら中心線(骨格線)を抽出する骨格線抽出部111と、
抽出された骨格線から骨格線を右上りか左上りかでパタ
ーン分けするパターン分類部112と、得られたパター
ンをストアしておく右上り骨格線格納用画像メモリ11
3と、同様の右下り骨格線格納用画像メモリ114と、
これらのメモリ113および114のデータから白線を
検出する白線検出部115とから構成されている。This apparatus includes an image pickup unit 101 and an image memory 102 for storing image data picked up by the image pickup unit 101.
A differential calculation unit 103 that calculates edge information from the information stored in the image memory 102, a binarization unit 104 that binarizes the calculated edge information with a threshold value α, and the calculated edge information is inverted with a threshold value β. A binarizing unit 105 that binarizes, and thinning units 106 and 107 that thin the edge information extracted by these binarizing units 104 and 105 into a width of 1 respectively.
And an addition unit 108 for adding the two thinned images
A vertical edge removing unit 109 that removes vertical edges from the addition result, a white line candidate portion extracting unit 110 that detects a region that is considered to be a white line, and a center line (skeleton line) from the white line candidate region. A skeletal line extraction unit 111 for extracting,
From the extracted skeleton line, a pattern classification unit 112 that divides the skeleton line into upper right and left upper patterns, and an upper right upper skeleton line storage image memory 11 that stores the obtained pattern
3, the same image memory 114 for storing the right down skeleton line,
It is composed of a white line detection unit 115 which detects a white line from the data in these memories 113 and 114.
次に第3図を参照して動作を説明する。Next, the operation will be described with reference to FIG.
撮像部101から取り込んだ同図(イ)に示すような画
像信号A(i,j)は画像メモリ102にストアされる
とともに微分演算部103に送られ、3×3の微分フィ
ルタP の作用によってエッジ画像A′(i,j)が得られる。
たとえば、取扱う画像が1画素当り8ビットの濃淡情報
(濃淡値0〜255)を持ち得るとき A′(i,j)=INT[{A(i+1,j-1)+2A(i+1,j)+A(i+1,j+1)-
A(i-1,j-1)-2A(i-1,j)-A(i-1,j+1)+1024}/23] となる。ここでINT(X)はXを越えない最大整数を
与える関数であり、1024と23はともに正規化のた
めの項である。An image signal A (i, j) such as that shown in FIG. 9 (A) taken from the image pickup unit 101 is stored in the image memory 102 and sent to the differential operation unit 103, and is sent to the 3 × 3 differential filter P. By the action of, the edge image A ′ (i, j) is obtained.
For example, when the image to be handled can have 8-bit grayscale information (grayscale value 0 to 255) per pixel A '(i, j) = INT [{A (i + 1, j-1) + 2A (i + 1, j) + A (i + 1, j + 1)-
A (i-1, j-1) -2A (i-1, j) -A (i-1, j + 1) +1024} / 2 3 ]. Where INT (X) is a function that gives the largest integer that does not exceed X, 1024 and 2 3 is a section for both normalized.
こうして得られたエッジ画像A′(i,j)は2値化部
104および105に送られ、2値化部104において
A′(i,j)を濃淡値128を越えるある閾値で2値
化することにより(A′(i,j)において濃淡値が閾
値を終えている画素に対し、その濃淡値を255に置き
換え、閾値を越えていない画素については濃淡値0を置
き変える操作を行う)、ラスター走査した際のある一定
値以上の明から暗への濃淡変化点が濃淡値255を有す
る画素として検出され、2値化部105においては、
A′(i,j)を濃淡値128を越えないある閾値で反
転2値化することにより(A′(i,j)において濃淡
値が閾値を越えている画素に対しその濃淡値を0に置き
変え、閾値を越えていない画素については濃淡値128
に置き変える走査を行う)、ラスター走査した際のある
一定値以上の明から暗への濃淡変化点が濃淡値255を
有する画素として検出される。The edge image A ′ (i, j) thus obtained is sent to the binarization units 104 and 105, and the binarization unit 104 binarizes A ′ (i, j) with a threshold value exceeding the gray value 128. By doing so (for the pixel whose gray value in A '(i, j) has finished the threshold value, the gray value is replaced with 255, and the gray value 0 is replaced for the pixels that do not exceed the threshold value). , A gray-scale change point from bright to dark that is equal to or larger than a certain value when raster scanning is performed is detected as a pixel having a gray-scale value 255, and in the binarization unit 105,
By inversion binarizing A ′ (i, j) with a certain threshold value which does not exceed the gray value 128, the gray value is set to 0 for the pixel whose gray value exceeds the threshold value in A ′ (i, j). If the pixel is replaced and the threshold value is not exceeded, the gray value 128
The scanning is performed by replacing the above) with a raster scanning), and a gray-scale change point from bright to dark that is equal to or larger than a certain value when raster scanning is performed is detected as a pixel having a gray-scale value 255.
次に2値化部104および105で得られた画像を細線
化部106および107で太さ1に細線化し、細線化部
107で得られた明から暗への濃淡変化点に128なる
濃淡値を与え、加算部108において細線化部106と
細線化部107の結果の同一画素どうしの濃淡値の加算
を行う。以上の処理によって、たとえば第3図(イ)に
示したような原画像A(i,j)から同図(ロ)に示し
たようなエッジ構成点画像B(i,j)が得られる。Next, the images obtained by the binarization units 104 and 105 are thinned to a thickness of 1 by the thinning units 106 and 107, and a grayscale value of 128 at the grayscale change point obtained from the thinning unit 107 from light to dark. Then, the addition unit 108 adds the gray values of the same pixels as the results of the thinning unit 106 and the thinning unit 107. By the above processing, for example, the original image A (i, j) shown in FIG. 3 (a) to the edge component point image B (i, j) shown in FIG. 3 (b) are obtained.
次に鉛直エッジ除去部109において、エッジ構成点画
像B(i,j)中の濃淡値255の鉛直方向ランおよび
濃淡値128の鉛直方向ランをそれぞれ除去することに
よって同図(ハ)に示したような画像C(i,j)が得
られる。Next, in the vertical edge removing unit 109, the vertical run with the gray value of 255 and the vertical run with the gray value of 128 in the edge composing point image B (i, j) are removed, respectively. Such an image C (i, j) is obtained.
次に白線候補部抽出部110において、鉛直エッジ除去
画像C(i,j)の濃淡値を調べ、左端の濃淡値が25
5、右端の濃淡値が128であるような水平領域で、両
端の幅xがあらかじめ設定しておいた第3図(ニ)で与
えられるWに対し、W/2xWを満たすような領域
を探し、白線候補部として濃淡値255を与え、同図
(ホ)に示すような画像D(i,j)を得る。Next, in the white line candidate portion extraction unit 110, the gray value of the vertical edge removed image C (i, j) is checked, and the gray value at the left end is 25.
5. Find a horizontal area where the gray value at the right end is 128 and the width x at both ends satisfies W / 2xW with respect to W given in advance in FIG. , A gray value 255 is given as a white line candidate portion, and an image D (i, j) as shown in FIG.
第4図は白線候補部抽出のフローチャートである。縦M
画素、横N画素から成る鉛直エッジ除去画像C(i,
j)について、i=1,j=1として(F−1)画面の
左上から水平方向にラスター走査する。この間に画像C
(i,j)の濃淡値を調べ、濃淡値が255になる点を
調べる(F−2)。画像の濃淡値が255となる画素が
見つかったとき、次の式から定まる水平方向探索範囲W
を設定する(F−3)。FIG. 4 is a flowchart of white line candidate portion extraction. Vertical M
Vertical edge-removed image C (i,
Regarding j), raster scanning is performed in the horizontal direction from the upper left of the screen (F-1) with i = 1 and j = 1. During this time, image C
The gray value of (i, j) is checked, and the point where the gray value becomes 255 is checked (F-2). When a pixel having a gray value of 255 is found in the image, the horizontal search range W determined by the following equation
Is set (F-3).
W=INT(j/20) ここで式中の20はカメラのレイアウトとか白線の太さ
などによって使用者が予め決定する値の一例である。、
次にWが0でないことを確認し(F−4)、確認できた
ところでK=i+WからKを求め(F−5)、K≧Nと
なるまで(F−6)画像C(i,j)の濃淡値が128
になる点を調べる(F−7)。濃淡値が128になった
ところでL=iとし(F−8)、D(L,j)=255
となる画素を求める(F−9)。この処理後はステップ
(F−2)にもどり、i=1からN、j=1からMにつ
いて上述した処理を繰り返す。こうして画面を左から右
に向って探索を行ない、画像C(i,j)からWを越え
ない最大の領域を抽出し、第3図(ホ)に示すような白
線候補部画像D(i,j)が得られる。W = INT (j / 20) Here, 20 in the formula is an example of a value predetermined by the user depending on the layout of the camera, the thickness of the white line, and the like. ,
Next, it is confirmed that W is not 0 (F-4), and when it is confirmed, K is calculated from K = i + W (F-5), and until K ≧ N (F-6), the image C (i, j) is obtained. ) The gray value is 128
(F-7). When the gray value becomes 128, L = i is set (F-8), and D (L, j) = 255.
Then, the pixel to be obtained is obtained (F-9). After this processing, the process returns to step (F-2) and the above-described processing is repeated for i = 1 to N and j = 1 to M. In this way, the screen is searched from left to right to extract the maximum area that does not exceed W from the image C (i, j), and the white line candidate portion image D (i, j) as shown in FIG. j) is obtained.
すなわち、この処理においても、まず画面の左上の画素
から水平方向に走査するものとし、i=1,j=1とす
る(P−1)。That is, also in this processing, it is assumed that the pixel at the upper left of the screen is first scanned in the horizontal direction, and i = 1 and j = 1 (P-1).
まず、白線候補部画像D(i,j)の濃淡値が0か否か
を調べ(P−2)、0ならば白線候補部がないとして水
平方向に1画素分だけ移動する。これに対して画像D
(i,j)の濃淡値が0でなければ白線候補部ありとし
てA=1とし(P−3)、次にiをi+1として(P−
4)i=Nになるまで(P−5)、画像D(i,j)の
濃度値が0か否かを調べ続ける(P−6)。走査点が1
画素分だけ水平方向に移動するたびにAを1ずつインク
リメントしていく(F−7)。ステップ(P−6)にお
いて、D(i,j)=0となったときに を演算してKを求め(P−8)、そのKをx座標とする
画素E(k,j)=255を求める(P−9)。First, it is checked whether or not the gray value of the white line candidate portion image D (i, j) is 0 (P-2), and if it is 0, it is determined that there is no white line candidate portion and the pixel is moved horizontally by one pixel. On the other hand, image D
If the gray value of (i, j) is not 0, it is assumed that there is a white line candidate portion and A = 1 is set (P-3), and then i is set to i + 1 (P-
4) Until i = N (P-5), it is continuously checked whether or not the density value of the image D (i, j) is 0 (P-6). 1 scanning point
Every time the pixel is moved in the horizontal direction, A is incremented by 1 (F-7). When D (i, j) = 0 in step (P-6), Is calculated to obtain K (P-8), and a pixel E (k, j) = 255 having the K as the x coordinate is calculated (P-9).
ステップ(P−2)にもどってi=1からN、j=1か
らMについて上述した処理を繰り返し全画面について骨
格線を求める。その結果第3図(ヘ)に示すような骨格
線画像E(i,j)が得られる。Returning to step (P-2), the above-described processing is repeated for i = 1 to N and j = 1 to M to obtain the skeleton line for the entire screen. As a result, a skeletal line image E (i, j) as shown in FIG.
次にパターン分離部112において、骨格線画像E
(i,j)から右上りの骨格線F(i,j)と右下りの
骨格線G(i,j)をそれぞれ抽出する。すなわちE
(i,j)にその中央に骨格線構成画素(濃淡値255
の画素)がくるような3×3のマスクをかけると、マス
ク内パターンは第6図に示したパターンのいずれかにな
るため、右上りパターン、右下りパターンの分類を容易
に行うことができる。こうして得られた右上り骨格線F
(i,j)および右下り骨格線G(i,j)の画像は第
3図(ト)および(チ)に示すようなもので、それぞれ
画像メモリ113および114にストアされる。Next, in the pattern separation unit 112, the skeleton line image E
An upper right skeleton line F (i, j) and a lower right skeleton line G (i, j) are extracted from (i, j). Ie E
In (i, j), the skeleton line constituent pixel (shading value 255
When a 3 × 3 mask such that the (pixels of the pixel) comes in, the pattern in the mask becomes one of the patterns shown in FIG. 6, and therefore the upper right pattern and the lower right pattern can be easily classified. . The upper right skeleton line F obtained in this way
The images of (i, j) and the right down skeleton line G (i, j) are as shown in FIGS. 3G and 3H and are stored in the image memories 113 and 114, respectively.
次に白線検出部115において、これらの骨格線F
(i,j)およびG(i,j)にそれぞれHOUGH変
換を施すことにより白線を検出することができる。白線
の検出結果は第3図(リ)に示すようになる。図lLお
よびlRが検出した白線である。Next, in the white line detection unit 115, these skeleton lines F
White lines can be detected by applying HOUGH conversion to (i, j) and G (i, j), respectively. The white line detection result is as shown in FIG. Figures l L and l R are the detected white lines.
HOUGH変換とはF(i,j)、G(i,j)のよう
な点列から直線を検出する手法であり、画像処理の分野
で広く用いられる。以下、今回用いたHOUGH変換に
ついてF(i,j)を例にとって第7図を用いて説明す
る。The HOUGH transform is a method for detecting a straight line from a point sequence such as F (i, j) and G (i, j), and is widely used in the field of image processing. The HOUGH conversion used this time will be described below with reference to FIG. 7 by taking F (i, j) as an example.
第7図(ロ)は同図(イ)上に設けた基準ラインy=α
上て点PをP0からPnまで変化させた際、点Pと骨格
構成点A点とを結ぶ直線が画像端と交わる点Qの軌跡を
表わしたものである。パラメータ平面上の点(Pi,Q
i)にはPi,Qiを結ぶ線分上に骨格線構成点が何点
乗っているかを表わすために軌跡の通過ごとに濃淡値を
インクリメントしていく。たとえば第7図(ロ)では、
点Aの射影パターンlAと点Bの射影パターlBの交点
に濃淡値2を与え、その他のlA,lB上の点には濃淡
値1を与える。FIG. 7B shows the reference line y = α provided on the same FIG.
When the point P is changed from P 0 to P n , the straight line connecting the point P and the skeleton-constituting point A represents the locus of the point Q intersecting the image end. Points on the parameter plane (P i , Q
In i ), the gray value is incremented each time the trajectory passes in order to represent how many skeleton line constituent points are on the line segment connecting P i and Q i . For example, in Figure 7 (b),
Given gray value 2 at the intersection of the projection pattern l B projection pattern l A and point B of the point A, other l A, a point on l B gives the gray value 1.
第8図はF(i,j)のHOUGH変換のフローチャー
トを示しており、パラメータ平面の濃淡値をR(P,
Q)とする。FIG. 8 shows a flowchart of the HOUGH conversion of F (i, j), in which the grayscale value of the parameter plane is R (P,
Q).
まず点PをP0に定め(W−1)、基準ライン上の左端
の画素(i=1,j=α)から始めて(W−2)、右上
り骨格線F(i,j)の濃淡値が255になるまでiを
1からPまで、jをαからMまで増していく。右上り骨
格線F(i,j)の濃淡値が255になったところでQ
1を算出し(W−4)、パラメータ平面の濃淡値R
(P,Q)を1だけインクリメトする(W−5)。ここ
でパラメータ平面の最大濃淡値V=0、X=P0、Y=
Q0から始めて(W−6)、XをP0からPnまで、Y
をQ0からQnまで変化させて点(X,Y)の濃淡値R
(X,Y)が最大濃淡値V(=0)より大きくなる点
(X,Y)を求める。First, the point P is set to P 0 (W-1), the pixel at the left end on the reference line (i = 1, j = α) is started (W-2), and the shade of the upper right skeleton line F (i, j) is changed. Increase i from 1 to P and j from α to M until the value reaches 255. Q when the gray value of the upward skeletal line F (i, j) reaches 255
1 is calculated (W-4), and the gray value R of the parameter plane is calculated.
Increment (P, Q) by 1 (W-5). Here, the maximum gray value of the parameter plane V = 0, X = P 0 , Y =
Starting from Q 0 (W-6), X from P 0 to P n , Y
Is changed from Q 0 to Q n, and the gray value R of the point (X, Y) is changed.
A point (X, Y) at which (X, Y) becomes larger than the maximum gray value V (= 0) is obtained.
最大濃淡値Vを与えるPi(X)をSとし、Qi(Y)
をTとして最大濃淡値Vを求め(W−8)、この最大濃
淡値Vが閾値VTHより大きくなったとき白線あり、小
さいとき白線なしとする(W−9)。Let P i (X) giving the maximum gray value V be S, and let Q i (Y)
Let T be the maximum gray value V (W-8). When the maximum gray value V is larger than the threshold value V TH , there is a white line, and when it is small, there is no white line (W-9).
こうして、与えられたすべての骨格構成点について処理
を行い、パラメータ平面(P,Q)上で最大濃淡値を有
する点をもって、最適直線と見なすことができる。In this way, all the given skeleton constituent points are processed, and the point having the maximum gray value on the parameter plane (P, Q) can be regarded as the optimum straight line.
ここでたとえば、原画像に白線が1本しか見えないと
き、たとえば右上りの白線しか見えないときを考える
と、右下りの骨格線として抽出したG(i,j)には白
線データは何も入っていないわけである。したがってG
(i,j)をHOUGH変換した際のパラメータ平面の
最大濃淡値は、白線が見えているときのそれに比べて小
さくなることが予想される。したがって、HOUGH変
換した際のパラメータ平面上の最大濃淡値Vに閾値を設
定することによって白線が1本しか見えないときでも対
処可能になる。上の例では右下りの骨格線G(i,j)
から得られたパラメータ平面の最大濃淡値がVに満たな
いことになって、右下りの白線は検出されないようにな
る。Here, for example, considering that only one white line is visible in the original image, for example, when only the white line in the upper right corner is visible, there is no white line data in G (i, j) extracted as the skeletal line in the lower right direction. It is not included. Therefore G
It is expected that the maximum gray value of the parameter plane when HOUGH conversion of (i, j) becomes smaller than that when the white line is visible. Therefore, by setting a threshold value to the maximum gray value V on the parameter plane when the HOUGH conversion is performed, it becomes possible to deal with even when only one white line is visible. In the above example, the skeletal line G (i, j) is descending to the right.
Since the maximum gray value of the parameter plane obtained from the above is less than V, the white line on the right is not detected.
このようにして検出した白線位置を通路端位置と見なす
ことができ、無人搬送車の送行制御などに用いることが
できる。The white line position detected in this way can be regarded as a passage end position, and can be used for, for example, traveling control of an automated guided vehicle.
なお、第3図(リ)に示すようなHOUGH変換により
求めた2本の白線lLとlRの支点VPを観測画像の消
点と見なすことができる。Incidentally, it can be regarded as vanishing point of FIG. 3 the two was determined by HOUGH transform as shown in (i) white line l L and l R fulcrum V P of the observation image.
(発明の効果) 以上説明したように、本発明においては、観測画面にお
いて濃度が暗から明に変化する点を左端、明から暗に変
化する点を右端とする領域のうち白線幅に近いものだけ
を検出し、その領域の中心点をもって白線候補部とみな
し、HOUGH変換で得られるパラメータ平面の最大濃
淡値に閾値を設定することにより白線を検出するように
したので、従来のように走行路面や壁面に設けたマーカ
ーを用いずに外部環境を認識することができるため工場
のレイアウトを変更したり増設したりしてもマーカーを
設置し直すとか新たに設ける必要がなくて汎用性が高
く、設備コストが大幅に節減できるとともに、保守管理
の煩わしさが全くなくランニングコスト上も有利であ
る。また検出は白線の多少の汚れには影響を受けずに、
安定して白線位置を検出できる。さらに、白線を求める
HOUGH変換が安定して迅速にできるという利点もあ
る。(Effects of the Invention) As described above, in the present invention, in the observation screen, the point where the density changes from dark to bright is the left end, and the point where the density changes from bright to dark is the right end is close to the white line width. It is assumed that the center point of the area is detected as a white line candidate part, and the white line is detected by setting a threshold value to the maximum gray value of the parameter plane obtained by HOUGH conversion. Since it is possible to recognize the external environment without using a marker installed on the wall or a wall surface, there is no need to re-install the marker or newly install the marker even if the layout of the factory is changed or added, so it is highly versatile. The facility cost can be significantly reduced, and there is no troublesome maintenance, which is advantageous in running cost. In addition, the detection is not affected by some dirt on the white line,
The white line position can be detected stably. Further, there is an advantage that the HOUGH conversion for obtaining the white line can be stably and quickly performed.
第1図は本発明による白線検出装置の全体構成図、第2
図は本発明による白線検出装置の一実施例のブロック線
図、第3図は本発明による白線検出の画像処理の各ステ
ップにおいて得られる画像を示し、(イ)は観測画像、
(ロ)はエッジ構成点画像、(ハ)は鉛直エッジ除去画
像、(ニ)は水平方向探索範囲、(ホ)は白線候補部画
像、(へ)は骨格線画像、(ト)は右上り骨格像、
(チ)は右下り骨格像、(リ)は白線検出結果を示す画
像、第4図は白線候補部抽出のフローチャート、第5図
は骨格線画像精製のフローチャート、第6図は骨格線パ
ターン、第7図はHOUGH変換の説明図、第8図はH
OUGH変換のフローチャートである。 100…エッジ検出手段、200…白線候補部検出手
段、300…パターン分類手段、400…白線検出手段FIG. 1 is an overall configuration diagram of a white line detecting device according to the present invention, and FIG.
FIG. 3 is a block diagram of an embodiment of a white line detecting apparatus according to the present invention, FIG. 3 shows images obtained at each step of image processing of white line detection according to the present invention, (a) is an observation image,
(B) is an edge point image, (C) is a vertical edge removed image, (D) is a horizontal search range, (E) is a white line candidate image, (H) is a skeleton line image, and (G) is at the upper right. Skeletal image,
(H) is a right-down skeleton image, (L) is an image showing white line detection results, FIG. 4 is a flowchart of white line candidate portion extraction, FIG. 5 is a flowchart of skeleton line image refining, FIG. 6 is a skeleton line pattern, FIG. 7 is an explanatory diagram of HOUGH conversion, and FIG. 8 is H
It is a flowchart of OUGH conversion. 100 ... Edge detecting means, 200 ... White line candidate portion detecting means, 300 ... Pattern classifying means, 400 ... White line detecting means
Claims (1)
変化する点と明から暗に変化する点を画像全体にわたっ
て検出し検出した点の集合により形成されるエッジを検
出するエッジ検出手段と、前記エッジにより形成される
領域のうち左端のエッジが濃淡値が暗から明に変化する
点で右端のエッジが濃淡値が明から暗に変化する点であ
り且つその幅が前記白線の太さに応じた所定幅範囲にあ
る領域を白線候補部として検出する白線候補部検出手段
と、前記白線候補部の水平方向の中心点を白線候補部全
体について求め該中心点を結んで前記白線候補部の骨格
線を求めるとともに該骨格線を右上りの線か右下りの線
かで分類するパターン分類手段と、分類されたパターン
についてHOUGH変換を施すことにより白線を検出す
る白線検出手段とを有することを特徴とする白線検出装
置。1. Edge detection for detecting an edge formed by a set of detected points by detecting points at which gray values in an observed image including a white line change from dark to bright and points at which light and dark change throughout the image. Means, and the left edge of the area formed by the edges is the point where the gray value changes from dark to light, and the right edge is the point where the gray value changes from light to dark, and its width is the width of the white line. White line candidate portion detection means for detecting a region within a predetermined width range corresponding to the thickness as a white line candidate portion, and a horizontal center point of the white line candidate portion is obtained for the entire white line candidate portion and the white line is connected by connecting the center points. A pattern classifying unit that obtains the skeleton line of the candidate portion and classifies the skeleton line into an upper right line or a lower right line, and a white line detecting unit that detects a white line by performing HOUGH conversion on the classified pattern. White line detection apparatus characterized by having.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP61288709A JPH0656619B2 (en) | 1986-12-05 | 1986-12-05 | White line detector |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP61288709A JPH0656619B2 (en) | 1986-12-05 | 1986-12-05 | White line detector |
Publications (2)
Publication Number | Publication Date |
---|---|
JPS63142478A JPS63142478A (en) | 1988-06-14 |
JPH0656619B2 true JPH0656619B2 (en) | 1994-07-27 |
Family
ID=17733670
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP61288709A Expired - Fee Related JPH0656619B2 (en) | 1986-12-05 | 1986-12-05 | White line detector |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0656619B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014084118A1 (en) * | 2012-11-27 | 2014-06-05 | クラリオン株式会社 | On-vehicle image processing device |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2664998B2 (en) * | 1989-07-20 | 1997-10-22 | 富士通株式会社 | Monitoring system for self-propelled vehicles |
JP2754871B2 (en) * | 1990-06-01 | 1998-05-20 | 日産自動車株式会社 | Roadway detection device |
JP3205477B2 (en) * | 1994-02-17 | 2001-09-04 | 富士フイルムマイクロデバイス株式会社 | Inter-vehicle distance detection device |
JP4374211B2 (en) | 2002-08-27 | 2009-12-02 | クラリオン株式会社 | Lane marker position detection method, lane marker position detection device, and lane departure warning device |
JP2008309529A (en) | 2007-06-12 | 2008-12-25 | Panasonic Corp | Navigation system, navigation method and program for navigation |
JP4874280B2 (en) | 2008-03-19 | 2012-02-15 | 三洋電機株式会社 | Image processing apparatus and method, driving support system, and vehicle |
JP5304804B2 (en) | 2011-01-12 | 2013-10-02 | 株式会社デンソー | Boundary detection device and boundary detection program |
JP5289509B2 (en) * | 2011-05-31 | 2013-09-11 | 本田技研工業株式会社 | Lane mark recognition device |
-
1986
- 1986-12-05 JP JP61288709A patent/JPH0656619B2/en not_active Expired - Fee Related
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014084118A1 (en) * | 2012-11-27 | 2014-06-05 | クラリオン株式会社 | On-vehicle image processing device |
CN104822566A (en) * | 2012-11-27 | 2015-08-05 | 歌乐牌株式会社 | On-vehicle image processing device |
US9378425B2 (en) | 2012-11-27 | 2016-06-28 | Clarion Co., Ltd. | On-vehicle image processing device |
JP6023216B2 (en) * | 2012-11-27 | 2016-11-09 | クラリオン株式会社 | In-vehicle image processing device |
Also Published As
Publication number | Publication date |
---|---|
JPS63142478A (en) | 1988-06-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4930046B2 (en) | Road surface discrimination method and road surface discrimination device | |
JPH06203154A (en) | Image processor | |
EP1705917A2 (en) | Detection apparatus and method | |
KR101719549B1 (en) | Image preprocessing method for license plate recognition and license plate recognition device using thereof | |
JP3636927B2 (en) | Face image processing device | |
JP2002228423A (en) | Tire detecting method and device | |
JP3328711B2 (en) | Vehicle height measuring device and vehicle monitoring system using the same | |
JPH0656619B2 (en) | White line detector | |
CN116324911A (en) | Method for extracting characters from a vehicle license plate and license plate character extraction device for performing the method | |
JPH07146916A (en) | Recognizing device for license plate | |
JPH10105873A (en) | Device for recognizing number plate of vehicle | |
JP2893814B2 (en) | Plate cutout device for automatic car number reader | |
JPH1031797A (en) | Method for specifying vehicle in parking lot, system therefor, parking charge calculation method and system therefor | |
JP3230509B2 (en) | Moving image processing device | |
JP2910130B2 (en) | Automatic car number reader | |
JP3679958B2 (en) | License plate recognition device | |
JPH0520593A (en) | Travelling lane recognizing device and precedence automobile recognizing device | |
JP2006172262A (en) | Road sign detector for vehicle | |
JP2003217084A (en) | Vehicle detecting method and device | |
JPH10302074A (en) | Device for detecting position of number plate | |
JPH09161056A (en) | Inspecting method for inner surface of circular container | |
JPS58201182A (en) | Character and graph demarcating method | |
JP3134749B2 (en) | White line detection method | |
JPS6312987A (en) | Detecting method for moving object | |
JP3380436B2 (en) | Recognition method of vehicles, etc. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
LAPS | Cancellation because of no payment of annual fees |