JPS63103381A - Erase point detector - Google Patents

Erase point detector

Info

Publication number
JPS63103381A
JPS63103381A JP61248332A JP24833286A JPS63103381A JP S63103381 A JPS63103381 A JP S63103381A JP 61248332 A JP61248332 A JP 61248332A JP 24833286 A JP24833286 A JP 24833286A JP S63103381 A JPS63103381 A JP S63103381A
Authority
JP
Japan
Prior art keywords
image
straight line
point
vanishing point
cumulative
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP61248332A
Other languages
Japanese (ja)
Inventor
Kazunori Noso
千典 農宗
Hiroshi Saito
浩 斎藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP61248332A priority Critical patent/JPS63103381A/en
Publication of JPS63103381A publication Critical patent/JPS63103381A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To quickly and accurately detect an erase point by forming a cumulative line image in accordance with the frequency in inclination of lines connecting the constituting points of an object and erase point candidate points and determining the erase point by this cumulative line image. CONSTITUTION:The image of the object is picked up by an image pickup part 201, and the edge constituting point of the object is extracted from the picked-up image by an edge extracting means 100. The cumulative line image is formed in accordance with the frequency in inclination of line connecting edge constituting points extracted by the edge extracting means 100 and erase point candidate points to be on a prescribed line. The erase point is determined in accordance with this cumulative line image by an erase point discriminating means 102.

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明は、無人搬送車などに取付けられ、三次元物体な
どを識別するのに利用される消点検出装置に関する。
DETAILED DESCRIPTION OF THE INVENTION (Field of Industrial Application) The present invention relates to a vanishing point detection device that is attached to an automatic guided vehicle or the like and used to identify three-dimensional objects or the like.

(従来技術) 無人搬送車などの走行を制御するために、無人搬送車な
どに取付けられたテレビカメラなどの撮像部によって撮
像された二次元画像からたとえば三次元物体を識別する
必要があるが、三次元物体などの向き、位置などを二次
元画像から検出し識別するのに、従来、消点検出技術が
知られている。
(Prior Art) In order to control the running of an automatic guided vehicle, it is necessary to identify, for example, a three-dimensional object from a two-dimensional image captured by an imaging unit such as a television camera attached to the automatic guided vehicle. Vanishing point detection technology is conventionally known for detecting and identifying the orientation, position, etc. of a three-dimensional object from a two-dimensional image.

一般に、物体を透視法王で二次元画像に撮像したとき、
第12図(イ)に示すように、直方体の物体401,4
02の平行な稜線(以下平行線という>403,404
.又は405,406間の見掛けの距離は平行線がカメ
ラから遠ざかるにつれて減少し、ついにはO″となる。
Generally, when an object is imaged as a two-dimensional image using a fluoroscope,
As shown in FIG. 12(a), rectangular parallelepiped objects 401, 4
02 parallel ridge lines (hereinafter referred to as parallel lines >403,404
.. Or, the apparent distance between 405 and 406 decreases as the parallel lines move away from the camera, eventually reaching O''.

この“O″となる点AQを「消点」という。すなわち、
消点検出技術とは、奥行きのある三次元物体などを二次
元画像として撮像した結果生ずる見掛けのひずみから消
点を検出し、これによって三次元物体などの情報、たと
えば、物体の面の傾きや方向などを検出する技術である
This point AQ at "O" is called a "vanishing point". That is,
Vanishing point detection technology detects the vanishing point from the apparent distortion that occurs as a result of imaging a three-dimensional object with depth as a two-dimensional image, and uses this to detect information about the three-dimensional object, such as the inclination of the object's surface. This is a technology that detects things such as direction.

KENDERはこの消点を検出するのに、二次元画作中
の直線方程式のパラメータをHOUGH変換(へ〕変換
)によってまづ擬似ハフ平面に表現した。実画像空間に
おける1本の直線は擬似ハフ平面上では一つの点として
表わされるので、実画像空間における消点は擬似ハフ平
面上の直線を捜して定めることができる。KENDER
はこのようにして擬似ハフ平面をざらにハフ変換して擬
似ハフ平面上の直線を定め消点AQを検出した。
To detect this vanishing point, KENDER first expressed the parameters of the linear equation in the two-dimensional drawing into a pseudo-Hough plane using HOUGH transformation. Since one straight line in the real image space is represented as one point on the pseudo-Hough plane, the vanishing point in the real image space can be determined by searching for a straight line on the pseudo-Hough plane. KENDER
In this way, the pseudo-Hough plane was roughly Hough-transformed, a straight line on the pseudo-Hough plane was determined, and the vanishing point AQ was detected.

また0HTAらは、第12図(ロ)に示すように、画面
内の2個のテクスチャ構成要素407゜408にアフィ
ン変換を施したときの面積比から距離比を導き、これに
よって消点BQの位置を定めたくたとえば昭和58年1
2月発行「情報処理」第24巻12号、第1421頁〜
第1427頁、池内克史)。
In addition, as shown in Figure 12 (b), 0HTA et al. derive the distance ratio from the area ratio when affine transformation is applied to the two texture components 407 and 408 in the screen, and from this, the vanishing point BQ is calculated. For example, 1981, when determining the location.
February issue of “Information Processing” Vol. 24, No. 12, pp. 1421-
Page 1427, Katsushi Ikeuchi).

このように消点が定められると、消点から三次元物体の
平面の傾きが定められ、これによって二次元画像から三
次元物体に関する情報を得ることができる。
When the vanishing point is determined in this manner, the inclination of the plane of the three-dimensional object is determined from the vanishing point, and thereby information regarding the three-dimensional object can be obtained from the two-dimensional image.

しかしながらこのような従来の消点検出装置では、消点
を検出するのにKENDERのアルゴリズムによればハ
フ変換を2回施す必要があり、また0HTAらのアルゴ
リズムでは入力画像からテクスチャすなわち物体の面に
関する情報を検出しなければならなかったので、エツジ
構成点が多い場合膨大な計算量が必要であり消点の検出
に相当の時間を要し、無人搬送車などの走行制御を迅速
に行なうことができないという問題がある。
However, in such conventional vanishing point detection devices, in order to detect the vanishing point, it is necessary to apply Hough transform twice according to KENDER's algorithm, and the algorithm of 0HTA et al. Since information had to be detected, if there are many edge constituent points, a huge amount of calculation is required and it takes a considerable amount of time to detect the vanishing point, making it difficult to quickly control the movement of automatic guided vehicles etc. The problem is that it can't be done.

(発明の目的および構成) 本発明は、上記の点にかんがみてなされたもので、消点
の検出を迅速に行なうことを目的とし、この目的を達成
するために、第1図に全体構成を示すように、撮像部2
01によって対象物を撮像し、撮像した画像から対象物
のエツジ構成点をエツジ抽出手段100によって抽出し
、エツジ抽出手段100によって抽出したエツジ構成点
と所定の線上にあるはずの消点候補点とを結ぶ直線の傾
き鎖度から累積直線画像形成手段101によって累積直
線画像を形成し、このように形成された累積直線画像か
ら消点判断手段102によって消点を決定するように構
成したものである。
(Object and Structure of the Invention) The present invention has been made in view of the above-mentioned points, and an object of the present invention is to quickly detect a vanishing point. To achieve this object, the overall structure is shown in FIG. As shown, the imaging unit 2
01, the edge constituent points of the subject are extracted from the captured image by the edge extracting means 100, and the edge constituent points extracted by the edge extracting means 100 and the vanishing point candidate points that are supposed to be on a predetermined line are The cumulative straight line image forming means 101 forms a cumulative straight line image based on the degree of inclination and chainness of straight lines connecting the straight lines, and the vanishing point is determined by the vanishing point determining means 102 from the cumulative straight line image thus formed. .

(実施例) 以下本発明を図面に基づいて説明する。(Example) The present invention will be explained below based on the drawings.

第2図は本発明による消点検出装置の一実施例のブロッ
ク線図である。
FIG. 2 is a block diagram of an embodiment of the vanishing point detection device according to the present invention.

第2図において、消点検出装置は、撮像部201と、こ
の撮像部201で撮像された画像を格納する画像メモリ
202と、画像メモリ202に格納された画像に対して
消点検出用の一連の処理を行なう画像プロセッサ203
と、画像プロセッサ203による処理結果の格納される
画像メモリ207,208および座標格納域209とを
備えている。
In FIG. 2, the vanishing point detection device includes an imaging unit 201, an image memory 202 that stores images captured by the imaging unit 201, and a series of vanishing point detection units for the images stored in the image memory 202. An image processor 203 that processes
, image memories 207 and 208 in which results of processing by the image processor 203 are stored, and a coordinate storage area 209.

撮像部201は対象物からの画像をとらえるカメラ31
0と、カメラ310からのアナログ画像をデジタル画像
に変換して画像メモリ202へ送る画像入力部311と
からなる。
The imaging unit 201 is a camera 31 that captures an image from an object.
0, and an image input unit 311 that converts an analog image from a camera 310 into a digital image and sends it to the image memory 202.

画像プロセッサ203は、画像メモリ202に格納され
ている画像に対してエツジ検出処理および2値化処理を
行なってその結果のエツジ画像を画像メモリ207へ格
納するようになっている。
The image processor 203 performs edge detection processing and binarization processing on the image stored in the image memory 202 and stores the resulting edge image in the image memory 207.

なお、エツジ検出処理には良く知られているようにたと
えば第3図に示すようなフィルタリング係数によって +A+28+C−G−2H−I l +lA+2D+十
G−C−2F−1l の−次微分を行なう5OBELオペレータなどが用いら
れる。
As is well known in the edge detection process, for example, a 5OBEL operator that performs the negative differentiation of +A+28+C-G-2H-I l +lA+2D+10G-C-2F-1l using filtering coefficients as shown in FIG. etc. are used.

さらに画像プロセッサ203は、画像メモリ207に格
納されたエツジ画像から対象物のエツジ構成点(XH、
yH)の座標抽出処理を行ない、これを座標格納域20
9へ格納し、しかる後に消点検出処理を行なうようにな
っている。
Furthermore, the image processor 203 extracts edge constituent points (XH,
yH) and store it in the coordinate storage area 20.
9, and then a vanishing point detection process is performed.

本実施例の消点検出処理は、カメラ310が対象物(図
示せず〉に対して水平に首かれているものと仮定すれば
、平担路では消点候補点は第4図に示すようにNXM個
の画素をもつ画像の中央線(y□=N/2>上におるこ
とを利用している(実際には平担路とは限らないために
消点候補点は画像の中央線に対して上下方向に移動する
。)。
In the vanishing point detection process of this embodiment, assuming that the camera 310 is oriented horizontally with respect to an object (not shown), the vanishing point candidate point on the flat road is as shown in FIG. The vanishing point candidate point is on the center line (y□=N/2> of an image with NXM pixels because it is not actually Hiratanji). ).

すなわち消点を検出するに際し、画像プロセッサ203
は第5図に示すようにまづ中央線(y□=N/2>上に
ある点(x□ 、 y□ )を設定した後、この点(X
、V□)と各エツジ構成点(xH、y霞 (i=1〜K
)とを結ぶ直線の傾きjを j=(x・−y。)/(XHV□) ■ として求め、この直線の傾きjから角度θをt an−
1jとして算出し、これにより第6図、第7図に示すよ
うに各角度t an−1jに対する直線傾き頻度αjを
求めるようになっている。なお点(x□ 、 y□ )
は消点候補点である。第6図および第7図の例では、中
央線上のある点(x□ 。
That is, when detecting the vanishing point, the image processor 203
As shown in Figure 5, first set a point (x□, y□) on the center line (y□=N/2>, then set this point (X
, V□) and each edge constituent point (xH, y haze (i=1~K
) is determined as j=(x・-y.)/(XHV□) ■, and the angle θ is calculated from the slope j of this straight line as t an-
1j, and as a result, the linear slope frequency αj for each angle tan-1j is determined as shown in FIGS. 6 and 7. Points (x□, y□)
is a vanishing point candidate point. In the example of FIGS. 6 and 7, a certain point (x□) on the center line.

yo)との直線の傾きの角度t an−1jが70”〜
80’となるエツジ構成点(×・2y霞は10個存在し
てすなわち70”〜80’である頻度αjは“10″で
あることを意味している。
The angle of inclination of the straight line t an-1j with yo) is 70”~
This means that there are 10 edge constituent points (×·2y haze) that are 80', that is, the frequency αj of 70'' to 80' is ``10''.

直線y−yo=j (x−x□ )をいま着目している
点(x□ 、 y□ )を通る直線画像としてこれを第
8図に示すように画像メモリ208へ累積させる。第6
図および第7図の例では、傾き角度jan−1j=70
’ 〜80”  (たとえば中央値75°を採用する)
をもつ直線の画像を累積させ上の累積直線画像H(x、
y)の画素値は“′1″だけ増加するようになっている
The straight line y-yo=j (x-x□) is accumulated in the image memory 208 as a straight line image passing through the current point (x□, y□) as shown in FIG. 6th
In the example shown in the figure and FIG. 7, the inclination angle jan-1j=70
'~80'' (for example, adopt the median value of 75°)
The cumulative straight line image H(x,
The pixel value of y) is increased by "'1".

画像プロセッサ203は、中央線上のすべての点(x□
 、 y□ ) (x□ =1〜M、 y□ =N/2
)J (X  Xo)’を求め、これを画像メモリ20
8へ累積させる処理を繰り返して第9図に示すような累
積直線画像H(X、V)を完成させ、この累積直線画像
H(X、y)に基づいて、最大の累積値MAX (H(
x、y))を与える画像メモリ208の座標(X、 y
)を消点APとして求めるかあるいは累積直線画像H(
X、V)の重心位置として消点APを求めるようになっ
ている。
The image processor 203 calculates all points on the center line (x□
, y□ ) (x□ = 1~M, y□ = N/2
)J (X Xo)' and store it in the image memory 20.
8 is repeated to complete the cumulative straight line image H(X, V) as shown in FIG. 9, and based on this cumulative straight line image H(X, y), the maximum cumulative value MAX (H(
The coordinates (X, y) of the image memory 208 giving the coordinates (X, y)
) as the vanishing point AP or the cumulative straight line image H(
The vanishing point AP is determined as the position of the center of gravity of X, V).

このような構成の消点検出装置の動作を第10図および
第11図のフローチャートを用いて説明する。
The operation of the vanishing point detection device having such a configuration will be explained using the flowcharts shown in FIGS. 10 and 11.

第10図は消点検出装置の全体の処理の流れを示すフロ
ーチャート、第11図は第10図のステップ(F−8)
における消点検出処理の詳細な流れを示すフローチャー
トである。
Figure 10 is a flowchart showing the overall processing flow of the vanishing point detection device, and Figure 11 is step (F-8) in Figure 10.
3 is a flowchart showing a detailed flow of vanishing point detection processing in FIG.

第10図において、ステップ(F−1>では倣像部20
1によって対象物(図示せず)を撮像した画像を入力す
る画像入力処理を行ない、ステップ(F−2>では入力
した画像を画像メモリ202へ格納する。次いでステッ
プ(F−3>では画像プロセッサ203はたとえば前述
のような5OBELオペレータによって画像メモリ20
2に格納された画像に対してエツジ検出処理を行ない、
しかる後ステップ(F−4>においてエツジ検出処理さ
れた画像に対して2値化処理を行ないステップ(F−5
>において2値化処理されたエツジ画像を画像メモリ2
07へ格納する。
In FIG. 10, in step (F-1>) the imitation image unit 20
In step 1, an image input process of inputting an image of a target object (not shown) is performed, and in step (F-2>, the input image is stored in the image memory 202. Next, in step (F-3>), the image processor 203 is the image memory 20, for example, by the 5OBEL operator as described above.
Edge detection processing is performed on the image stored in 2.
After that, binarization processing is performed on the image subjected to edge detection processing in step (F-4>), and step (F-5
The edge image binarized in > is stored in image memory 2.
Store in 07.

次いでステップ(F−6>では画像プロセッサ203は
画像メモリ207に格納されたエツジ画像からエツジ構
成点の座標(×・、 ’y’H)  (i=1〜K)を
抽出する。そしてステップ(F−7>においでステップ
(F−6>で抽出したエツジ構成点の座標□J 、yH
)を座標格納域209へ格納する。
Next, in step (F-6>), the image processor 203 extracts the coordinates (×·, 'y'H) (i=1 to K) of the edge constituent points from the edge image stored in the image memory 207. Then, in step ( At F-7> step (coordinates □J, yH of the edge constituent points extracted at F-6>
) is stored in the coordinate storage area 209.

このようにしてステップ(F−7>および(F−8)に
おいて抽出されたエツジ構成点の座標(×・、 yi 
)(i=1〜K)に基づいてステラ■ プ(F−8>では消点検出処理が行なわれる。
The coordinates (×・, yi
) (i=1 to K), vanishing point detection processing is performed in the stamp (F-8>).

本実施例の消点検出処理は前述したとおり、第4図に示
すようなNXM個の画素をもつ画像の中央線(VO=N
/2>上に消点がおると仮定して、この中央線(y□ 
=N/2)上の点(xo。
As mentioned above, the vanishing point detection process of this embodiment is performed at the center line of an image having NXM pixels (VO=N
/2> Assuming that the vanishing point is above, this center line (y□
= N/2) on the point (xo.

V□ )とエツジ構成点の座標(×・、y霞とを■ 結ぶ直線の傾き頻度から直線累積画像を作成して消点を
検出するものである。
The vanishing point is detected by creating a straight line cumulative image from the slope frequency of the straight line connecting V□) and the coordinates (×·, y haze) of the edge constituent points.

第11図を参照すると、ステップ(P−1)では直線累
積画像の作成される画像メモリ208をクリアして初期
化する。次いでステップ(P−2)ではN x M個の
画素をもつ画像の中央線(V□=N/2>上の点(X□
 、 y□ )を初期化し、X□ =0.¥0 =N/
2とする。
Referring to FIG. 11, in step (P-1), the image memory 208 in which the linear cumulative image is created is cleared and initialized. Next, in step (P-2), a point (X□
, y□), and X□ = 0. ¥0 =N/
Set it to 2.

次いでステップ(P−3>では、中央線(y□=\/2
)上の点(x□ 、 y□ )のX座標X□を第4図に
おいて矢印Rの方向に′1゛′ずつ増加させるためにX
座標xoに“1′を加える。いまの場合、X座標Xoは
ステップ(P−2>においてクリアされていたので、ス
テップ(P−3>ではX座WX oは°“1″となる。
Next, in step (P-3>, the center line (y□=\/2
) to increase the X coordinate X□ of the point (x□, y□) on
Add "1" to the coordinate xo. In this case, since the X coordinate Xo was cleared in step (P-2>), the X coordinate WXo becomes "1" in step (P-3>).

次いでステップ(P−4)では第6図に示すような各々
の角度t an−1jに対する頻度α・のチープルをク
リアする。すなわち第6図に示すテーブルにおいてすへ
ての角度に対する頻度αjをクリアする。次いでステッ
プ(P−5)では、エツジ構成点の座標(X・、y霞の
識別子iをクリアする。
Next, in step (P-4), the cheaples of frequency α· for each angle tan-1j as shown in FIG. 6 are cleared. That is, in the table shown in FIG. 6, the frequencies αj for all angles are cleared. Next, in step (P-5), the coordinates (X·, y of the edge constituent point identifier i of the haze are cleared).

さてステップ(P−6)から(P−10)の処理は、中
央線(y□=N/2>上の一つの点(X□、y□)とエ
ツジ構成点の座)票(xH。
Now, the processing from steps (P-6) to (P-10) consists of one point (X□, y□) on the center line (y□=N/2>) and the edge component point (xH).

Vi)(i=’l〜K)とを結ぶ直線の傾き頻度α・を
求めて頻度αjが閾値下よりも大きいときには累積直線
画@H(X、V)をインクレメントするものである。
Vi) The inclination frequency α· of the straight line connecting (i='l to K) is determined, and when the frequency αj is greater than the threshold value, the cumulative straight line image @H(X, V) is incremented.

先づ、ステップ(P−6)ではエツジ構成点の座標(×
・、 yH)の識別子iを“1”だけ増加する。いまの
場合、ステップ(P−5>において識別子iはクリアさ
れているので、ステップ(P−6)によって識別子iは
at 1 toとなる。すなわち最初、エツジ構成点の
座標(×・、 yH)に着目する。次いでステップ(P
−7)ではこのエツジ構成点の座標(×・、 ’y’i
 )とステップ(Pl −3)で定まる中央線(y□=\/2)上の点(xo、
V□ ’)とを第5図に示すように直線で結び、この直
線の傾きjを j= (yl  ’io)/ (xl −x□ )−1
・ として求め、この傾きjから角度tanJ−θ1を算出
し、この角度θ1に対応する頻度αjに111 ftを
加える。たとえばいまこの角度θ1が70’〜80°の
範囲であるとすれば第6図において角度t an” j
が70’〜80°の範囲に対応する頻度αjに“1パが
加算される。いまの場合には最初のエツジ構成点の座標
(X、yl)に関する処理であるので、角度j an”
 jが70’〜80°に対応した頻度αjが“1パとな
り、他の角度に対応した頻度は“OPlどなっている。
First, in step (P-6), the coordinates (×
, yH) is incremented by "1". In this case, since the identifier i is cleared in step (P-5>), the identifier i becomes at 1 to in step (P-6).In other words, initially, the coordinates (×, yH) of the edge constituent points are Next, step (P
-7), the coordinates of this edge constituent point (×・, 'y'i
) and the step (Pl -3) is the point (xo,
V□ ') with a straight line as shown in Figure 5, and the slope j of this straight line is j = (yl 'io)/ (xl -x□ )-1
- Calculate the angle tanJ-θ1 from this slope j, and add 111 ft to the frequency αj corresponding to this angle θ1. For example, if this angle θ1 is in the range of 70' to 80°, then in FIG.
"1 pa is added to the frequency αj corresponding to the range of 70' to 80°. In this case, since the processing is related to the coordinates (X, yl) of the first edge constituent point, the angle j an"
The frequency αj corresponding to j of 70' to 80 degrees is "1 Pa," and the frequencies corresponding to other angles are "OP1."

次いでステップ(P−8>ではステップ(P−7)で加
算された@度αjが閾値Tよりも大きくなったか否かを
判断する。たとえば閾値Tとして7”を設定すると、い
まの場合頻度αjはIJ 1 ptでめり閾値Tよりも
小さいのでステップ(P−9>に進む。
Next, in step (P-8>), it is determined whether the @degree αj added in step (P-7) has become larger than the threshold value T. For example, if 7'' is set as the threshold value T, in this case, the frequency αj Since IJ 1 pt is smaller than the breakage threshold T, the process proceeds to step (P-9>).

ステップ(P−9>ではエツジ構成点の座標(×・、 
Vi )の識別子iが最後のエツジ構成点の識別子゛K
 11に等しくなったか否かを判別する。
In step (P-9>, the coordinates of the edge constituent points (×・,
The identifier i of Vi) is the identifier of the last edge constituent point ゛K
It is determined whether the value becomes equal to 11 or not.

いまの場合識別子iは“1パでおり、K I?ではない
ので、次のエツジ構成点の座標(X2 、 V2 )に
着目してステップ(P−1>および(P−8>の処理を
繰り返すために再びステップ(P−6)にもどる。
In this case, the identifier i is "1P" and not KI?, so focus on the coordinates (X2, V2) of the next edge constituent point and perform the processing of steps (P-1> and (P-8>). Return to step (P-6) again to repeat.

ステップ(P−6)では識別子iを“1″だけ増加して
、44299にする。これによってステップ(P−7>
では、同様にして次のエツジ構成点の座標(x2.¥2
 >とステップ(P−3>で定められた中央線(r’(
>=N/2)上の点(Xo。
In step (P-6), the identifier i is incremented by "1" to 44299. This allows step (P-7>
Now, in the same way, the coordinates of the next edge constituent point (x2.\2
> and the center line (r'(
>=N/2) on the point (Xo.

yo)とを第5図に示すように直線で結び、この直線の
傾きjを j = (V2−V□ ) / (x2−x□ )−1
・ として求め、この傾きjから角度tan  J=θ2を
算出し、この角度θ2に対応する難度αjに1”を加え
る。たとえば、この角度θ2が角度θ1と同様に70’
〜80°の範囲におれば、第6図におイテ角度t an
−1jが70°〜80°の範た頻度αjが742 If
となり、他の角度に対応した頻度αjは“Offとなっ
ている。これと異なり角〜80’に対応した頻度αjは
“1″であり、160°〜170°に対応した頻度αj
が゛1パとなり、他の角度に対応した頻度αjはOte
となっている。
yo) with a straight line as shown in Figure 5, and the slope j of this straight line is j = (V2-V□) / (x2-x□)-1
・ Calculate the angle tan J = θ2 from this inclination j, and add 1" to the difficulty level αj corresponding to this angle θ2. For example, if this angle θ2 is 70' like the angle θ1,
If it is within the range of ~80°, the angle tan is shown in Figure 6.
-1j ranges from 70° to 80°, the frequency αj is 742 If
Therefore, the frequency αj corresponding to the other angles is "Off". Unlike this, the frequency αj corresponding to the angle ~80' is "1", and the frequency αj corresponding to the angle 160° to 170° is "Off".
becomes ゛1pa, and the frequency αj corresponding to other angles is Ote
It becomes.

このようにしてエツジ構成点の座標(xi。In this way, the coordinates (xi) of the edge constituent points.

yH)の識別子iを“1パから“K nに増加させて各
エツジ構成点の座標(×・、yl)と中央線(V(>=
N/2>上のある点(Xg 、 ’i10 )とを結ぶ
直線の傾きjに対する頻度αjを加算していく過程で、
ステップ(P−8>において頻度αjが閾値Tよりも大
きくなった場合には、この頻度α・に対応した角度t 
an’ jの直線を発生し、これを画像メモリ208へ
累積させるためにステップ(P−10>に進む。たとえ
ば第6図および第7図に示す例では、角度j an’ 
jが70’〜80’に対応する頻度αjは識別子iが“
K 11となるときに“10′′となるので識別子iが
at K teになるまでに頻度αjは閾値Tに達し、
ステップ(P−10>に進むことになる。
yH) is increased from "1pa" to "Kn," and the coordinates (x・, yl) of each edge constituent point and the center line (V(>=
In the process of adding up the frequency αj for the slope j of the straight line connecting a certain point (Xg, 'i10) on N/2>,
When the frequency αj becomes larger than the threshold T in step (P-8>, the angle t corresponding to this frequency α・
Proceed to step (P-10>) to generate a straight line of an' j and accumulate it in the image memory 208. For example, in the example shown in FIGS.
The frequency αj where j corresponds to 70' to 80' is when the identifier i is "
Since it becomes "10'' when K 11, the frequency αj reaches the threshold T by the time the identifier i becomes at K te,
The process will proceed to step (P-10>).

ステップ(P−10>では角度70’〜80’のときの
傾きjから第8図に示すように直線y−y□=j(x 
 x□)を発生し、これを画像メモリ208へ累積する
。この結果、画像メモリ208の累積直線画像H(x、
y)は直線y−y□ =j (x−x□ )の通る画素
値が“1″だけ増加して、中央線(yO=N/2)上の
一つの点(x□、y(>)についての累積直線画像H(
X。
In step (P-10>, from the slope j when the angle is 70' to 80', the straight line y-y□=j(x
x□) and accumulates it in the image memory 208. As a result, the cumulative straight line image H(x,
y), the pixel value that the straight line y-y□ = j (x-x□) passes through increases by "1", and one point (x□, y(> ) for the cumulative straight line image H(
X.

y)の累積を終了する。そして中央線(y□ =N/2
)上の次の点(X□ 、 V□ )についての累積直線
画像H(X、V)への累積を行なうために再びステップ
(P−3>にもどる。
End the accumulation of y). And the center line (y□ = N/2
) returns to step (P-3>) again to perform the accumulation to the cumulative straight line image H(X, V) for the next point (X□, V□) on ).

一方、第6図および第7図に示す例と異なり、識別子i
が″K ttとなるときにすべての角度t an−1j
について頻度α・が閾値下に達しないときには、ステッ
プ(P−10)における直線y−’)’O=J (X 
 X□ )を発生せず、従って累積直線画像H(x、y
>の形成に関与することなく、中央線(yO=N/2>
上の次の点(x□ 。
On the other hand, unlike the examples shown in FIGS. 6 and 7, the identifier i
becomes ``K tt, then all angles t an-1j
When the frequency α・does not reach below the threshold for
Therefore, the cumulative straight line image H(x, y
> without participating in the formation of the central line (yO=N/2>
Next point above (x□.

yo)について累積直線画像H(X、V)への累積を行
なうために再びステップ(P−3>に戻る。
yo) to the cumulative straight line image H(X,V), the process returns to step (P-3>) again.

ステップ(P−3>では中央線(V□ =N/2)上の
点(x、y)のX座標X□を“1″だけO 増加する。いまの場合、X座標X□は“1′°であった
ので、2″となる。これによって、点(X□ 、 ’1
0 )のX座標X。が“2″である場合について同様に
してステップ(P−4>から(P−10)の処理を繰り
返して累積直線画像H(X。
In step (P-3>), the X coordinate X□ of the point (x, y) on the center line (V□ = N/2) is increased by "1".In this case, the X coordinate X□ is "1". ′°, so it becomes 2″. By this, the point (X□, ’1
0 ) X coordinate X. In the case where is "2", steps (P-4> to (P-10)) are repeated in the same way to obtain the cumulative straight line image H(X).

y)を累積させる。y) is accumulated.

このようにしてステップ(P−11>において中央線(
’110=N/2>上の点(X□ 、 ’!□ )のX
座標Xoが“M″になったときに、中央線(V□=N/
2>上のすべての点(x(>、y□)(xo=1〜M)
についての累積直線画像H(X。
In this way, in step (P-11>) the center line (
'110=N/2>X of point (X□, '!□) above
When the coordinate Xo becomes “M”, the center line (V□=N/
2> All points on (x(>,y□) (xo=1~M)
Cumulative straight line image H(X.

y)の累積が終了する。この結果、第9図に示すように
画像メモリ208には累積直線画像H(X。
The accumulation of y) is completed. As a result, the cumulative straight line image H(X) is stored in the image memory 208 as shown in FIG.

y)が完成する。y) is completed.

次いでステップ(P−12>に進み、完成した累積直線
画像H(X、V)に基づいて消点判断処理を行なう。す
なわち、プロセッサ203は、画像メモリ208上の累
積直線画像H(X、V)において最大の累積値MAX 
(H(x、y))を与える座標(x、y)を消点APと
して決定する。
Next, the process proceeds to step (P-12>, where a vanishing point determination process is performed based on the completed cumulative straight line image H(X, V). That is, the processor 203 processes the cumulative straight line image H(X, V) on the image memory 208. ), the maximum cumulative value MAX
The coordinates (x, y) that give (H(x, y)) are determined as the vanishing point AP.

あるいはプロセッサ203は累積直線画像H(X。Alternatively, the processor 203 may generate a cumulative straight line image H(X).

y)の重心位置 を消点APとして決定することができる。y) center of gravity position can be determined as the vanishing point AP.

このように本実施例の消点検出装置では、消点が存在す
るはずの中央線上の点(X□ 、 y□ )と各エツジ
構成点とを結、S−直線の傾き頻度αjから点(x。、
y□)を通る1本の直線y V□=j(X−Xo>を発
生し、このような直線を中央線上の点(X□、y□)の
すべてについて発生させこれらを累積直線画像として累
積させて、この累積直線画像から簡単な演算処理によっ
て消点を検出するようになっているので、高速かつ高精
度の消点検出を行なうことができる。
In this way, the vanishing point detection device of this embodiment connects the point (X□, y□) on the center line where the vanishing point is supposed to exist and each edge constituent point, and calculates the slope frequency αj of the S-line from the point ( x.
Generate one straight line y V□=j(X-Xo>) passing through y□), generate such a straight line for all points (X□, y□) on the center line, and use them as a cumulative straight line image. Since the vanishing point is detected by simple arithmetic processing from the cumulative straight line image, it is possible to detect the vanishing point at high speed and with high accuracy.

(発明の効果〉 以上説明したように、本発明においては、対象物のエツ
ジ構成点と所定の線上にあるはずの消点候補点とを結ぶ
直線の傾き頻度から累積直線画像を形成し、この累積直
線画像から消点を決定するようにしたので、消点の、検
出を迅速にかつ正確に行なうことができて、無人搬送車
などの走行制御速度を向上させることが可能となる。
(Effects of the Invention) As explained above, in the present invention, a cumulative straight line image is formed from the slope frequency of the straight line connecting the edge constituent points of the object and the vanishing point candidate points that are supposed to be on a predetermined line. Since the vanishing point is determined from the cumulative linear image, the vanishing point can be detected quickly and accurately, making it possible to improve the travel control speed of an automatic guided vehicle or the like.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の消点検出装置の全体構成図、第2図は
本発明による消点検出装置の一実施例のブロック線図、
第3図は5OBELオペレータのフィルタリング係数を
示す図、第4図はNXM画素からなる画像の中心線(y
□=N/2)上の消点候補点(X□ 、 ’J□ )を
説明するための図、第5図は第4図に示す中央線上の消
点候補点(x□ 。 y□ )とエツジ構成点(X・、 yH)とを結ぶ直線
の傾き頻度αjを求めることを説明する図、第6図は第
5図に示す直線の傾き角度に対応させて求められた傾き
頻度αjのテーブルを示す図、第7図は第6図に示すテ
ーブルに基づいて角度に対する頻度αjをヒストグラム
として表わした図、第8図は第6図、第7図に示す頻度
αjのテーブル、ヒストグラムから一つの直線を発生す
る処理を説明する図、第9図は第8図に示すような直線
を累積させた累積直線画像を示す図、第10図は第2図
に示す本発明の消点検出装置の処理の全体の流れを示す
フローチャート、第11図は第10図に示す消点判断処
理の詳細な処理流れを示すフローチャート、第12図(
イ)は消点の概念を説明する図、第12図(ロ)は従来
の消点検出処理を示す図である。 201・・・撮像部、202,207.208・・・画
像メモリ、203・・・画像プロセッサ、209・・・
座標格納域、αj・・・頻度、H(x、y)・・・累積
直線画像
FIG. 1 is an overall configuration diagram of a vanishing point detection device according to the present invention, and FIG. 2 is a block diagram of an embodiment of a vanishing point detection device according to the present invention.
Figure 3 is a diagram showing the filtering coefficients of the 5OBEL operator, and Figure 4 is a diagram showing the center line (y
□=N/2) Figure 5 is a diagram for explaining the vanishing point candidate point (X□, 'J□) on the center line shown in Figure 4 (x□. y□) Figure 6 is a diagram explaining the calculation of the slope frequency αj of the straight line connecting the edge component point (X・, yH). Figure 7 is a diagram showing the frequency αj with respect to angle as a histogram based on the table shown in Figure 6, and Figure 8 is a diagram showing the frequency αj table and histogram shown in Figures 6 and 7. 9 is a diagram illustrating a cumulative straight line image obtained by accumulating straight lines as shown in FIG. 8, and FIG. 10 is a vanishing point detection device of the present invention shown in FIG. 2. 11 is a flowchart showing the overall process flow of the process shown in FIG. 10, and FIG.
A) is a diagram explaining the concept of a vanishing point, and FIG. 12(B) is a diagram showing a conventional vanishing point detection process. 201... Imaging unit, 202, 207, 208... Image memory, 203... Image processor, 209...
Coordinate storage area, αj...frequency, H(x,y)...cumulative straight line image

Claims (1)

【特許請求の範囲】[Claims] 対象物を撮像する撮像部と、撮像部によって撮像された
画像から対象物のエッジ構成点を抽出するエッジ抽出手
段と、該エッジ抽出手段によって抽出されたエッジ構成
点と所定の線上にあるはずの消点候補点とを結ぶ直線の
傾き頻度から累積直線画像を形成する累積直線画像形成
手段と、該累積直線画像形成手段によって形成された累
積直線画像から消点を決定する消点判断手段とを有する
ことを特徴とする消点検出装置。
An imaging unit that captures an image of a target object; an edge extraction unit that extracts edge constituent points of the target object from an image captured by the imaging unit; A cumulative straight line image forming means for forming a cumulative straight line image from the slope frequency of straight lines connecting the vanishing point candidate points, and a vanishing point determining means for determining a vanishing point from the cumulative straight line image formed by the cumulative straight line image forming means. A vanishing point detection device comprising:
JP61248332A 1986-10-21 1986-10-21 Erase point detector Pending JPS63103381A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61248332A JPS63103381A (en) 1986-10-21 1986-10-21 Erase point detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61248332A JPS63103381A (en) 1986-10-21 1986-10-21 Erase point detector

Publications (1)

Publication Number Publication Date
JPS63103381A true JPS63103381A (en) 1988-05-09

Family

ID=17176509

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61248332A Pending JPS63103381A (en) 1986-10-21 1986-10-21 Erase point detector

Country Status (1)

Country Link
JP (1) JPS63103381A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5555555A (en) * 1993-01-19 1996-09-10 Aisin Seiki Kabushiki Kaisha Apparatus which detects lines approximating an image by repeatedly narrowing an area of the image to be analyzed and increasing the resolution in the analyzed area

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5555555A (en) * 1993-01-19 1996-09-10 Aisin Seiki Kabushiki Kaisha Apparatus which detects lines approximating an image by repeatedly narrowing an area of the image to be analyzed and increasing the resolution in the analyzed area

Similar Documents

Publication Publication Date Title
JP3539788B2 (en) Image matching method
JP3242529B2 (en) Stereo image matching method and stereo image parallax measurement method
US6614928B1 (en) Automatic parcel volume capture system and volume capture method using parcel image recognition
CN1235395C (en) Moving object monitoring surveillance apparatus
EP2602761A1 (en) Object detection device, object detection method, and program
JP5950441B2 (en) Image recognition apparatus, image recognition method, and image recognition program
Klippenstein et al. Quantitative evaluation of feature extractors for visual slam
CN109479082A (en) Image processing method and device
CN103279952A (en) Target tracking method and device
CN103824303A (en) Image perspective distortion adjusting method and device based on position and direction of photographed object
CA3105309A1 (en) Computer vision systems and methods for modeling three dimensional structures using two-dimensional segments detected in digital aerial images
CN106778822B (en) Image straight line detection method based on funnel transformation
CN110826364A (en) Stock position identification method and device
JP3516118B2 (en) Object recognition method and object recognition device
JPS63103381A (en) Erase point detector
CN113393423A (en) Cliff detection method and device based on point cloud and mobile robot
JPH0624000B2 (en) Compound stereoscopic device
JPH03238566A (en) Vanishing point detection device
JPH0933249A (en) Three-dimensional image measuring device
JP2006047252A (en) Image processing unit
JPS63103382A (en) Erase point detector
JPH05108147A (en) Travelling path recognizing device of moving vehicle
JP2006113738A (en) Device and method for detecting object
Pochec Moire based stereo matching technique
CN115690631A (en) Unmanned aerial vehicle target identification method based on deep learning