JP2946095B2 - Line segment extraction device - Google Patents

Line segment extraction device

Info

Publication number
JP2946095B2
JP2946095B2 JP1048650A JP4865089A JP2946095B2 JP 2946095 B2 JP2946095 B2 JP 2946095B2 JP 1048650 A JP1048650 A JP 1048650A JP 4865089 A JP4865089 A JP 4865089A JP 2946095 B2 JP2946095 B2 JP 2946095B2
Authority
JP
Japan
Prior art keywords
line segment
line
image
segments
corresponding point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP1048650A
Other languages
Japanese (ja)
Other versions
JPH02228779A (en
Inventor
秀一 西尾
司 前嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ENU TEI TEI DEETA KK
Original Assignee
ENU TEI TEI DEETA KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ENU TEI TEI DEETA KK filed Critical ENU TEI TEI DEETA KK
Priority to JP1048650A priority Critical patent/JP2946095B2/en
Publication of JPH02228779A publication Critical patent/JPH02228779A/en
Application granted granted Critical
Publication of JP2946095B2 publication Critical patent/JP2946095B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は、画像認識理解装置の画像処理における線分
抽出方法とその装置に関するものである。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a line segment extracting method in image processing of an image recognition / understanding apparatus and an apparatus thereof.

[従来の技術] 従来の画像認識理解装置における線分抽出方法及び装
置の一般論を述べたものとして、昭和58年2月15日、コ
ロナ社発行の長尾真著、「画像認識論」がある。
[Prior Art] A general description of a line segment extraction method and apparatus in a conventional image recognition / understanding apparatus is described in Makoto Nagao, “Image Recognition Theory”, published by Corona, Feb. 15, 1983.

一般に、画像認識理解装置は画像中の線やエッジを抽
出して対象物体の構造を認識している。このような画像
処理技術において、画像の明暗の差が激しい部分が対象
物体のエッジに対応しているということから、画像の濃
度関数を微分し、これをあるしきい値で2値化してエッ
ジを検出する手法が利用されてきた。この手法で線分を
抽出する場合、2値化されたエッジ画像に細線化処理を
施し、その後ベクトル化するというのが一般的である。
しかし、このようにして抽出された線分は断片的な特徴
であり、物体のモデルとの照合を行う効率が悪い。この
問題を解決する手法として、電子情報通信学会誌、昭和
63年10月号の白井良明著「記述と照合」では、直線を形
成する線分や平行線といった人間が線群を満たときに注
目するであろう、より構造化された線分を照合に用いる
手法を紹介している。
Generally, an image recognition / understanding apparatus recognizes the structure of a target object by extracting lines and edges in an image. In such an image processing technique, since a portion of the image where the difference in brightness is large corresponds to the edge of the target object, the density function of the image is differentiated and binarized by a certain threshold value. Have been used. When a line segment is extracted by this method, it is general to apply a thinning process to the binarized edge image, and then perform vectorization.
However, the line segment extracted in this way is a fragmentary feature, and the efficiency of matching with the model of the object is low. As a method to solve this problem, IEICE Journal, Showa
In the October 1963 issue of Yoshiaki Shirai's description and collation, more structured line segments that humans would pay attention to when filling a line group, such as line segments forming parallel lines and parallel lines, were collated. The method used is introduced.

このような構造化された線分を抽出する具体的な一般
システムの構成を第5〜8図を用いて説明する。入力さ
れた濃淡画像は画像入力部(4)でディジタル画素に変
換され、さらにエッジ検出部(5)で雑音処理(51)、
微分処理(52)を施されて濃淡エッジ画像に変換され
る。次にあるしきい値により2値化処理(501)が実行
され、その後細線化処理(502)を経てエッジ検出が行
われる。検出されたエッジは、第7図に示すように、線
分抽出部(6)においてHough変換(62)により、Hough
平面上に変換される。
The structure of a specific general system for extracting such structured line segments will be described with reference to FIGS. The input grayscale image is converted into digital pixels by an image input unit (4), and is further subjected to noise processing (51) by an edge detection unit (5).
A differentiation process (52) is performed to convert the image into a dark and light edge image. Next, binarization processing (501) is performed using a certain threshold value, and thereafter edge detection is performed through thinning processing (502). As shown in FIG. 7, the detected edge is subjected to Hough transformation (62) in
Converted to a plane.

検出されたエッジ中の直線線分はHough平面上では点
となって発見されることから、極大点探索(601)によ
って局所的極大点を見つけ、その点に対応する直線に沿
ってエッジ要素の連結(64)を行って線分を確定し、線
分の始点、終点の決定(65)を行う。
Since a straight line segment in the detected edge is found as a point on the Hough plane, a local maximum point is found by a local maximum point search (601), and an edge element is located along a straight line corresponding to the point. The connection (64) is performed to determine the line segment, and the start point and end point of the line segment are determined (65).

抽出された線分には、Hough変換によって得られた傾
きの情報が付与されているので、線分特徴構造化処理部
(7)では、第7図に示すように、その情報を基に平行
線の決定(71)を行って、線分群を平行な線分の組に分
類する。次に、その平行な線分の組から同一直線を形成
する線分の判定を行って、線分特徴の構造化を終了す
る。このように構造化された線分を物体モデルとの照合
に用いることにより、余分な線分との照合が避けられ、
効率のよい認識を行うことが可能となる。
Since the extracted line segment is provided with information on the inclination obtained by the Hough transform, the line segment structuring unit (7) performs parallel processing based on the information as shown in FIG. The line is determined (71) to classify the group of line segments into a set of parallel line segments. Next, a line segment forming the same straight line is determined from the set of the parallel line segments, and the structuring of the line segment feature ends. By using the line segment structured in this way for matching with the object model, matching with an extra line segment can be avoided,
Efficient recognition can be performed.

[発明が解決しようとする課題] この従来の方式では、エッジ検出部(5)に2値化処
理(501)を含んでいるので、認識対象画像を明暗がは
っきりしている濃淡画像に限定した場合は良好な線分抽
出結果が得られるが、明暗のはっきりしない濃淡画像の
線分を抽出することは困難であった。
[Problems to be Solved by the Invention] In this conventional method, since the edge detection unit (5) includes a binarization process (501), the recognition target image is limited to a grayscale image in which the contrast is clear. In this case, a good line segment extraction result can be obtained, but it is difficult to extract a line segment of a shaded image in which the brightness is not clear.

また、線分抽出部(6)では、Hough平面上の極大点
探索(601)を行っているが、一般的に局所的極大点を
発見することは難しく、発見できてもその極大点近傍の
点が物体モデルとの照合に必要な線分に対応している場
合もあるために、対象物体を構成する線分を効率的に抽
出することは困難であった。
Further, the line segment extraction unit (6) performs a local maximum point search (601) on the Hough plane. However, it is generally difficult to find a local maximum point. Since a point may correspond to a line segment necessary for matching with the object model, it has been difficult to efficiently extract a line segment constituting the target object.

本発明はこのような点に鑑みて創案されたもので、明
暗のはっきりしない濃淡画像から対象物体を構成する線
分を効率的に抽出することを目的としている。
The present invention has been made in view of such a point, and an object of the present invention is to efficiently extract a line segment constituting a target object from a grayscale image in which the brightness is not clear.

[課題を解決するための手段] 上記課題を解決するために、本発明では、従来の画像
認識装置において採用されているのと同様に、画像を光
学的手段等によってディジタル画素信号に変換する装置
と、主記憶、磁気ディスク装置あるいは光ディスク装置
等の補助記憶装置を有する情報処理装置を利用するもの
であり、エッジ検出の際に従来装置における2値化処理
(501)、細線化処理(502)を行わず、濃淡エッジ画像
に対して各画素の濃度値による細分化を行い、ある濃度
値の範囲内毎に線分抽出を行う機構を設ける。
[Means for Solving the Problems] In order to solve the above problems, in the present invention, an apparatus for converting an image into a digital pixel signal by optical means or the like as in a conventional image recognition apparatus. And an information processing device having an auxiliary storage device such as a main memory, a magnetic disk device or an optical disk device. In edge detection, binarization processing (501) and thinning processing (502) in a conventional apparatus are used. Is performed, a mechanism is provided for performing subdivision of the gray-scale edge image based on the density value of each pixel and extracting a line segment for each range of a certain density value.

さらに詳細には、第1に、画像を微分することにより
濃淡エッジ画像を得て、濃淡エッジ画像にHough変換を
施し、Hough平面上であるしきい値以上の値を持つ線分
対応点候補を選択し、線分対応点候補を連結することに
より線分を抽出し、該線分を互いに平行な線分の群にグ
ループ化し、グループ化された線分の中から同一線分を
形成する線分を判定して、1本の線分に統合する線分抽
出方法において、前記濃淡エッジ画像をその濃度値に応
じて細分化し、細分化された領域毎に線分対応点候補を
選択し、細分化された領域毎に線分を抽出し、さらに、
該線分の確からしさを表す指標を付与し、グループ化さ
れた線分の中から線分の確からしさを示す指標に基づい
て、同一グループ内の線分を1本の線分に統合する、こ
とを特徴とする線分抽出方法を採用する。
More specifically, first, a gray-scale edge image is obtained by differentiating the image, Hough transform is performed on the gray-scale edge image, and a line segment corresponding point candidate having a value equal to or greater than a certain threshold value on the Hough plane is obtained. A line segment is extracted by selecting and connecting the line segment corresponding point candidates, the line segments are grouped into a group of line segments parallel to each other, and a line forming the same line segment from the grouped line segments In a line segment extraction method for determining a segment and integrating it into one line segment, the grayscale edge image is subdivided according to its density value, and a line segment corresponding point candidate is selected for each subdivided region; Extract line segments for each subdivided area,
An index representing the likelihood of the line segment is given, and the segments in the same group are integrated into one line segment based on the indicator showing the likelihood of the line segment from among the grouped line segments. A line segment extraction method characterized by this is employed.

第2の手段として、濃淡画像から線分を抽出する画像
処理を行う線分抽出装置において、入力濃淡画像をディ
ジタル画素となる手段を有する画像入力部と、前記画像
入力部により入力された画像中の明暗の差を抽出する部
分処理により、濃淡エッジ画像を得るエッジ検出部と、
前記濃淡エッジ画像を各画素の濃度値により細分化し、
細分化した濃淡エッジ画像をHough変換し、Hough平面上
であるしきい値以上の値を持つ点を選択することにより
線分対応点候補を選択し、前記濃淡エッジ画像上で実質
的に直線上にある線分対応点候補を連結してベクトル化
することにより線分を抽出し、その線分の確からしさを
示すポイントを付与する手段を有する線分抽出部と、各
線分の傾きを求め、傾きにより線分を互いに平行な線分
の群にグループ化し、グループ化された線分の中から同
一線分を形成する線分を判定することにより線分の群を
構造化する線分特徴構造化処理部と、線分の確からしさ
を示すポイントに基づく線分統合の手段を有する線分統
合化処理部と、を具備することを特徴とする線分抽出装
置を採用する。
As a second means, in a line segment extracting apparatus for performing image processing for extracting a line segment from a grayscale image, an image input unit having means for converting an input grayscale image into digital pixels, An edge detection unit that obtains a gray-scale edge image by performing a partial process of extracting a light-dark difference between
The grayscale edge image is subdivided according to the density value of each pixel,
Hough transform the subdivided shade edge image, select a line segment corresponding point candidate by selecting a point on the Hough plane having a value equal to or greater than a threshold value, and substantially straight line on the shade edge image. A line segment extraction unit having means for giving a point indicating the likelihood of the line segment by connecting and vectorizing the line segment corresponding point candidates in A line segment feature structure in which the line segments are grouped into groups of parallel line segments based on the inclination, and the line segments forming the same line segment are determined from the grouped line segments to structure the line segment group. And a line segment integration processing unit having a line segment integration unit based on points indicating the likelihood of the line segment.

第3の手段として、画像を入力する画像入力手段と、
前記画像入力手段により入力された画像を微分処理する
ことにより濃淡エッジ画像を得るエッジ検出手段と、前
記エッジ検出部により生成された濃淡エッジ画像を、そ
の濃度値に応じて、細分化する細分化手段と、前記細分
化手段により細分化され領域毎に線分対応点候補を選択
する選択手段と、前記濃淡エッジ画像上で実質的に直線
上にある線分対応点候補を連結して線分を抽出し、さら
に該線分の確からしさを表す指標を付与する線分抽出部
と、各線分の傾きを求め、傾きにより線分を互いに平行
な線分の群にグループ化し、グループ化された線分の中
から同一線分を形成する線分を判定することにより線分
の群を構造化する線分特徴構造化処理部と、線分の確か
らしさを表す指標に基づいて、同一グループ内の線分を
1本の線分に統合する線分統合手段と、を具備すること
を特徴とする線分抽出装置を採用する。
As a third means, an image input means for inputting an image,
Edge detection means for obtaining a grayscale edge image by differentiating the image input by the image input means; and subdivision for subdividing the grayscale edge image generated by the edge detection unit according to the density value. Means, selecting means for selecting line segment corresponding point candidates for each area subdivided by the subdividing means, and connecting line segment corresponding point candidates which are substantially on a straight line on the grayscale edge image to connect the line segments. And a line segment extraction unit that further provides an index indicating the likelihood of the line segment, and obtains a slope of each line segment, and groups the line segments into groups of parallel line segments based on the slope, thereby forming a group. A line segment structuring unit configured to determine a line segment forming the same line segment from among the line segments to structure a group of line segments, and an index within the same group based on an index indicating the likelihood of the line segment. Lines are merged into one line segment Employing a line segment extraction device, characterized by comprising: a line segment integrating means that, the.

第4の手段として、前記選択手段は、前記細分化手段
により細分化され領域毎にHough変換を施し、Hough平面
上で所定のしきい値以上の値を有する点を線分対応点候
補として選択する手段を含む、ことを特徴とする第3の
手段に記載の線分抽出装置を採用する。
As a fourth means, the selecting means performs Hough transform for each area subdivided by the subdividing means, and selects a point having a value equal to or greater than a predetermined threshold on the Hough plane as a line segment corresponding point candidate. The line segment extracting apparatus according to the third means, which includes means for performing the above, is adopted.

第5の手段として、前記選択手段は、前記濃淡エッジ
画像のエッジの強度に応じた線分を抽出することを特徴
とする上記第3の又は第4の手段に記載の線分抽出装置
を採用する。
As a fifth means, the line extracting apparatus according to the third or fourth means is characterized in that the selecting means extracts a line segment corresponding to the edge intensity of the grayscale edge image. I do.

第6の手段として、前記確からしさを表す指標は、そ
の線分が属す細分化された領域を表す指標と線分の長さ
に対する連結された線分対応点候補の数を表す指標とを
含む、ことを特徴とする上記第3、第4又は第5手段に
記載の線分抽出装置を採用する。
As a sixth means, the index indicating the likelihood includes an index indicating a subdivided region to which the line segment belongs and an index indicating the number of connected line segment corresponding point candidates with respect to the length of the line segment. A line segment extracting apparatus according to the third, fourth or fifth means is adopted.

[作用] 第1〜3図は、本発明の一実施例を示す。[Operation] FIGS. 1 to 3 show one embodiment of the present invention.

このように構成された装置では、第2図に示す微分処
理(52)された濃淡エッジ画像に対して、第3図に示す
ように各画素の濃度値による細分化(61)を行い、細分
化されたある濃度値の範囲内毎に線分抽出を行っている
ので、エッジのはっきりしている部分(いわゆる“強
い”エッジ)とはっきりしていない部分(いわゆる“弱
い”エッジ)を区別して線分を抽出することが可能とな
る。
The apparatus configured as described above performs the subdivision (61) by the density value of each pixel as shown in FIG. 3 on the grayscale edge image subjected to the differential processing (52) shown in FIG. Since line segments are extracted for each range of a certain density value, a portion having a sharp edge (a so-called “strong” edge) and a portion having no clear edge (a so-called “weak” edge) are distinguished. Line segments can be extracted.

また、線分抽出部(6)において、Hough変換後のHou
gh平面上であるしきい値以上の値を持つ点すべてについ
て、その点に対応する線分を抽出してから、線分統合化
処理部(8)で同一線分と見なして良いかの判定を行っ
ているので、Hough平面上の極大点近傍の点に対応する
線分も抽出することが可能となる。
In the line segment extraction unit (6), the Hou after the Hough transform is used.
For all points on the gh plane that have a value equal to or greater than a certain threshold value, a line segment corresponding to the point is extracted, and it is determined whether the line segment integration processing unit (8) can regard the points as the same line segment. Is performed, it is also possible to extract a line segment corresponding to a point near the maximum point on the Hough plane.

また、本発明では、線分抽出部(6)において抽出さ
れた線分に付与された線分の確からしさを示すポイント
に基づく統合則によって線分の統合を行う。一般に人間
は“弱い”エッジのみが存在する場合そのエッジに注目
するが、“強い”エッジ周辺の“弱い”エッジには注目
していないと考えられるが、このような人間の低次の視
覚特性に基づく線分群の統合を行うことによって、より
確かな線分抽出を行うことが可能となる。
Further, in the present invention, line segments are integrated according to an integration rule based on points indicating the likelihood of the line segments added to the line segments extracted by the line segment extraction unit (6). In general, it is considered that humans pay attention to only weak edges when they exist, but do not pay attention to “weak” edges around “strong” edges. By performing the integration of the line segments based on, it is possible to perform more reliable line segment extraction.

[実施例] 以下、第1〜3図に示した実施例に基づいて、本発明
を詳細に説明する。
[Example] Hereinafter, the present invention will be described in detail based on an example shown in Figs.

第1図の画像入力部(4)において、ディジタル画素
に変換された入力濃淡画像は、エッジ検出部(5)で第
2図に示すように雑音処理(51)をしてから微分処理
(52)され、濃淡エッジ画像に変換される。
The input grayscale image converted into digital pixels in the image input unit (4) in FIG. 1 is subjected to noise processing (51) in the edge detection unit (5) as shown in FIG. ) And converted to a grayscale edge image.

線分抽出部(6)では、第3図に示すように、この濃
淡エッジ画像に対して各画素の濃度値による細分化(6
1)を行う。これにより、画像上の濃度値の限られた範
囲内についてのみHough変換(62)が施され、Hough平面
上に変換される。
In the line segment extraction unit (6), as shown in FIG.
Do 1). As a result, the Hough transform (62) is performed only within the limited range of the density value on the image, and the image is converted into the Hough plane.

次に、線分対応点候補の選択(63)により、Hough平
面上であるしきい値以上の値を持つ点すべてについて、
その点の対応する直線に沿ってエッジ要素の連結(64)
を行い、線分を確定し線分の始点、終点の決定(65)を
する。抽出された線分には線分の確からしさの指標とし
て、その線分が細分化された濃度値のどの範囲に属する
かを示すポイント(point−I)と、線分の長さに対す
る連結されたエッジ要素の数を示すポイント(point−I
I)が付与される。
Next, by selecting line segment corresponding point candidates (63), for all points on the Hough plane having a value equal to or greater than a threshold value,
Connect edge elements along the corresponding straight line at that point (64)
To determine the line segment and determine the start point and end point of the line segment (65). The extracted line segment is linked to a point (point-I) indicating to which range of the subdivided density values the line segment belongs as an index of the likelihood of the line segment and the length of the line segment. Points indicating the number of edge elements (point-I
I) is given.

ポイント(point−I)の算出方法の例としては、濃
淡エッジ画像の各画素の濃度値の全範囲を限られた数の
段階に区分してレベルとし、これら複数のレベルの低い
値から昇順に割り当てた固有のポイントを設定し、算出
しようとする各画素の濃度値が属するレベルのポイント
を得て数値的な指標として付与できる。
As an example of the method of calculating the point (point-I), the entire range of the density value of each pixel of the gray-scale edge image is divided into a limited number of steps and the levels are divided into levels. The assigned unique point can be set, and the point of the level to which the density value of each pixel to be calculated belongs can be obtained and given as a numerical index.

線分の長さに対する連結されたエッジ要素の数を示す
ポイント(point−II)の算出方法の例としては、複数
の線分について得られたデータから、エッジ要素/画素
の長さの比を算出して密度の高い線分に高いポイントを
与える。
As an example of a method of calculating a point (point-II) indicating the number of connected edge elements with respect to the length of a line segment, an edge element / pixel length ratio is calculated from data obtained for a plurality of line segments. Calculate and give high points to high density line segments.

これらの線分は、第8図に示す従来装置と同様に線分
特徴構造化処理部(7)において、平行線の判定(7
1)、同一直線を形成する線分の判定(72)を経て、い
くつかのグループに分類される。
These line segments are determined by the line segment structuring unit (7) in the same manner as in the conventional apparatus shown in FIG.
1) After the determination of the line segment forming the same straight line (72), it is classified into several groups.

本発明では、濃淡エッジ画像に対する各画素の濃度値
による細分化(61)をしている上に、Hough平面上での
極大点探索(601)を行っていないという理由により、
本来一本の線分と見なされるべき線分が数本の線分とし
て同一グループに分類されている場合がある。そこで、
線分統合化処理部(8)では、それぞれの線分に付与さ
れたその線分の確からしさを示すポイントに基づく線分
統合手順により、同一グループ内の線分を一本の線分に
統合する。
In the present invention, the subdivision (61) based on the density value of each pixel with respect to the grayscale edge image is performed, and the local maximum point search (601) on the Hough plane is not performed.
In some cases, line segments that should be regarded as one line segment are classified into the same group as several line segments. Therefore,
In the line segment integration processing unit (8), line segments in the same group are integrated into a single line segment by a line segment integration procedure based on points given to the respective line segments and indicating the likelihood of the line segment. I do.

以下、線分統合例を示す第4図を参照して、本発明の
線分統合手順について説明する。
Hereinafter, the line segment integration procedure of the present invention will be described with reference to FIG. 4 showing an example of line segment integration.

同一グループ内のn本の線分から、以下に示す点A,B
を求める。
From the n line segments in the same group, points A and B shown below
Ask for.

A(Xa,Ya),B(Xb,Yb) Xa=min(Xsi):π/2≦θ≦π max(Xsi):0≦θπ/2 Ya=min(Ysi) Xb=max(Xei):π/2≦θ≦π min(Xei):0≦θ≦π/2] Yb=max(Yei) i=1,2,…,n 但し、Ysi≦Yei 各線分の中点(M(Xm,Ym))の重心Oと、平均の傾
きθを以下の式により求める。
A (Xa, Ya), B (Xb, Yb) Xa = min (Xs i ): π / 2 ≦ θ i ≦ π max (Xs i ): 0 ≦ θ i π / 2 Ya = min (Ys i ) Xb = Max (Xe i ): π / 2 ≦ θ i ≦ π min (Xe i ): 0 ≦ θ i ≦ π / 2] Yb = max (Ye i ) i = 1,2,..., N where Ys i ≦ Ye i The center of gravity O of the midpoint (M (Xm, Ym)) of each line segment and the average inclination θ are obtained by the following equations.

Oを通る傾きθなる直線に、A,Bから垂線をおろし、
その点を統合線分の始点、終点とする。
Drop a perpendicular line from A and B to a straight line with a slope θ passing through O,
The points are defined as the start point and end point of the integrated line segment.

[発明の効果] 以上説明したように、本発明では認識対象となる画像
が明暗のはっきりしない濃淡画像であっても、“強い”
エッジと“弱い”エッジを区別して線分抽出を行うこと
により、良好な線分抽出を行うことができる。
[Effects of the Invention] As described above, according to the present invention, even if the image to be recognized is a grayscale image in which the contrast is not clear, “strong”
By extracting a line segment by distinguishing an edge from a “weak” edge, a good line segment can be extracted.

また、Hough平面上における極大点探索の問題を、人
間の低次の視覚特性に基づく線分統合手順によって解決
し、対象物体を構成する線分を効率的に抽出することが
できる。
In addition, the problem of the maximum point search on the Hough plane can be solved by a line segment integration procedure based on human low-order visual characteristics, and line segments constituting the target object can be efficiently extracted.

【図面の簡単な説明】[Brief description of the drawings]

第1図は本発明の一実施例の装置構成図、 第2図は本発明のエッジ検出部における処理の説明図、 第3図は本発明の線分抽出部における処理の説明図、 第4図は本発明の一実施例における線分統合例の説明
図、 第5図は従来の線分抽出装置の一般構成図、 第6図は従来装置のエッジ検出部における処理の説明
図、 第7図は従来装置の線分抽出部における処理の説明図、 第8図は従来装置及び本発明の一実施例における線分特
徴構造化処理部の処理の説明図である。 第1図、第5図において、 (1)……CPU、 (2)……CRT、 (3)……メモリ、 (4)……画像入力部、 (5)……エッジ検出部、 (6)……線分抽出部、 (7)……線分特徴構造化処理部、 (8)……線分統合化処理部、 である。
FIG. 1 is an apparatus configuration diagram of one embodiment of the present invention, FIG. 2 is an explanatory diagram of processing in an edge detecting section of the present invention, FIG. 3 is an explanatory diagram of processing in a line segment extracting section of the present invention, FIG. 5 is an explanatory diagram of an example of line segment integration according to an embodiment of the present invention. FIG. 5 is a general configuration diagram of a conventional line segment extracting device. FIG. 6 is an explanatory diagram of processing in an edge detecting unit of the conventional device. FIG. 8 is an explanatory diagram of a process in a line segment extraction unit of the conventional device, and FIG. 8 is an explanatory diagram of a process of a line segment structuring unit in the conventional device and one embodiment of the present invention. 1 and 5, (1) CPU, (2) CRT, (3) memory, (4) image input unit, (5) edge detection unit, (6) ): A line segment extraction unit; (7) a line segment structuring unit; and (8) a line segment unification processing unit.

Claims (5)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】画像を微分することにより濃淡エッジ画像
を得て、濃淡エッジ画像にHough変換を施し、Hough平面
上であるしきい値以上の値を持つ線分対応点候補を選択
し、線分対応点候補を連結することにより線分を抽出
し、該線分を互いに平行な線分の群にグループ化し、グ
ループ化された線分の中から同一線分を形成する線分を
判定して、1本の線分に統合する線分抽出方法におい
て、 前記濃淡エッジ画像をその濃度値に応じて細分化し、 細分化された領域毎に線分対応点候補を選択し、 細分化された領域毎に線分を抽出し、 さらに、該線分が属する細分化された領域の濃度を表す
指標と線分の長さに対する連結された線分対応点候補の
数を表す指標とから線分の確からしさを表す指標を付与
し、 グループ化された線分の中から線分の確からしさを示す
指標に基づいて、同一グループ内の線分を1本の線分に
統合する、 ことを特徴とする線分抽出方法。
1. A shaded edge image is obtained by differentiating an image, a Hough transform is performed on the shaded edge image, and a line segment corresponding point candidate having a value equal to or greater than a threshold value on a Hough plane is selected. A line segment is extracted by connecting the minute corresponding point candidates, the line segments are grouped into a group of parallel line segments, and a line segment forming the same line segment is determined from the grouped line segments. In the line segment extraction method for integrating into one line segment, the shaded edge image is subdivided according to its density value, and a line segment corresponding point candidate is selected for each subdivided region. A line segment is extracted for each region. Further, a line segment is extracted from an index indicating the density of the subdivided region to which the line segment belongs and an index indicating the number of connected line segment corresponding point candidates with respect to the length of the line segment. An index indicating the likelihood of the line segment is assigned, and the line segment Line extraction method based on the indicators of Rashi is, integrating line segments in the same group to one line segment, and wherein the.
【請求項2】濃淡画像から線分を抽出する画像処理を行
う線分抽出装置において、 入力濃淡画像をディジタル画素となす手段を有する画像
入力部と、 前記画像入力部により入力された画像中の明暗の差を抽
出する部分処理により、濃淡エッジ画像を得るエッジ検
出部と、 前記濃淡エッジ画像を各画素の濃度値により細分化し、 細分化した濃淡エッジ画像をHough変換し、Hough平面上
であるしきい値以上の値を持つ点を選択することにより
線分対応点候補を選択し、前記濃淡エッジ画像上で実質
的に直線上にある線分対応点候補を連結してベクトル化
することにより線分を抽出し、その線分が属する細分化
された領域の濃度を表す指標と線分の長さに対する連結
された線分対応点候補の数を表す指標とから線分の確か
らしさを示すポイントを付与する手段を有する線分抽出
部と、 各線分の傾きを求め、傾きにより線分を互いに平行な線
分の群にグループ化し、グループ化された線分の中から
同一線分を形成する線分を判定することにより線分の群
を構造化する線分特徴構造化処理部と、 線分の確からしさを示すポイントに基づく線分統合の手
段を有する線分統合化処理部と、 を具備することを特徴とする線分抽出装置。
2. A line segment extraction apparatus for performing image processing for extracting a line segment from a grayscale image, comprising: an image input unit having means for converting an input grayscale image into digital pixels; An edge detection unit that obtains a gray-scale edge image by partial processing for extracting a light-dark difference; and the gray-scale edge image is subdivided by the density value of each pixel, and the sub-divided gray-scale edge image is Hough-transformed on a Hough plane. A line segment corresponding point candidate is selected by selecting a point having a value equal to or greater than the threshold value, and a line segment corresponding point candidate that is substantially on a straight line on the grayscale edge image is connected and vectorized. Extracts a line segment and indicates the likelihood of the line segment from an index indicating the density of the subdivided region to which the line segment belongs and an index indicating the number of connected line corresponding point candidates with respect to the length of the line segment. With points A line segment extraction unit having means for performing the following steps: determining a gradient of each line segment, grouping the line segments into groups of parallel line segments based on the gradient, and forming a same line segment from the grouped line segments And a line segment integration processing unit having means for integrating line segments based on points indicating the likelihood of the line segments. A line segment extraction device characterized by the above-mentioned.
【請求項3】画像を入力する画像入力手段と、 前記画像入力手段により入力された画像を微分処理する
ことにより濃淡エッジ画像を得るエッジ検出手段と、 前記エッジ検出部により生成された濃淡エッジ画像を、
その濃度値に応じて、細分化する細分化手段と、 前記細分化手段により細分化され領域毎に線分対応点候
補を選択する選択手段と、 前記濃淡エッジ画像上で実質的に直線上にある線分対応
点候補を連結して線分を抽出し、さらに、該線分が属す
る細分化された領域の濃度を表す指標と線分の長さに対
する連結された線分対応点候補の数を表す指標とから線
分の確からしさを表す指標を付与する線分抽出部分と、 各線分の傾きを求め、傾きにより線分を互いに平行な線
分の群にグループ化し、グループ化された線分の中から
同一線分を形成する線分を判定することにより線分の群
を構造化する線分特徴構造化処理部と、 線分の確からしさを表す指標に基づいて、同一グループ
内の線分を1本の線分に統合する線分統合手段と、 を具備することを特徴とする線分抽出装置。
3. An image input unit for inputting an image, an edge detection unit for obtaining a grayscale edge image by differentiating the image input by the image input unit, and a grayscale edge image generated by the edge detection unit To
Subdividing means for subdividing according to the density value; selecting means for selecting a line segment corresponding point candidate for each area subdivided by the subdividing means; substantially linearly on the grayscale edge image A line segment corresponding point candidate is connected to extract a line segment. Further, an index indicating the density of the subdivided region to which the line segment belongs and the number of connected line segment corresponding point candidates with respect to the length of the line segment A line segment extraction part that gives an index that represents the likelihood of a line segment from an index that represents the line segment, and a gradient of each line segment is obtained. The line segments are grouped into a group of parallel line segments by the gradient, and the grouped line A line segment structuring unit for structuring a group of line segments by determining a line segment forming the same line segment from among the segments, and an index indicating the likelihood of the line segment, And line segment integrating means for integrating the line segments into one line segment. Line segment extraction device according to claim.
【請求項4】前記選択手段は、前記細分化手段により細
分化され領域毎にHough変換し施し、Hough平面上で所定
のしきい値以上の値を有する点を線分対応点候補として
選択する手段を含む、 ことを特徴とする請求項3に記載の線分抽出装置。
4. The selecting means performs Hough transform for each area subdivided by the subdividing means and selects a point having a value equal to or greater than a predetermined threshold value on a Hough plane as a line segment corresponding point candidate. The line segment extraction device according to claim 3, comprising means.
【請求項5】前記選択手段は、前記濃淡エッジ画像のエ
ッジの強度に応じた線分を抽出することを特徴とする請
求項3又は請求項4に記載の線分抽出装置。
5. The line segment extracting apparatus according to claim 3, wherein said selecting means extracts a line segment corresponding to the edge intensity of said grayscale edge image.
JP1048650A 1989-03-02 1989-03-02 Line segment extraction device Expired - Lifetime JP2946095B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1048650A JP2946095B2 (en) 1989-03-02 1989-03-02 Line segment extraction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1048650A JP2946095B2 (en) 1989-03-02 1989-03-02 Line segment extraction device

Publications (2)

Publication Number Publication Date
JPH02228779A JPH02228779A (en) 1990-09-11
JP2946095B2 true JP2946095B2 (en) 1999-09-06

Family

ID=12809238

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1048650A Expired - Lifetime JP2946095B2 (en) 1989-03-02 1989-03-02 Line segment extraction device

Country Status (1)

Country Link
JP (1) JP2946095B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5859929A (en) * 1995-12-01 1999-01-12 United Parcel Service Of America, Inc. System for character preserving guidelines removal in optically scanned text
CN102295061A (en) * 2011-05-19 2011-12-28 上海海事大学 Automatic detection method of ship water gauge based on image processing
JP5693418B2 (en) 2011-08-29 2015-04-01 株式会社Pfu Image processing apparatus, image processing method, image processing program, and image processing system
JP6684214B2 (en) * 2013-12-09 2020-04-22 テキサス テック ユニヴァーシティー システムTexas Tech University System Smartphone-based multiplexed viscometer for high-throughput analysis of fluids
CN104880160B (en) * 2015-05-27 2017-05-17 西安交通大学 Two-dimensional-laser real-time detection method of workpiece surface profile

Also Published As

Publication number Publication date
JPH02228779A (en) 1990-09-11

Similar Documents

Publication Publication Date Title
Sharifi et al. A classified and comparative study of edge detection algorithms
JP4323328B2 (en) System and method for identifying and extracting character string from captured image data
CN110210477B (en) Digital instrument reading identification method
WO2015184764A1 (en) Pedestrian detection method and device
JPH0693250B2 (en) Character information extraction method for optical reader
CN110502973A (en) A kind of roadmarking automation extraction and recognition methods based on vehicle-mounted laser point cloud
CN115272652A (en) Dense object image detection method based on multiple regression and adaptive focus loss
US7068824B2 (en) Fingerprint matching method and apparatus
JP3228938B2 (en) Image classification method and apparatus using distribution map
JP2005148987A (en) Object identifying method and device, program and recording medium
CN111859805A (en) Method for detecting topological relation of power drawing based on artificial intelligence
JP2946095B2 (en) Line segment extraction device
US20050271260A1 (en) Device, method and program for removing pores
CN113239733A (en) Multi-lane line detection method
CN111292346B (en) Method for detecting contour of casting box body in noise environment
Guo et al. Fault diagnosis of power equipment based on infrared image analysis
KR100194583B1 (en) Facial component extraction system and its extraction method
Hossen et al. License plate detection and recognition system based on morphological approach and feed-forward neural network
CN113537253A (en) Infrared image target detection method and device, computing equipment and storage medium
CN115359346B (en) Small micro-space identification method and device based on street view picture and electronic equipment
Zhang et al. Accurate extraction of cracks on the underside of concrete bridges
Awoke et al. Ethiopic and latin multilingual text detection from images using hybrid techniques
WO2000016264A1 (en) Line object vectorization in colour/grayscale images
CN114913144A (en) Method, device and system for determining road center line, computing equipment and storage medium
JP3220226B2 (en) Character string direction determination method

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080702

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080702

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090702

Year of fee payment: 10

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090702

Year of fee payment: 10