JP4946882B2 - Image processing apparatus, image processing system, image processing method, and program - Google Patents

Image processing apparatus, image processing system, image processing method, and program Download PDF

Info

Publication number
JP4946882B2
JP4946882B2 JP2008007396A JP2008007396A JP4946882B2 JP 4946882 B2 JP4946882 B2 JP 4946882B2 JP 2008007396 A JP2008007396 A JP 2008007396A JP 2008007396 A JP2008007396 A JP 2008007396A JP 4946882 B2 JP4946882 B2 JP 4946882B2
Authority
JP
Japan
Prior art keywords
line
candidate
image
parameter
candidate line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008007396A
Other languages
Japanese (ja)
Other versions
JP2009169696A (en
Inventor
尚志 斯波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2008007396A priority Critical patent/JP4946882B2/en
Publication of JP2009169696A publication Critical patent/JP2009169696A/en
Application granted granted Critical
Publication of JP4946882B2 publication Critical patent/JP4946882B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、画像処理装置、画像処理システム、画像処理方法、及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing system, an image processing method, and a program.

ノイズの混入した画像から、直線などの図形要素を検出する画像処理技術として、「ハフ変換」を利用する技術が知られている。このハフ変換を利用した直線検出の関連技術として、例えば以下に示す特許文献1、特許文献2、非特許文献1、非特許文献2などが挙げられる。   As an image processing technique for detecting a graphic element such as a straight line from a noise mixed image, a technique using “Hough transform” is known. For example, Patent Document 1, Patent Document 2, Non-Patent Document 1, and Non-Patent Document 2 shown below are examples of techniques related to straight line detection using the Hough transform.

この特許文献1による直線検出の具体例について図42を用いて説明する。図42は、一方の画像上でHough変換(ハフ変換)により直線成分yを抽出するときの原理を表す説明図である。
同図において、画像をx−y平面として表し、破線で示す直線成分y上において3点P(A)、P(B)、P(C)が抽出されている(図の上段)。
まず、これらの点Pに対してHough変換を行う。即ち、各点Pを通過する全ての角度の直線(図中に1本例示)を想定し、各直線について原点(0,0)からの直交距離ρ及び角度θを算出し、得られた直交距離ρ及び角度θを各点毎にまとめて、各点Pをρ−θ平面上の曲線として表す(図の中段)。
A specific example of straight line detection according to Patent Document 1 will be described with reference to FIG. FIG. 42 is an explanatory diagram showing the principle when a linear component y is extracted by Hough transform (Hough transform) on one image.
In the figure, an image is represented as an xy plane, and three points P (A), P (B), and P (C) are extracted on a linear component y indicated by a broken line (upper part of the figure).
First, Hough transformation is performed on these points P. That is, assuming a straight line of all angles passing through each point P (one example in the figure), the orthogonal distance ρ and the angle θ from the origin (0, 0) are calculated for each straight line, and the obtained orthogonal The distance ρ and the angle θ are collected for each point, and each point P is represented as a curve on the ρ-θ plane (middle of the figure).

ここで、画像上の直線を原点からの距離ρと、x軸との角度θを使ってρ=xcosθ+ysinθと表現する。例えば、画像上にある点(x,y)を通り得る直線は無数にあるが、前記θとρを軸とするパラメータ空間(ρ―θ平面)では、この無数の直線は、図42の中段に示すように、一本のパラメータ線となり、ρ=xcosθ+ysinθという曲線で表現される。 Here, a straight line on the image is expressed as ρ = x cos θ + y sin θ using a distance ρ from the origin and an angle θ with the x axis. For example, there are an infinite number of straight lines that can pass through the point (x i , y i ) on the image. As shown in the middle stage, it becomes a single parameter line and is expressed by a curve of ρ = x i cos θ + y i sin θ.

次いで、このρ−θ平面をρとθで特定される多数のセルに区画し、各セル内に位置する前記曲線の数を投票して、投票度数分布を求める(図の下段)。その後、投票度数分布から極大点(ρ,θ)を割り出す。   Next, the ρ-θ plane is divided into a large number of cells specified by ρ and θ, and the number of the curves located in each cell is voted to obtain a vote frequency distribution (lower part of the figure). Thereafter, the maximum point (ρ, θ) is determined from the vote frequency distribution.

すなわち、図42の上段に示すように、一つの直線上に並ぶ点P(A)、P(B)、P(C)がある場合、各々に対応するパラメータ線は図42の中段に示すようになり、この3つのパラメータ線が重なる点(ρ,θ)[図42の例では(ρ,θ)=(3、7)となっている]が検出すべき直線のパラメータということになる。 That is, as shown in the upper part of FIG. 42, when there are points P (A), P (B), and P (C) arranged on one straight line, the corresponding parameter lines are as shown in the middle part of FIG. The point (ρ 0 , θ 0 ) where these three parameter lines overlap (in the example of FIG. 42, (ρ 0 , θ 0 ) = (3, 7)) is a straight line parameter to be detected. It will be.

さらに、前記極大点(ρ,θ)に対して前記Hough変換と逆の手順(逆Hough変換)を行うと、図の上段に破線で示す直線成分yが特定される。この検出する直線を表す方程式は、ρ=xcosθ+y sinθとなる。図42では、投票数3を得た座標(3,7)が極大点として求められている。つまり、求めた極大点(ρ,θ)とは、図の中段において各曲線が交わる座標を表し、この座標は、図の上段において各点Pを通過する傾き及び切片が等しい共通の直線成分(即ち、破線の直線成分y)を表す。よって、この極大値(ρ,θ)を逆Hough変換すれば、各点Pを生じる要因となった直線成分yを求めることができる。 Further, when a procedure (inverse Hough transform) opposite to the Hough transform is performed on the local maximum point (ρ, θ), a linear component y indicated by a broken line is specified in the upper part of the figure. Equation representing a straight line to this detection, the ρ 0 = xcosθ 0 + y sinθ 0. In FIG. 42, the coordinates (3, 7) at which the number of votes 3 is obtained are obtained as maximum points. In other words, the obtained local maximum point (ρ, θ) represents the coordinates at which the curves intersect in the middle part of the figure, and these coordinates are common linear components (slopes and intercepts passing through the points P in the upper part of the figure are equal). That is, it represents a broken line component y). Therefore, if this local maximum value (ρ, θ) is inversely Hough transformed, the linear component y that causes each point P can be obtained.

特許文献2でも、特許文献1と同様に、ハフ変換及び逆ハフ変換による線の抽出手法を利用し、ハフ空間(パラメータ空間)でのピーク値の点をもとに逆ハフ変換により方程式を決定し、その方程式で示される線を画像空間上に描画している(段落番号0042)。   In Patent Document 2, as in Patent Document 1, an equation is determined by the inverse Hough transform based on the peak value point in the Hough space (parameter space) using the line extraction method by the Hough transform and the inverse Hough transform. The line indicated by the equation is drawn on the image space (paragraph number 0042).

また、特許文献2では、ハフ変換及び逆ハフ変換による線の抽出手法を利用して、図43の上段に示すような指紋画像IGの輪郭線を最終的に抽出するようにしている。この指紋画像のような多数の輪郭線を抽出するには、図43の下段に示すような特徴点PPを抽出し、これをもとに1本の線を抽出するために、ハフ変換及び逆ハフ変換を行い線RLを抽出し、これらの処理を膨大な回数繰り返すことによって前記指紋画像の輪郭線を抽出することが行われる。このため、輪郭線の抽出には演算量が膨大となることが多い。   Further, in Patent Document 2, the outline of the fingerprint image IG as shown in the upper part of FIG. 43 is finally extracted by using a line extraction method based on the Hough transform and the inverse Hough transform. In order to extract a large number of contour lines such as this fingerprint image, feature points PP as shown in the lower part of FIG. 43 are extracted, and in order to extract a single line based on this, Hough transform and inverse processing are performed. The contour line of the fingerprint image is extracted by performing the Hough transform, extracting the line RL, and repeating these processes numerous times. For this reason, the amount of calculation is often enormous for extracting contour lines.

さらに、非特許文献1及び非特許文献2では、通常のハフ変換(ρ―θハフ変換)と異なるパラメータの取り方(γ―ωハフ変換)により変換を行っている。
特開2003−40036号公報 特開平9−134427号公報 和田俊和、藤井高広、松山隆司著 「γ―ωハフ変換―――可変標本化によるρ−θパラメータ空間のひずみ除去と投票軌跡の直線化―――」 電子情報通信学会論文誌 、D−II、 Vol.J75−D−II、 No.1、 pp.21−30、1992年1月 和田俊和、関真規人、松山隆司著 「ディジタル直線の幾何学的特性に基づいたγ−ωハフ変換の高精度化」 電子情報通信学会論文誌、D−II、Vol.J77−D−II、No.3、pp.529−539、1994年3月
Further, in Non-Patent Document 1 and Non-Patent Document 2, conversion is performed by a method of taking parameters (γ-ω Hough transform) different from normal Hough transform (ρ-θ Hough transform).
JP 2003-40036 A JP-A-9-134427 Toshikazu Wada, Takahiro Fujii, Takashi Matsuyama “γ-ω Hough Transform: Distortion of ρ-θ Parameter Space and Linearization of Voting Trajectory by Variable Sampling—” IEICE Transactions, D-II Vol. J75-D-II, no. 1, pp. 21-30, January 1992 Toshikazu Wada, Masato Seki, Takashi Matsuyama “High-precision γ-ω Hough transform based on geometric characteristics of digital lines” IEICE Transactions, D-II, Vol. J77-D-II, no. 3, pp. 529-539, March 1994

しかしながら、特許文献1及び特許文献2では、ノイズによる偽の線を真の線と誤る可能性が画像上の座標によって増減する、という不具合があった。
すなわち、ノイズによる偽の線を真の線と誤る可能性が画像上の座標によって増減する現象が生じる理由は、一の線に属する画素の集団と、他の線に属する近くにある画素の集団とが、画像上の位置によっては同じパラメータを持つとみなされることがあるからである。この場合、一の線に属する画素の集団にて検出された画素数が多くなり、場合によっては、一の線に属する画素の集団にて検出される画素の集団の合計検出数が、他の線に所属する画素の集団の合計検出数を大きく上回ることがある。
However, Patent Document 1 and Patent Document 2 have a problem that the possibility that a false line due to noise is mistaken as a true line increases or decreases depending on the coordinates on the image.
In other words, the reason why the possibility that a false line due to noise may be mistaken as a true line is increased or decreased depending on the coordinates on the image is that a group of pixels belonging to one line and a group of nearby pixels belonging to another line This is because the same parameter may be considered depending on the position on the image. In this case, the number of pixels detected in the group of pixels belonging to one line increases, and in some cases, the total number of pixels detected in the group of pixels belonging to one line may be It may greatly exceed the total number of detections of the group of pixels belonging to the line.

例えば、点(x,y)を通る直線ρ=xcosθ+ysinθの場合、(x,y)の近傍の(x+Δx,y+Δy)を通る直線はρ+Δρ=(x+Δx)cos(θ+Δθ)+(y+Δy)sin(θ+Δθ)と表現されるが、Δx、Δy、Δθについて展開して2次以上の項を無視する近似をすると、Δρ≒(Δx+yΔθ)cosθ+(Δy−xΔθ)sinθとなる。これはΔx、Δy、Δθが一定でも、(x,y)が異なれば、つまり画像上の位置が異なればΔρが異なることを意味する。 For example, if a straight line ρ = x 0 cosθ + y 0 sinθ passing through the point (x 0, y 0), (x 0, y 0) in the vicinity of the straight line passing through the (x 0 + Δx, y 0 + Δy) is ρ + Δρ = (x 0 + Δx) cos (θ + Δθ) + (y 0 + Δy) sin (θ + Δθ), but if approximation is performed by expanding Δx, Δy, Δθ and ignoring the second-order or higher terms, Δρ≈ (Δx + y 0 Δθ ) Cos θ + (Δy−x 0 Δθ) sin θ. This means that even if Δx, Δy, and Δθ are constant, if (x 0 , y 0 ) is different, that is, Δρ is different if the position on the image is different.

ここで、Δx、Δy、Δθ、Δρが小さい場合、点(x,y)の位置によっては、直線ρ以外に直線ρ+Δρまでも検出してしまい、点(x,y)に対応するパラメータ線と(x+Δx,y+Δy)に対応するパラメータ線も共に同一のパラメータ線となる場合があることを意味する。つまり、一つの点に対して複数のパラメータ線が対応する場合が生じることを意味する。
逆に、一つのパラメータ空間上の点(ρ、θ)に対して、画像上の直線ρの他に直線ρ+Δρも対応してしまい、パラメータ空間上の一つの点に対して、画像上の複数の線が対応してしまう場合も生じる。
Here, when Δx, Δy, Δθ, and Δρ are small, depending on the position of the point (x 0 , y 0 ), in addition to the straight line ρ, a straight line ρ + Δρ is also detected, corresponding to the point (x 0 , y 0 ). This means that the parameter line corresponding to (x 0 + Δx, y 0 + Δy) may be the same parameter line. That is, it means that a plurality of parameter lines may correspond to one point.
On the other hand, a point (ρ, θ) on one parameter space also corresponds to a straight line ρ + Δρ in addition to a straight line ρ on the image, and a plurality of points on the image correspond to one point on the parameter space. In some cases, these lines correspond.

この不具合の例をより具体的に図37乃至図40を用いて模式的に説明する。図37及び図38は、検出すべき線が線αと線βの2本あり、その線上で点A、点B、点Cの3点が検出された例を示す。各々の点に対応するパラメータ空間上のパラメータ線は、この場合、異なる座標で交差する。
一方、図39及び図40は、検出すべき線が線α´と線β´の2本あり、点A´、点B´、点C´の3点が検出されており、さらに各点の位置関係が、図37の点A、点B、点Cと同じ例を示す。この場合、点A´に対応するパラメータ線と点B´´に対応するパラメータ線と点C´に対応するパラメータ線が同一の座標で交差する。
このように、前記不具合によって、検出した点の位置が異なるだけでパラメータ線の交差の仕方が異なる事態が生じる。
An example of this defect will be described more specifically with reference to FIGS. FIG. 37 and FIG. 38 show an example in which there are two lines α and β, and three points A, B, and C are detected on the lines. The parameter lines on the parameter space corresponding to each point in this case intersect at different coordinates.
On the other hand, in FIG. 39 and FIG. 40, there are two lines α ′ and β ′ to be detected, and three points A ′, B ′, and C ′ are detected. An example in which the positional relationship is the same as point A, point B, and point C in FIG. In this case, the parameter line corresponding to the point A ′, the parameter line corresponding to the point B ″, and the parameter line corresponding to the point C ′ intersect at the same coordinates.
As described above, due to the above-described problem, there is a situation in which the method of intersecting the parameter lines is different only in the position of the detected point.

すなわち、点A、点B、点Cの相互の位置関係と、点A´、点B´、点C´の相互の位置関係とが変わらなくても、各点の座標上の位置が異なる場合には、パラメータ線の交差点が同一とはならない。この場合、図40におけるρ−θ平面の3つのパラメータ線は、一つ交差点しか有しないため、パラメータ空間部の1つの交差点に対して線α´と線β´の2つが対応することになってしまい、この交差点に対応する線を逆ハフ変換により求めると、x−y平面上では、1本の線として描画されることになる。このため、実際には、線α´と線β´とが描画されるべきところに、1本の偽の線が描画されてしまう。   That is, even if the mutual positional relationship between point A, point B, and point C and the mutual positional relationship between point A ′, point B ′, and point C ′ do not change, the positions on the coordinates of the points are different. The intersections of the parameter lines are not the same. In this case, since the three parameter lines on the ρ-θ plane in FIG. 40 have only one intersection, two lines α ′ and β ′ correspond to one intersection in the parameter space portion. Thus, when a line corresponding to this intersection is obtained by inverse Hough transform, it is drawn as one line on the xy plane. Therefore, in practice, one false line is drawn where the line α ′ and the line β ′ are to be drawn.

このように、画像上の位置によっては、ρ−θ平面の交差点に基づいて算出されるx−y平面の線が、必ずしも正確な線を示すとは限らない。つまり、画像上の一の位置では、正確に線を検出できるが、画像上の他の位置では、正確に検出できないという、画像上の位置によって検出精度が異なる、という不具合があった。   Thus, depending on the position on the image, the line on the xy plane calculated based on the intersection of the ρ-θ plane does not always indicate an accurate line. That is, there is a problem that the detection accuracy differs depending on the position on the image, in which the line can be accurately detected at one position on the image, but cannot be accurately detected at another position on the image.

また、非特許文献1及び非特許文献2では、パラメータの取り方を変える(γ―ωハフ変換)ことによりパラメータ空間のひずみを除去しているが、通常のハフ変換(ρ―θハフ変換)よりも計算量が大幅に増えてしまう、という不具合があった。   Further, in Non-Patent Document 1 and Non-Patent Document 2, the parameter space distortion is removed by changing the way of taking parameters (γ-ω Hough transform), but normal Hough transform (ρ-θ Hough transform). There was a problem that the amount of calculation would increase significantly.

さらに、他の不具合は、ノイズによる偽の線を真の線と誤る可能性が画像上の座標によって増減する上記の現象について、この現象の抑制を直線以外の一般的な曲線にまで対象を広げて適用する手法が無いことである。
その理由は、上述のような関連技術の画像処理装置では、直線への対応のみに注力してパラメータ空間のひずみへの対策が考慮されてきたことが多いためである。
In addition, another problem is that the above-mentioned phenomenon, where the possibility of mistaking a false line due to noise as a true line, increases or decreases depending on the coordinates on the image, extends the suppression of this phenomenon to general curves other than straight lines. There is no method to apply.
The reason for this is that image processing apparatuses of the related art as described above often have taken into consideration countermeasures for distortion in the parameter space by focusing only on the correspondence to straight lines.

さらにまた、他の不具合は、同一の線でも向きが変わるとノイズによる偽の線と区別できず検出できない場合があることである。
パラメータ空間上でのパラメータ線の重なり回数を数えることは、離散化したパラメータ空間で、画像上の各線に属する画素の個数を数えることに相当するが、線を画素で数えることは線をマンハッタン距離で測ることとなるため、離散化前のアナログ空間で測れば同じ長さの線であっても傾きによっては長さが変わってしまう。
例えば図41に示す2本の直線の長さは同じであるが、これを離散化すると直線毎に構成する画素数が異なる。
上述のような関連技術の画像処理装置では、ハフ変換の際にこの点について考慮してこなかった。しかし、ノイズ過多の画像では方向によっては検出できた構成画素数がノイズによる偽の線の画素数より下回り検出できない可能性が増大する。
この不具合の例を図を用いて模式的に説明する。図41は、長さ8画素の直線の例を示したものである。2本の直線L1、L2は、画素単位で長さを測ると同一の長さ(8画素分)となるが、見て明らかなように左側(L1)のほうが右側(L2)よりも長い。この場合、ユークリッド距離で測ると左側(L1)のユークリッド距離ed1は、約11.3画素となる。
Still another problem is that even if the direction of the same line changes, it may not be distinguished from a false line due to noise and may not be detected.
Counting the number of parameter line overlaps in the parameter space is equivalent to counting the number of pixels belonging to each line on the image in the discretized parameter space, but counting the line by pixel means that the line is Manhattan distance Therefore, if measured in an analog space before discretization, even if the line has the same length, the length changes depending on the inclination.
For example, the lengths of two straight lines shown in FIG. 41 are the same, but if they are discretized, the number of pixels constituting each straight line is different.
In the related art image processing apparatus as described above, this point has not been considered in the Hough transform. However, in an excessively noisy image, there is an increased possibility that the number of constituent pixels that can be detected is less than the number of false line pixels due to noise and cannot be detected.
An example of this problem will be schematically described with reference to the drawings. FIG. 41 shows an example of a straight line having a length of 8 pixels. The two straight lines L1 and L2 have the same length (equivalent to 8 pixels) when measured in units of pixels, but the left side (L1) is longer than the right side (L2) as is apparent. In this case, when measured by the Euclidean distance, the Euclidean distance ed1 on the left side (L1) is about 11.3 pixels.

(発明の目的)
本発明は、前記した技術の不具合を解決することを課題としてなされたものであって、その目的とするところは、検出精度が画像上の位置に依存せず、且つ、膨大な計算量を要せずに線検出が可能な画像処理装置、画像処理システム、画像処理方法、及びプログラムを提供することにある。
(Object of invention)
The present invention has been made to solve the problems of the above-described technology, and the object of the present invention is to detect the detection accuracy independent of the position on the image and to require a huge amount of calculation. It is an object to provide an image processing apparatus, an image processing system, an image processing method, and a program capable of detecting a line without performing the above process.

前記目的を達成するため、本発明の画像処理装置は、画像内の画素を通り得る線を特定のパラメータを含む方程式で表し、この方程式の前記パラメータを座標軸とするパラメータ空間部を利用して前記画像内から線を抽出する処理を行う画像処理装置であって、前記パラメータ空間部の前記パラメータの組み合わせがとる座標値に基づいて、前記座標値に対応する前記画像内の各候補線を描画する制御を行う候補線描画制御手段と、前記候補線及び該候補線の周辺の候補線周辺領域が通過する通過画素を、各々の前記候補線について決定する候補線周辺領域決定手段と、前記候補線を識別する指標であって前記候補線の接線の傾きを示す傾き重みを前記通過画素毎に算出し、各々の前記候補線について前記傾き重みの合計値を算出する候補線識別指標算出手段と、前記候補線識別指標算出手段にて算出された各々の前記候補線の各々の前記合計値に基づいて、一の前記候補線に対応する前記パラメータ空間部での一の前記パラメータの組み合わせの座標値の周辺のパラメータ値周辺領域内に、一の前記候補線の前記合計値を上回る他の前記候補線に対応する他の前記パラメータの組み合わせの座標値の有無を探索し、前記パラメータ値周辺領域内にて一の前記候補線の前記合計値を上回る他の前記候補線の前記合計値がない場合には、一の前記候補線を実在線として決定する制御を行う実在線決定制御手段とを含むことを特徴としている。   In order to achieve the above object, the image processing apparatus of the present invention represents a line that can pass through a pixel in an image by an equation including a specific parameter, and uses the parameter space portion having the parameter of the equation as a coordinate axis. An image processing apparatus that performs a process of extracting a line from an image, and draws each candidate line in the image corresponding to the coordinate value based on a coordinate value taken by a combination of the parameters in the parameter space portion Candidate line drawing control means for performing control, candidate line peripheral area determining means for determining, for each of the candidate lines, passing pixels through which the candidate lines and candidate line peripheral areas around the candidate lines pass, and the candidate lines A candidate line for calculating an inclination weight indicating an inclination of a tangent line of the candidate line for each passing pixel and calculating a total value of the inclination weights for each candidate line Based on the total value of each of the candidate lines calculated by the separate index calculation means and the candidate line identification index calculation means, the one in the parameter space portion corresponding to the one candidate line In the parameter value peripheral region around the coordinate value of the parameter combination, search for the presence or absence of the coordinate value of the other parameter combination corresponding to the other candidate line that exceeds the total value of the one candidate line, A real line that performs control to determine one candidate line as a real line when there is no total value of the other candidate lines that exceeds the total value of one candidate line within the parameter value peripheral region And a decision control means.

本発明の画像処理システムは、入力された画像内から第1の処理にて線を抽出する第1の画像処理装置と、前記画像内から第1の処理と異なる第2の処理にて線を抽出する第2の画像処理装置と、前記第1の画像処理装置と前記第2の画像処理装置とを切替制御する切替制御装置と、前記切替制御装置にて切替制御された前記第1及び第2の画像処理装置のうちいずれか一方又は双方の画像処理結果を出力する出力装置と、を含み、前記第2の画像処理装置は、画像内の画素を通り得る線を特定のパラメータを含む方程式で表し、この方程式の前記パラメータを座標軸とするパラメータ空間部の前記パラメータの組み合わせがとる座標値に基づいて、前記座標値に対応する前記画像内の各候補線を描画する制御を行う候補線描画制御手段と、前記候補線及び該候補線の周辺の候補線周辺領域が通過する通過画素を、各々の前記候補線について決定する候補線周辺領域決定手段と、前記候補線を識別する指標であって前記候補線の接線の傾きを示す傾き重みを前記通過画素毎に算出し、各々の前記候補線について前記傾き重みの合計値を算出する候補線識別指標算出手段と、前記候補線識別指標算出手段にて算出された各々の前記候補線の各々の前記合計値に基づいて、一の前記候補線に対応する前記パラメータ空間部での一の前記パラメータの組み合わせの座標値の周辺のパラメータ値周辺領域内に、一の前記候補線の前記合計値を上回る他の前記候補線に対応する他の前記パラメータの組み合わせの座標値の有無を探索し、前記パラメータ値周辺領域内にて一の前記候補線の前記合計値を上回る他の前記候補線の前記合計値がない場合には、一の前記候補線を実在線として決定する制御を行う実在線決定制御手段と、を含むことを特徴としている。   An image processing system according to the present invention includes a first image processing apparatus that extracts a line from an input image by a first process, and a second process that is different from the first process from the image. A second image processing device to be extracted, a switching control device that controls switching between the first image processing device and the second image processing device, and the first and first controlled by the switching control device. An output device that outputs an image processing result of one or both of the two image processing devices, wherein the second image processing device includes an equation including a specific parameter for a line that can pass through a pixel in the image. Candidate line drawing which performs control for drawing each candidate line in the image corresponding to the coordinate value based on the coordinate value taken by the combination of the parameters in the parameter space portion with the parameter of the equation as the coordinate axis Control means; Candidate line peripheral region determining means for determining, for each of the candidate lines, a passing pixel through which the candidate line and a candidate line peripheral region around the candidate line pass, and an index for identifying the candidate line, the candidate line An inclination weight indicating an inclination of the tangent line is calculated for each passing pixel, and is calculated by a candidate line identification index calculation unit that calculates a total value of the inclination weights for each candidate line, and the candidate line identification index calculation unit Based on the total value of each of the candidate lines, the parameter value surrounding area around the coordinate value of one parameter combination in the parameter space portion corresponding to one candidate line, Search for the presence or absence of coordinate values of other parameter combinations corresponding to the other candidate lines that are greater than the total value of the one candidate line, and the one of the candidate lines within the parameter value peripheral region If there is no the total value of the other of said candidate lines exceed the total value is characterized in that it comprises a real line determination control means for controlling to determine the one the candidate lines as a real line, a.

本発明の画像処理方法は、画像内の画素を通り得る線を特定のパラメータを含む方程式で表し、この方程式の前記パラメータを座標軸とするパラメータ空間部を利用してコンピュータが前記画像内から線を抽出する処理を行う画像処理方法であって、前記コンピュータが、前記パラメータ空間部の前記パラメータの組み合わせがとる座標値に基づいて、前記座標値に対応する前記画像内の各候補線を描画する制御を行う候補線描画制御ステップと、前記コンピュータが、前記候補線及び該候補線の周辺の候補線周辺領域が通過する通過画素を、各々の前記候補線について決定する候補線周辺領域決定ステップと、前記コンピュータが、前記候補線を識別する指標であって前記候補線の接線の傾きを示す傾き重みを前記通過画素毎に算出し、各々の前記候補線について前記傾き重みの合計値を算出する候補線識別指標算出ステップと、前記コンピュータが、前記候補線識別指標算出ステップにて算出された各々の前記候補線の各々の前記合計値に基づいて、一の前記候補線に対応する前記パラメータ空間部での一の前記パラメータの組み合わせの座標値の周辺のパラメータ値周辺領域内に、一の前記候補線の前記合計値を上回る他の前記候補線に対応する他の前記パラメータの組み合わせの座標値の有無を探索し、前記パラメータ値周辺領域内にて一の前記候補線の前記合計値を上回る他の前記候補線の前記合計値がない場合には、一の前記候補線を実在線として決定する制御を行う実在線決定制御ステップと、を含むことを含むことを特徴としている。   In the image processing method of the present invention, a line passing through a pixel in an image is represented by an equation including a specific parameter, and a computer uses the parameter space portion having the parameter of the equation as a coordinate axis to draw a line from the image. An image processing method for performing extraction processing, wherein the computer draws each candidate line in the image corresponding to the coordinate value based on a coordinate value taken by a combination of the parameters in the parameter space portion A candidate line drawing control step for performing, and the computer determines a candidate line peripheral region determining step for each of the candidate lines through which the candidate line and a candidate line peripheral region around the candidate line pass, The computer calculates an inclination weight that is an index for identifying the candidate line and indicates an inclination of a tangent line of the candidate line for each passing pixel, A candidate line identification index calculation step of calculating a total value of the inclination weights for the candidate lines, and the computer calculates the total value of each of the candidate lines calculated in the candidate line identification index calculation step. Based on the parameter value peripheral region around the coordinate value of one of the parameter combinations in the parameter space corresponding to one of the candidate lines, the other of the other above the total value of the one candidate line A search is performed for the presence or absence of coordinate values of other parameter combinations corresponding to the candidate line, and the total value of the other candidate lines that exceeds the total value of the one candidate line is not present in the parameter value peripheral region. In some cases, the present invention includes an actual line determination control step for performing control for determining one candidate line as an actual line.

本発明のプログラムは、画像内の画素を通り得る線を特定のパラメータを含む方程式で表し、この方程式の前記パラメータを座標軸とするパラメータ空間部を利用して前記画像内から線を抽出する処理をコンピュータが実行可能なプログラムであって、前記パラメータ空間部の前記パラメータの組み合わせがとる座標値に基づいて、前記座標値に対応する前記画像内の各候補線を描画する制御を行う候補線描画制御機能と、前記候補線及び該候補線の周辺の候補線周辺領域が通過する通過画素を、各々の前記候補線について決定する候補線周辺領域決定機能と、前記候補線を識別する指標であって前記候補線の接線の傾きを示す傾き重みを前記通過画素毎に算出し、各々の前記候補線について前記傾き重みの合計値を算出する候補線識別指標算出機能と、前記候補線識別指標算出機能にて算出された各々の前記候補線の各々の前記合計値に基づいて、一の前記候補線に対応する前記パラメータ空間部での一の前記パラメータの組み合わせの座標値の周辺のパラメータ値周辺領域内に、一の前記候補線の前記合計値を上回る他の前記候補線に対応する他の前記パラメータの組み合わせの座標値の有無を探索し、前記パラメータ値周辺領域内にて一の前記候補線の前記合計値を上回る他の前記候補線の前記合計値がない場合には、一の前記候補線を実在線として決定する制御を行う実在線決定制御機能と、を含む機能をコンピュータに実行させることを特徴としている。   The program of the present invention represents a process of extracting a line from the image by using a parameter space part having the parameter of the equation as a coordinate axis, and representing a line that can pass through a pixel in the image by an equation including a specific parameter. Candidate line drawing control that is a computer-executable program and performs control for drawing each candidate line in the image corresponding to the coordinate value based on the coordinate value taken by the combination of the parameters in the parameter space portion A function, a candidate line peripheral region determination function for determining the candidate line and a passing pixel through which the candidate line peripheral region around the candidate line passes, and an index for identifying the candidate line A candidate line identification index for calculating an inclination weight indicating an inclination of a tangent line of the candidate line for each passing pixel and calculating a total value of the inclination weights for each of the candidate lines. Based on the total value of each of the candidate lines calculated by the output function and the candidate line identification index calculation function, one parameter of the parameter space unit corresponding to the one candidate line The parameter value surrounding the coordinate value of the combination is searched for the presence or absence of the coordinate value of the other parameter combination corresponding to the other candidate line that exceeds the total value of the one candidate line, and the parameter Real line determination control for performing control to determine one candidate line as a real line when there is no total value of the other candidate lines that exceeds the total value of one candidate line in a value peripheral region And having the computer execute a function including the function.

本発明によれば、パラメータ毎に対応する線を画像上に描画し、パラメータ空間部と画像とで線が1対1対応するようにするため、線の検出精度が画像上均一となり、また、これを単純にパラメータに従って画像上に線を描画するという簡単な処理で実現し、その描画する線についても、近傍内に他に自身より個数を上回るものとして、個数を制限し、計算負荷も低減できるという、関連技術にない優れた画像処理装置、画像処理システム、画像処理方法、及びプログラムを提供することができる。   According to the present invention, a line corresponding to each parameter is drawn on an image so that the parameter space portion and the image have a one-to-one correspondence, so that the detection accuracy of the line is uniform on the image, This is realized by a simple process of drawing a line on the image according to the parameters, and the number of lines to be drawn is limited in number in the vicinity, exceeding the number of others, and the calculation load is reduced. It is possible to provide an excellent image processing apparatus, image processing system, image processing method, and program that are not available in related technologies.

〔画像処理装置の基本的構成〕
先ず、画像処理装置の基本的構成について説明する。本発明の画像処理装置は、画像内の画素を通り得る線を特定のパラメータを含む方程式で表し、この方程式の前記パラメータを座標軸とするパラメータ空間部を利用して前記画像内から線を抽出する処理を行うものである。
[Basic configuration of image processing apparatus]
First, the basic configuration of the image processing apparatus will be described. The image processing apparatus of the present invention expresses a line that can pass through a pixel in an image by an equation including a specific parameter, and extracts a line from the image by using a parameter space portion having the parameter of the equation as a coordinate axis. The processing is performed.

この画像処理装置は、前記パラメータ空間部の前記パラメータの組み合わせがとる座標値に基づいて、前記座標値に対応する前記画像内の各候補線を描画する制御を行う候補線描画制御手段(例えば図1に示す符号40aや図10に示す符号142など)を有する。   The image processing apparatus includes candidate line drawing control means (for example, FIG. 5) that performs control for drawing each candidate line in the image corresponding to the coordinate value based on the coordinate value taken by the combination of the parameters in the parameter space portion. No. 40a shown in No. 1 and No. 142 shown in FIG.

また、画像処理装置は、前記候補線及び該候補線の周辺の候補線周辺領域が通過する通過画素を、各々の前記候補線について決定する候補線周辺領域決定手段(例えば図1に示す符号47など)を有する。   In addition, the image processing apparatus is a candidate line peripheral area determining unit (for example, reference numeral 47 shown in FIG. 1) that determines, for each of the candidate lines, the candidate line and passing pixels through which the candidate line peripheral area around the candidate line passes. Etc.).

さらに、画像処理装置は、前記候補線を識別する指標であって前記候補線の接線の傾きを示す傾き重みを前記通過画素毎に算出し、各々の前記候補線について前記傾き重みの合計値を算出する候補線識別指標算出手段(例えば図1に示す符号40dなど)を有する。   Further, the image processing apparatus calculates, for each passing pixel, an inclination weight that is an index for identifying the candidate line and indicates an inclination of a tangent line of the candidate line, and calculates a total value of the inclination weight for each candidate line. Candidate line identification index calculating means for calculating (for example, reference numeral 40d shown in FIG. 1) is included.

また、画像処理装置は、前記候補線識別指標算出手段にて算出された各々の前記候補線の各々の前記合計値に基づいて、一の前記候補線に対応する前記パラメータ空間部での一の前記パラメータの組み合わせの座標値の周辺のパラメータ値周辺領域内に、一の前記候補線の前記合計値を上回る他の前記候補線に対応する他の前記パラメータの組み合わせの座標値の有無を探索し、前記パラメータ値周辺領域内にて一の前記候補線の前記合計値を上回る他の前記候補線の前記合計値がない場合には、一の前記候補線を実在線として決定する制御を行う実在線決定制御手段(例えば図1に示す符号51など)を有する。   In addition, the image processing apparatus is configured to perform one operation in the parameter space unit corresponding to one candidate line based on the total value of each candidate line calculated by the candidate line identification index calculating unit. In the parameter value peripheral area around the coordinate value of the parameter combination, search for the presence or absence of coordinate values of another parameter combination corresponding to the other candidate line that exceeds the total value of the one candidate line. When there is no total value of the other candidate lines that exceeds the total value of the one candidate line in the parameter value peripheral region, control is performed to determine one candidate line as a real line. Line determination control means (for example, reference numeral 51 shown in FIG. 1) is included.

このような画像処理装置では、各パラメータで画像上に線を描画して、その線に属する画素の数を数えなおす。ここでは抽出したパラメータを元に画像上に線を描画して構成画素数を数えなおす。検出した線について画素数を数えなおすことにより、1組のパラメータに対する線は1本だけとすることができ、隣接して検出された画素を同一パラメータとすることがなくなる。   In such an image processing apparatus, a line is drawn on the image with each parameter, and the number of pixels belonging to the line is counted again. Here, lines are drawn on the image based on the extracted parameters, and the number of constituent pixels is counted again. By re-counting the number of pixels for the detected line, only one line for a set of parameters can be obtained, and adjacently detected pixels are not set to the same parameter.

また、この画像処理装置では、検出された線の近傍に良く似た線が重複して検出されることを防ぐことができる。   Further, in this image processing apparatus, it is possible to prevent a line that is very similar to the vicinity of the detected line from being detected repeatedly.

さらに、この画像処理装置では、ハフ変換せずに最初から逆ハフ変換して検出すべき線を構成するパラメータの組を見出すことで、ハフ変換する場合の計算を回避できる。   Furthermore, in this image processing apparatus, calculation in the case of the Hough transform can be avoided by finding a set of parameters constituting the line to be detected by performing the inverse Hough transform from the beginning without performing the Hough transform.

以下、このような本発明の「画像処理装置」を、「画像処理システム」に適用した好適な実施の形態の一例について、図面を参照して具体的に説明する。   Hereinafter, an example of a preferred embodiment in which such an “image processing apparatus” of the present invention is applied to an “image processing system” will be specifically described with reference to the drawings.

〔第1の実施の形態〕
(画像処理システムの全体構成)
先ず、本実施の形態の画像処理システムの具体的構成について、全体構成から説明し、続いて各部の詳細構成について説明することとする。図1は、本発明における第1実施の形態の画像処理システムの全体の概略構成の一例を示すブロック図である。
[First Embodiment]
(Overall configuration of image processing system)
First, the specific configuration of the image processing system according to the present embodiment will be described from the overall configuration, and then the detailed configuration of each unit will be described. FIG. 1 is a block diagram showing an example of a schematic configuration of the entire image processing system according to the first embodiment of the present invention.

本第1の実施の形態の画像処理システム1は、図1に示すように、ビデオカメラ等やキーボード等から構成される入力装置10と、プログラム制御により動作する画像処理装置40と、情報を記憶する記憶装置20と、ディスプレイ装置などの表示部や印刷装置等の画像形成部などにて構成される出力装置30と、を含んで構成される。   As shown in FIG. 1, the image processing system 1 according to the first embodiment stores an input device 10 including a video camera, a keyboard, and the like, an image processing device 40 operated by program control, and information. Storage device 20 and an output device 30 including a display unit such as a display device and an image forming unit such as a printing device.

ここで、図1の中で異なる装置に属する部や手段間のデータ参照などのデータの結びつきについては、装置間の一本の矢印で全結びつきを代用することにする。   Here, regarding the data connection such as the data reference between the units and means belonging to different devices in FIG. 1, the entire connection is substituted by one arrow between the devices.

入力装置10は、ビデオカメラやデジタルカメラ、スキャナ、顕微鏡、望遠鏡、X診断器、超音波診断器、レーダー、ソーナー等で得られた、画像を入力する画像入力部11と、キーボードやマウス、タッチパネル等、文字情報を入力する文字入力部12とを備えている。   The input device 10 includes an image input unit 11 for inputting an image obtained by a video camera, a digital camera, a scanner, a microscope, a telescope, an X diagnostic device, an ultrasonic diagnostic device, a radar, a sonar, and the like, a keyboard, a mouse, and a touch panel. And a character input unit 12 for inputting character information.

画像入力部11に入力されるものは2次元の静止画像であってもよいし、3次元の空間データであってもよいし、動画であってもよいし、速度場や磁場などの様々な空間的時間的広がりを持つ物理量や、特定関数による畳み込みなど各種演算により得られた画像特徴量やその時間変化を高次元で表したものであってもよい。   What is input to the image input unit 11 may be a two-dimensional still image, a three-dimensional spatial data, a moving image, or a variety of speed fields and magnetic fields. It may be a high-dimensional representation of a physical quantity having a spatial and temporal spread, an image feature quantity obtained by various operations such as convolution with a specific function, and its temporal change.

記憶装置20は、前記文字入力部12から入力された各種閾値を保持する閾値記憶部21と、線検出の際に使うパラメータ空間や検出候補の線のリストなどを保持するパラメータ空間記憶部22と、前記画像入力部11から入力された入力画像と前記画像処理装置40内の各部による処理途中の画像や処理結果の画像を保持する画像記憶部23と、を備えている。記憶装置20は、一又は複数のメモリ、ハードディスク等や他の種々のコンピュータにより構成することもできる。   The storage device 20 includes a threshold storage unit 21 that stores various thresholds input from the character input unit 12, a parameter space storage unit 22 that stores a parameter space used for line detection, a list of detection candidate lines, and the like. And an image storage unit 23 for holding an input image input from the image input unit 11, an image being processed by each unit in the image processing apparatus 40, and an image of a processing result. The storage device 20 can also be configured by one or a plurality of memories, a hard disk, and other various computers.

出力装置30は、コンピュータディスプレイやテレビモニタ、プロジェクタ、プリンタ等、画像を表示する画像出力部31と、前記画像記憶部23に保存された画像をユーザの指示に従って画像出力部31に表示させる表示制御部32と、を備えている。   The output device 30 includes an image output unit 31 that displays an image, such as a computer display, a television monitor, a projector, and a printer, and a display control that causes the image output unit 31 to display an image stored in the image storage unit 23 according to a user instruction. Part 32.

画像処理装置40は、画像の各画素について2値化処理を行い検出対象の候補領域を抽出する2値化処理部41と、この候補領域内の一つの画素を通り得る全ての線を表現する方程式の各パラメータの各値の組みあわせ(例えばρ、θの値の組)を算出するパラメータ算出部42と、各パラメータを座標軸とするパラメータ空間(例えばパタメータがρ、θの2つであれば2次元座標系、パラメータが3つであれば3次元座標系)上に前記パラメータ算出部42にて算出された各値の組を描画するパラメータ線描画部43と、を含んで構成される。   The image processing apparatus 40 represents a binarization processing unit 41 that performs binarization processing on each pixel of the image and extracts a candidate region to be detected, and all lines that can pass through one pixel in the candidate region. A parameter calculation unit 42 that calculates a combination of values of each parameter of the equation (for example, a combination of values of ρ and θ), and a parameter space that has each parameter as a coordinate axis (for example, if there are two parameters ρ and θ) A parameter line drawing unit 43 that draws each set of values calculated by the parameter calculation unit 42 on a two-dimensional coordinate system, or a three-dimensional coordinate system if there are three parameters).

また、画像処理装置40は、パラメータ空間上の各パラメータ線が交差する交差点の座標位置及び重なり回数(交差回数)を検出する交差点検出部44と、この交差点での重なり回数に基づいて交差点の有力候補を選別する重なり回数計量部45と、を含んで構成される。   The image processing apparatus 40 also detects the coordinate position of the intersection where each parameter line on the parameter space intersects and the number of times of overlap (number of times of intersection), and the potential of the intersection based on the number of times of overlap at this intersection. And an overlap count measuring unit 45 for selecting candidates.

さらに、画像処理装置40は、画像上に有力候補線を描画する有力候補線描画部46と、有力候補線が通る画素及び有力候補線の近傍の画像の座標位置を算出する通過判定部47と、有力候補線に関する傾き重みを有力候補線の各画素について算出する重み算出部48と、有力候補線の各画素の傾き重み及び画素数などを計量する個数計量部49と、この個数計量部49での計量結果に基づいて実在線を判定する実在線判定部51と、判定された実在線を描画する実在線画像生成部52と、これら各部の実行手順を制御するモジュール制御部53と、を含む構成としている。   Further, the image processing apparatus 40 includes a leading candidate line drawing unit 46 that draws leading candidate lines on the image, a passage determining unit 47 that calculates the coordinates of pixels passing through the leading candidate lines and images near the leading candidate lines. , A weight calculating unit 48 for calculating the inclination weight for the leading candidate line for each pixel of the leading candidate line, a number measuring unit 49 for measuring the inclination weight and the number of pixels of each pixel of the leading candidate line, and the number measuring unit 49 A real line determination unit 51 that determines a real line based on the measurement result in FIG. 2, a real line image generation unit 52 that draws the determined real line, and a module control unit 53 that controls the execution procedure of each unit. It is configured to include.

(画像処理装置の各部の詳細構成)
2値化処理部41は、画像記憶部23を参照し、入力画像の画素値に基づいて、検出対象である直線や曲線の候補となる領域とそれ以外の領域の2つの領域をそれぞれ候補領域及び背景領域として、画像を2つの領域に分割する。
(Detailed configuration of each part of the image processing apparatus)
The binarization processing unit 41 refers to the image storage unit 23, and based on the pixel value of the input image, each of the two regions, that is, a region that is a candidate for a straight line or a curve that is a detection target and a region other than that are candidate regions The image is divided into two areas as a background area.

この2値化処理部41にて、画像を2つの領域に分割する画像の2値化処理には以下に示す種々の手法にて処理を行うことができる。
2値化処理の第一の手法として、例えば候補領域の画素数の全体に対する割合を、予め閾値として定めて閾値記憶部21に保存し、その閾値に基づいて画像を2値化するPタイル法を適用してもよい。
また、2値化処理の第二の手法として、例えば横軸を画素値、縦軸を頻度としたヒストグラムを作成し、ヒストグラムが双峰形と仮定してその谷を閾値として2値化するモード法を適用してもよい。
さらに、2値化処理の第三の手法として、候補領域と背景領域各々の内部で画素値の分散が最小になり且つ、候補領域と背景領域の間で分散が大きくなるように閾値を決めて2値化する判別分析法を適用してもよい。
またさらに、2値化処理の第四の手法として、予め画素値の閾値を定め、閾値記憶部21に保存し、その閾値より画素値が大きいかどうかで画像を2値化する固定閾値法を適用してもよい。
また、2値化処理の第五の手法として、画像を一定サイズの小領域に分割し、小領域毎にPタイル法やモード法や判別分析法を使う動的閾値法を適用してもよい。
In the binarization processing unit 41, the binarization processing of an image that divides an image into two regions can be performed by various methods described below.
As a first method of binarization processing, for example, a ratio of the total number of pixels in a candidate area is set as a threshold value in advance and stored in the threshold storage unit 21, and the image is binarized based on the threshold value. May be applied.
In addition, as a second method of binarization processing, for example, a histogram is created in which the horizontal axis represents pixel values and the vertical axis represents frequency, and the histogram is assumed to be bimodal and binarized using the valley as a threshold value. Laws may apply.
Furthermore, as a third method of the binarization process, a threshold value is determined so that the variance of the pixel value is minimized within each of the candidate region and the background region, and the variance is increased between the candidate region and the background region. A discriminant analysis method for binarization may be applied.
Further, as a fourth method of the binarization process, a fixed threshold method is adopted in which a threshold value of a pixel value is set in advance and stored in the threshold value storage unit 21 and the image is binarized depending on whether the pixel value is larger than the threshold value. You may apply.
Further, as a fifth method of binarization processing, a dynamic threshold method may be applied in which an image is divided into small areas of a certain size and a P tile method, a mode method, or a discriminant analysis method is used for each small area. .

パラメータ算出部42は、入力画像上の前記候補領域の各画素において、その画素を通り得る全ての直線や曲線を表現する方程式の各パラメータの各値の組み合わせを算出する。   The parameter calculation unit 42 calculates, for each pixel in the candidate area on the input image, a combination of values of each parameter of an equation representing all straight lines and curves that can pass through the pixel.

例えば、直線を原点からの距離ρと、x軸との角度θを使ってρ=xcosθ+ysinθと表現する場合、ある候補領域の画素の座標が(x,y)ならば、この画素を通り得る全ての直線はパラメータ空間上ではρ=xcosθ+ysinθという曲線で表される。0≦θ≦πであるからこの範囲でθを変化させてρを求める。
また、例えば、中心座標(a,b)半径rの円を検出する場合、ある候補領域の座標が(x,y)ならば、この画素を通り得る全ての円はa,b,rを軸とするパラメータ空間で(a−x+(b−y=rという円で表される。この場合例えば(a,b)を変化させてrを求める。
For example, when a straight line is expressed as ρ = x cos θ + y sin θ using a distance ρ from the origin and an angle θ with the x axis, if the coordinates of a pixel in a certain candidate region are (x i , y i ), the pixel passes through this pixel. All the obtained straight lines are represented by a curve of ρ = x i cos θ + y i sin θ in the parameter space. Since 0 ≦ θ ≦ π, ρ is obtained by changing θ within this range.
Also, for example, when detecting a circle with a center coordinate (a, b) radius r, if the coordinates of a certain candidate region are (x i , y i ), all circles that can pass through this pixel are a, b, r. Is represented by a circle of (ax i ) 2 + (b−y i ) 2 = r 2 . In this case, for example, r is obtained by changing (a, b).

パラメータ線描画部43は、各パラメータについて各々を座標軸とした空間をパラメータ空間とし、そのパラメータ空間上に前記パラメータの値の組み合わせ全てを描画する処理を行う。
ここで、一つの画素に対して通り得る全ての線を表現する方程式の各パラメータの各値の組の集合をパラメータ線とする。この場合、パラメータ線描画部43は、パラメータ空間上に一つの画素に対応する像としてパラメータ線を曲線状あるいは直線状に描画する。具体的には、図2に示すように、各画素PX1、PX2、・・について行うと、各パラメータ線PL1、PL2、・・・が描画されることになる。
The parameter line drawing unit 43 performs a process of drawing all combinations of the parameter values on the parameter space, with each parameter being a space having coordinate axes as parameter spaces.
Here, a set of each value set of each parameter of the equation expressing all the lines that can pass for one pixel is defined as a parameter line. In this case, the parameter line drawing unit 43 draws the parameter line as a curve or a straight line as an image corresponding to one pixel on the parameter space. Specifically, as shown in FIG. 2, when each pixel PX1, PX2,... Is performed, each parameter line PL1, PL2,.

例えば、パラメータ線描画部43は、パラメータ線描画用にパラメータ空間をパラメータ空間記憶部22に確保し、あり得る全てのパラメータの値の組を描画する。
パラメータ空間の各座標軸の離散化幅や値の範囲は、例えば予め与えられ閾値記憶部21に保持されている。
パラメータ空間へのパラメータ線の描画手法としては、例えば何も描画していない要素に収められる値をゼロとし、描画するパラメータ線とパラメータ空間(例えば図8の上段に示すρ―θ平面)上の座標が一致する要素(例えば図8の下段に示すパラメータ記憶部乗のアドレス空間)については値を1ずつ増加させる。増加させる値は一定であれば1でなくてもよい。こうして値を増加した要素の連なりがパラメータ線である。候補領域内の画素毎に一本ずつパラメータ線が生成されることになる。逆に、要素の値を減少させて減少した要素に注目してもよい。
For example, the parameter line drawing unit 43 reserves a parameter space in the parameter space storage unit 22 for parameter line drawing, and draws all possible parameter value pairs.
The discretization width and the value range of each coordinate axis in the parameter space are given in advance and held in the threshold storage unit 21, for example.
As a method for drawing a parameter line in the parameter space, for example, the value stored in an element in which nothing is drawn is set to zero, and the parameter line to be drawn and the parameter space (for example, the ρ-θ plane shown in the upper part of FIG. 8) The value is incremented by 1 for an element whose coordinates coincide (for example, the address space of the parameter storage unit power shown in the lower part of FIG. The value to be increased need not be 1 as long as it is constant. A series of elements whose values are thus increased is a parameter line. One parameter line is generated for each pixel in the candidate area. On the contrary, you may pay attention to the element which decreased by decreasing the value of the element.

交差点検出部44は、候補領域内の全画素についてパラメータ線を描画し、パラメータ空間上でパラメータ線同士が重なる点の座標を交差点として求める。   The intersection detection unit 44 draws a parameter line for all the pixels in the candidate area, and obtains the coordinates of the point where the parameter lines overlap in the parameter space as an intersection.

例えば、交差点検出部44は、前記パラメータ空間を参照し、各要素の値を読み出し、値が2以上の場合は、交差点としてその値とパラメータ空間上の座標を全て交差点リストとしてパラメータ空間記憶部22に保存する。   For example, the intersection detection unit 44 refers to the parameter space, reads out the value of each element, and when the value is 2 or more, the parameter space storage unit 22 converts all of the values and coordinates on the parameter space as intersections into an intersection list. Save to.

重なり回数計量部45は、パラメータ線同士が重なる回数が予め外部から与えた閾値より大きい座標であり、且つ、予め定めた近傍内(例えば図3に示す交差部周辺領域)で他に前記重なる回数を上回る箇所が無い座標が指し示すパラメータの組み合わせを、検出対象となる直線や曲線のパラメータ組み合わせの有力候補とする。
すなわち、交差点での交差回数が特定の閾値以上で前記交差点の近傍に、より交差回数の多い近傍交差点がない場合に前記交差点を有力候補線に対応する交差点とする。
The overlap count measuring unit 45 is a coordinate whose number of parameter lines overlaps is larger than a threshold given from the outside in advance, and the number of overlaps in a predetermined neighborhood (for example, the intersection peripheral area shown in FIG. 3). A combination of parameters indicated by coordinates that do not have a portion exceeding the value is a potential candidate for a parameter combination of a straight line or a curve to be detected.
That is, when the number of intersections at an intersection is equal to or greater than a specific threshold and there is no neighboring intersection with a greater number of intersections in the vicinity of the intersection, the intersection is determined to be an intersection corresponding to a potential candidate line.

例えば、重なり回数計量部45は、前記交差点リストの交差点について、要素の値が閾値記憶部21に保持されている閾値より大きい場合であり、且つ、予め定めた近傍内で他に要素の値が上回る箇所がない場合、交差点リスト上、該当するパラメータの組み合わせに有力候補線であることを示す有力候補線ビットを0から1に変える。
有力候補線ビットは、交差点リスト生成時は0に初期化される。この代わりに1に初期化して有力候補線と判定したら0に変えるとしてもよい。
For example, the overlap number measurement unit 45 is a case where the value of an element is greater than a threshold value stored in the threshold value storage unit 21 for an intersection in the intersection list, and other element values exist within a predetermined neighborhood. If there are no more points, the potential candidate line bit indicating that it is a potential candidate line is changed from 0 to 1 in the corresponding parameter combination on the intersection list.
The leading candidate line bit is initialized to 0 when the intersection list is generated. Instead, it may be initialized to 1 and changed to 0 if it is determined as a potential candidate line.

また、0、1のビットではなく、0、1以外の任意の数値で区別するようにしてもよい。自己より値が大きい箇所が無いかどの程度の範囲内で探索するのかは、例えば閾値記憶部21に保存してある値を参照する。
一般的にハフ変換では、同じような線がすぐ近くに数多く検出されることがあるが、近傍内を探索して確認することにより、複数の線が集中して検出される現象を防ぐ。
Further, instead of 0 and 1 bits, it may be distinguished by any numerical value other than 0 and 1. The value stored in the threshold value storage unit 21 is referred to, for example, as to the extent to which the search is performed for a portion having a value larger than the self.
In general, in the Hough transform, many similar lines may be detected in the immediate vicinity, but a phenomenon in which a plurality of lines are detected in a concentrated manner is prevented by searching and confirming the vicinity.

有力候補線描画部46は、パラメータ空間上その有力候補及び有力候補の近傍で有力候補から予め外部から与えた距離内にあるパラメータの組み合わせ(例えば図4に示す有力候補領域)について、それらパラメータに従って画像上に直線や曲線を有力候補線として描画する。
具体的には、図4に示すように、有力候補領域について、交差点PO1に対応する有力候補線PCL1、交差点PO2に対応する有力候補線PCL2、交差点PO3の対応する有力候補線PCL3という具合に、候補領域CA内で順次描画を行う。
The leading candidate line drawing unit 46 determines a combination of parameters (for example, leading candidate areas shown in FIG. 4) in the parameter space and within the distance previously given from the leading candidate in the vicinity of the leading candidate and the leading candidate according to the parameters. Draw straight lines and curves on the image as potential candidate lines.
Specifically, as shown in FIG. 4, for a potential candidate area, a potential candidate line PCL1 corresponding to the intersection PO1, a potential candidate line PCL2 corresponding to the intersection PO2, a potential candidate line PCL3 corresponding to the intersection PO3, and so on. Drawing is sequentially performed in the candidate area CA.

例えば、有力候補線描画部46は、前記交差点リスト上、有力候補線ビットが1など有力候補線とみなされているパラメータの組み合わせについて、そのパラメータに従って画像上に直線や曲線を有力候補線として描画する。
有力候補線を描画する手法としては、例えば画像記憶部23に入力画像と同じ大きさの画像領域を有力候補線画像として確保し全画素値をゼロとし、直線や曲線方程式から描画する線と座標が一致する画素について値を1とする。また例えば有力候補線毎に区別できるように値を変えてもよい。また例えば有力候補線画像ではなく2値化画像に描画してもよい。
ただしこの場合、有力候補線の画素値は、候補領域の画素値とも背景領域の画素値とも異なる値とする。
For example, the leading candidate line drawing unit 46 draws a straight line or a curve as a leading candidate line on the image according to the parameter combination that is considered to be a leading candidate line such as a leading candidate line bit is 1 on the intersection list. To do.
As a technique for drawing a strong candidate line, for example, an image area having the same size as the input image is secured in the image storage unit 23 as a strong candidate line image, all pixel values are set to zero, and lines and coordinates drawn from a straight line or a curve equation are used. The value is set to 1 for pixels that match. Further, for example, the value may be changed so that each candidate line can be distinguished. Further, for example, the image may be drawn in a binarized image instead of a leading candidate line image.
In this case, however, the pixel value of the leading candidate line is different from the pixel value of the candidate area and the pixel value of the background area.

通過判定部47は、各々の有力候補線について、画像上の候補領域内で有力候補線が通過する画素及び有力候補線から予め定めた範囲内の近傍(例えば図5に示す候補線周辺領域CA)にある画素を通過画素としてその座標を求める。   The passage determination unit 47 determines, for each potential candidate line, a pixel within the candidate area on the image through which the potential candidate line passes and a neighborhood within a predetermined range from the potential candidate line (for example, the candidate line peripheral area CA shown in FIG. 5). ), The coordinates of the pixel located at (1) are obtained as passing pixels.

例えば、通過判定部47は、前記有力候補線画像を参照し、画素値が1となる画素のように有力候補線を構成する画素を注目画素とし、注目画素の座標で有力候補線の法線を求め法線方向について、有力候補線からの距離が閾値記憶部21に保持されている閾値の範囲内にある複数の画素の座標を求める(例えば図5に示す候補線周辺領域CA)。
それらの画素と同じ座標にある2値化画像上の画素のうち、いずれか一つが候補領域にあるならば、通過画素とみなし通過画素全ての座標を通過画素リストとしてパラメータ空間記憶部22に保持する。
この他に、例えば、法線方向ではなく、注目画素を中心としたN×N画素の近傍領域で候補領域が含まれるかどうか判断してもよい。このとき、Nは、予め定め閾値記憶部21に保持されるものとする。
For example, the passage determination unit 47 refers to the leading candidate line image, sets a pixel that forms a leading candidate line, such as a pixel having a pixel value of 1, as a target pixel, and normals of the leading candidate line using the coordinates of the target pixel. For the normal direction, the coordinates of a plurality of pixels whose distance from the leading candidate line is within the threshold range held in the threshold storage unit 21 are obtained (for example, the candidate line peripheral area CA shown in FIG. 5).
If any one of the pixels on the binarized image at the same coordinates as those pixels is in the candidate area, it is regarded as a passing pixel and the coordinates of all the passing pixels are stored in the parameter space storage unit 22 as a passing pixel list. To do.
In addition, for example, it may be determined whether the candidate area is included in the vicinity area of N × N pixels centered on the target pixel, not in the normal direction. At this time, N is assumed to be held in a predetermined threshold storage unit 21.

重み算出部48は、注目画素における有力候補線の接線を求め、接線とx軸と成す角度の余弦(cosθ)の逆数の絶対値を求める。この絶対値が2の平方根以下の場合は、この角度の余弦の逆数の絶対値を傾き重みとし、それ以外は、正弦(sinθ)の逆数の絶対値を傾き重みとする。
傾き重みは、通過画素毎に算出する。また、傾き重みは、全ての有力候補線の全通過画素について算出し、例えばパラメータ空間記憶部22に保持する。
具体的には、図6に示すように、有力候補線PCL1に関する各通過画素について、傾き重みg1−1、傾き重みg1−2、・・・、有力候補線PCL2に関する各通過画素について、傾き重みg2−1、傾き重みg2−2、・・・のように順次算出する。
The weight calculation unit 48 obtains the tangent line of the probable candidate line at the target pixel, and obtains the absolute value of the reciprocal of the cosine (cos θ) of the angle formed between the tangent line and the x axis. If this absolute value is less than or equal to the square root of 2, the absolute value of the reciprocal of the cosine of this angle is the slope weight, and otherwise, the absolute value of the reciprocal of sine (sin θ) is the slope weight.
The inclination weight is calculated for each passing pixel. In addition, the inclination weight is calculated for all passing pixels of all possible candidate lines, and is stored in, for example, the parameter space storage unit 22.
Specifically, as shown in FIG. 6, with respect to each passing pixel relating to the leading candidate line PCL1, the inclination weight g1-1, the inclination weight g1-2,. It calculates sequentially like g2-1, inclination weight g2-2, ....

例えば、有力候補線が原点からの距離ρと、x軸との角度θを使ってρ=xcosθ+ysinθという直線で表現されるとする。有力候補線ρの接線とx軸との成す角度をφ(θ+φ=π/2)とすると、1/|cosφ|が√2以下の場合、すなわち、π/4≦φ≦π/2、π/2≦φ≦3π/4では、傾き重みは1/|cosφ|となる。また、1/|cosφ|が√2より大きい場合、すなわち、0≦φ≦π/4、3π/4≦φ≦πでは、傾き重みは1/|sinφ|となる。
ここで、傾き重みは、θを用いることもできる。角度θは、接線の法線とx軸とのなす角度であるから、傾き重みは0≦θ≦π/4あるいは3π/4≦θ≦πのときは、1/|cosθ|、それ以外の場合は1/|sinθ|となる。
また、直線に限らず曲線の場合も、図7に示すように、有力候補線PCL3を構成する各通過画素について接線の傾きにより、同様にして傾き重みを算出することができる。
For example, it is assumed that a potential candidate line is represented by a straight line of ρ = x cos θ + y sin θ using a distance ρ from the origin and an angle θ with the x axis. If the angle between the tangent line of the potential candidate line ρ and the x axis is φ (θ + φ = π / 2), 1 / | cos φ | is less than or equal to √2, that is, π / 4 ≦ φ ≦ π / 2, π For / 2 ≦ φ ≦ 3π / 4, the slope weight is 1 / | cos φ |. When 1 / | cos φ | is larger than √2, that is, when 0 ≦ φ ≦ π / 4 and 3π / 4 ≦ φ ≦ π, the inclination weight is 1 / | sin φ |.
Here, θ can also be used as the inclination weight. Since the angle θ is an angle formed between the normal line of the tangent line and the x-axis, when the inclination weight is 0 ≦ θ ≦ π / 4 or 3π / 4 ≦ θ ≦ π, 1 / | cos θ | In this case, 1 / | sinθ |.
Further, in the case of a curved line as well as a straight line, as shown in FIG. 7, the inclination weight can be calculated in the same manner from the inclination of the tangent line for each passing pixel constituting the leading candidate line PCL3.

個数計量部49は、各々の有力候補線について、全通過画素の傾き重みを合計して個数とし、その結果(傾き重みの合計値、画素数)をパラメータ空間記憶部22に保持する。
具体的には、図6に示すように、有力候補線PCL1に関して全通過画素の第1の傾き重み合計値Sg1、有力候補線PCL2に関して全通過画素の第2の傾き重み合計値Sg2、・・のように算出していく。
The number measuring unit 49 sums the inclination weights of all the passing pixels for each of the probable candidate lines to obtain the number, and stores the result (total value of inclination weights, the number of pixels) in the parameter space storage unit 22.
Specifically, as shown in FIG. 6, the first inclination weight total value Sg1 of all the passing pixels with respect to the leading candidate line PCL1, the second inclination weight total value Sg2 of all the passing pixels with respect to the leading candidate line PCL2,. Calculate as follows.

実在線判定部51は、前記個数が予め外部から与えた閾値より多い場合であり、且つ、パラメータ空間上予め定めた近傍内で他に前記個数を上回る箇所が無い場合、その有力候補線は、実際に画像上に存在する線(実在線)であると判定するものである。   The actual line determination unit 51 is a case where the number is greater than a threshold given in advance from the outside, and when there is no other location exceeding the number within a predetermined neighborhood in the parameter space, the potential candidate line is It is determined that the line actually exists on the image (real line).

例えば、実在線判定部51は、傾き重みの合計が、閾値記憶部21に保持され予め定めた閾値より大きい場合であり、且つ、パラメータ空間上予め定めた近傍内で他に前記傾き重みの合計が上回る箇所が無い場合、実在線として前記交差点リスト上、実在線ビットを0から1に変える。
実在線ビットは、交差点リスト生成時は0に初期化される。この代わりに1に初期化して実在線と判定したら0に変えるとしてもよい。また、0、1を示す1ビットではなく、0、1以外の任意の数値で区別するよう多ビットにしてもよい。
どの程度近傍を探索するかは、例えば閾値記憶部21に保存されている値を参照する。近傍を探索する理由は、重なり回数計量部45の場合と同様である。すなわち、一般的にハフ変換では、同じような線がすぐ近くに数多く検出されることがあるが、近傍内を探索して確認することにより、複数の線が集中して検出される現象を防ぐ。
For example, the actual line determination unit 51 is a case where the total inclination weight is larger than a predetermined threshold value held in the threshold value storage unit 21 and the total of the inclination weights is within a predetermined vicinity in the parameter space. If there is no portion exceeding, the real line bit is changed from 0 to 1 on the intersection list as a real line.
The actual line bit is initialized to 0 when the intersection list is generated. Instead, it may be initialized to 1 and changed to 0 if it is determined to be a real line. Further, it may be multi-bit so that it is distinguished by any numerical value other than 0 and 1 instead of 1 bit indicating 0 and 1.
For example, a value stored in the threshold storage unit 21 is referred to for how close the search is performed. The reason for searching for the neighborhood is the same as in the case of the overlap count measuring unit 45. That is, in general, in the Hough transform, many similar lines may be detected in the immediate vicinity, but a phenomenon in which a plurality of lines are detected in a concentrated manner can be prevented by searching and checking in the vicinity. .

実在線画像生成部52は、前記実在線のみを描画した画像を実在線画像として生成する。   The real line image generation unit 52 generates an image in which only the real line is drawn as a real line image.

例えば、実在線画像生成部52は、予め画像記憶部23に領域確保し全画素値をゼロとした出力画像上に、前記実在線ビットが1となっているパラメータの組み合わせについて線を描画する。
実在線を描画する手法としては、例えば、線を構成する画素の画素値を1として線を表現する。線ごとに画素値を変えて線を区別しやすいようにしてもよい。
この他、出力画像ではなく2値化画像に描画してもよい。この場合、候補領域及び背景領域と異なる画素値を与えて区別できるようにする。
さらに、入力画像に描画してもよい。この場合、例えば、入力画像のビットを反転させるなどして濃淡で表される入力画像にあっても検出した線が目立つように処理を行ってもよい。
For example, the real line image generation unit 52 draws a line for a combination of parameters in which the real line bit is 1 on an output image in which an area is previously secured in the image storage unit 23 and all pixel values are zero.
As a technique for drawing an actual line, for example, a line is expressed by setting the pixel value of a pixel constituting the line to 1. You may make it easy to distinguish a line by changing a pixel value for every line.
In addition, the image may be drawn on a binarized image instead of the output image. In this case, different pixel values from the candidate area and the background area are given so that they can be distinguished.
Furthermore, you may draw on an input image. In this case, for example, processing may be performed so that the detected line is conspicuous even in the input image expressed by shading by inverting the bits of the input image.

上述のような構成からなる画像処理システム1は、概略つぎのように動作する。
先ず、入力装置10から与えられた画像は、入力画像として画像記憶部23に保持される。
続いて、2値化処理部41は、画像を2値化して直線あるいは曲線があると思われる領域と無いと思われる領域に分割する。前者の領域を候補領域、後者の領域を背景領域とする。具体的には、画像記憶部23を参照し、入力画像の画素値に基づいて画像内を検出対象の候補領域と背景領域との2つの領域に分割する処理を行う。2値化処理された画像は、2値化画像として画像記憶部23に保持される。
The image processing system 1 configured as described above generally operates as follows.
First, an image given from the input device 10 is held in the image storage unit 23 as an input image.
Subsequently, the binarization processing unit 41 binarizes the image and divides the image into an area that seems to have a straight line or a curve and an area that seems to have no straight line or a curve. The former area is a candidate area, and the latter area is a background area. Specifically, the image storage unit 23 is referred to, and based on the pixel value of the input image, a process of dividing the image into two areas, that is, a candidate area to be detected and a background area, is performed. The binarized image is held in the image storage unit 23 as a binarized image.

次に、パラメータ算出部42により、候補領域の各画素に対応する各パラメータ線のパラメータ空間における座標位置を求め、パラメータ空間記憶部22の座標位置記憶領域に保持する。この際、候補領域の全画素の全パラメータ線について算出を行う。パラメータ線描画部43は、このパラメータ空間記憶部22の座標位置をもとに、パラメータ空間記憶部22のパラメータ線描画用記憶領域に確保されたパラメータ空間上に各パラメータ線を描画する。   Next, the parameter calculation unit 42 obtains the coordinate position in the parameter space of each parameter line corresponding to each pixel in the candidate region, and holds it in the coordinate position storage region of the parameter space storage unit 22. At this time, calculation is performed for all parameter lines of all pixels in the candidate area. The parameter line drawing unit 43 draws each parameter line on the parameter space secured in the parameter line drawing storage area of the parameter space storage unit 22 based on the coordinate position of the parameter space storage unit 22.

そして、交差点検出部44により、前記パラメータ空間記憶部22を参照し、各パラメータ線が交差する交差点の位置、交差点での重なり回数(交差回数)を検出し、交差点リストとしてパラメータ空間記憶部22の交差点リスト記憶領域に保存する。   Then, the intersection detection unit 44 refers to the parameter space storage unit 22 to detect the position of the intersection where each parameter line intersects and the number of times of intersection (number of intersections) at the intersection, and stores the intersection list in the parameter space storage unit 22. Save in the intersection list storage area.

続いて、重なり回数計量部44にて交差点を選別することで有力候補線の選別を行う。この選別結果をもとに、有力候補線描画部46が画像上に有力候補線を描画する。   Subsequently, the candidate number lines are selected by selecting the intersections in the overlapping number measurement unit 44. Based on the selection result, the leading candidate line drawing unit 46 draws a leading candidate line on the image.

次に、有力候補線の近傍領域を通過画素として通過判定部47により決定し、通過画素の通過画素リストをパラメータ記憶部22の通過画素リスト記憶領域に書き込む処理を行う。   Next, the passage determining unit 47 determines the vicinity region of the promising candidate line as a passing pixel, and performs a process of writing the passing pixel list of the passing pixel in the passing pixel list storage region of the parameter storage unit 22.

さらに、重み算出部48により、有力候補線の接線に基づいて全ての有力候補線の全通過画素について傾き重みを算出する。   Further, the weight calculation unit 48 calculates inclination weights for all passing pixels of all the potential candidate lines based on the tangent lines of the potential candidate lines.

個数計量部49は、各々の有力候補線の全通過画素について傾き重みの合計値を算出して個数とし、この個数(傾き重みの合計値)を数え、その個数が閾値を超えたか、パラメータ空間の近傍(候補部周辺領域)に前記個数を超える点(パラメータの各値の組み合わせ)がないか、を実在線判定部51により判定し、検出された実在線を実在線画像生成部52により画像上に描画する。   The number measuring unit 49 calculates the total value of the inclination weights for all the passing pixels of each of the probable candidate lines, and counts the number (total value of the inclination weights). The real line determination unit 51 determines whether there are more points (combinations of parameter values) in the vicinity (candidate part peripheral region) of the real line, and the real line image generation unit 52 detects the detected real line. Draw on top.

こうして線が描画された出力画像または入力画像または2値化画像は画像記憶部23に保持され、ユーザ指定時に表示制御部32の指示によって画像出力部31で表示される。   The output image, the input image, or the binarized image in which the line is drawn in this way is held in the image storage unit 23 and is displayed on the image output unit 31 in accordance with an instruction from the display control unit 32 when designated by the user.

ここで、本実施の形態のパラメータ算出部42、パラメータ線描画部43、交差点検出部44、重なり回数計量部45、有力候補線描画部46により、「候補線描画制御手段40a」を構成することもできる。また、本実施の形態の通過判定部47は、「候補線周辺領域決定手段」ということもできる。
さらに、本実施の形態の重み算出部48と個数計量部49により、「候補線識別指標算出手段40d」を構成することもできる。また、本実施の形態の実在線判定部51は、「実在線決定制御手段」ということもできる。
また、本実施の形態のパラメータ算出部42、パラメータ線描画部43により、「パラメータ空間部描画手段40b」を構成することもできる。
さらに、本実施の形態の交差点検出部44、重なり回数計量部45により、「選別手段40c」を構成することもできる。
さらにまた、本実施の形態の有力候補線描画部46は、「候補線描画手段」ということもできる。
また、本実施の形態の2値化処理部41は、「候補領域抽出手段」ということもできる。
Here, the parameter calculation unit 42, the parameter line drawing unit 43, the intersection detection unit 44, the overlap count measuring unit 45, and the leading candidate line drawing unit 46 of the present embodiment constitute the “candidate line drawing control means 40a”. You can also. Further, the passage determination unit 47 of the present embodiment can also be referred to as “candidate line peripheral region determination means”.
Furthermore, the “candidate line identification index calculating means 40d” may be configured by the weight calculating unit 48 and the number measuring unit 49 of the present embodiment. Further, the actual line determination unit 51 of the present embodiment can also be referred to as “real line determination control means”.
Further, the parameter calculation unit 42 and the parameter line drawing unit 43 according to the present embodiment can constitute the “parameter space drawing unit 40b”.
Furthermore, the “selecting means 40 c” can be configured by the intersection detection unit 44 and the overlap number measurement unit 45 of the present embodiment.
Furthermore, the leading candidate line drawing unit 46 of the present embodiment can also be referred to as “candidate line drawing means”.
Further, the binarization processing unit 41 of the present embodiment can also be referred to as “candidate area extraction means”.

前記候補線描画制御手段は、画像内の画素を通り得る線を特定のパラメータを含む方程式で表し、この方程式の前記パラメータを座標軸とするパラメータ空間部の前記パラメータの組み合わせがとる座標値に基づいて、前記座標値に対応する前記画像内の各候補線を描画する制御を行うことができる。
また、前記候補線周辺領域決定手段は、前記候補線及び該候補線の周辺の候補線周辺領域が通過する通過画素を、各々の前記候補線について決定することができる。
さらに、前記候補線識別指標算出手段は、前記候補線を識別する指標であって前記候補線の接線の傾きを示す傾き重みを前記通過画素毎に算出し、各々の前記候補線について前記傾き重みの合計値を算出することができる。
またさらに、前記実在線決定制御手段は、前記候補線識別指標算出手段にて算出された各々の前記候補線の各々の前記合計値に基づいて、一の前記候補線に対応する前記パラメータ空間部での一の前記パラメータの組み合わせの座標値の周辺のパラメータ値周辺領域内に、一の前記候補線の前記合計値を上回る他の前記候補線に対応する他の前記パラメータの組み合わせの座標値の有無を探索し、前記パラメータ値周辺領域内にて一の前記候補線の前記合計値を上回る他の前記候補線の前記合計値がない場合には、一の前記候補線を実在線として決定する制御を行うを行うことができる。
The candidate line drawing control means represents a line that can pass through a pixel in the image by an equation including a specific parameter, and is based on a coordinate value taken by a combination of the parameters in the parameter space portion having the parameter of the equation as a coordinate axis. Then, it is possible to perform control for drawing each candidate line in the image corresponding to the coordinate value.
In addition, the candidate line peripheral area determination unit can determine, for each of the candidate lines, a passing pixel through which the candidate line and a candidate line peripheral area around the candidate line pass.
Further, the candidate line identification index calculating means calculates an inclination weight that is an index for identifying the candidate line and that indicates an inclination of a tangent line of the candidate line for each passing pixel, and the inclination weight for each candidate line The total value of can be calculated.
Still further, the real line determination control means is configured to provide the parameter space portion corresponding to one candidate line based on the total value of each of the candidate lines calculated by the candidate line identification index calculation means. In the parameter value peripheral area around the coordinate value of the one parameter combination in the above, the coordinate value of the other parameter combination corresponding to the other candidate line that exceeds the total value of the one candidate line The presence / absence is searched, and if there is no total value of the other candidate lines exceeding the total value of the one candidate line in the parameter value peripheral region, the one candidate line is determined as a real line You can do control.

この場合、前記パラメータ空間部描画手段は、前記パラメータ空間部に、前記画素に対応するパラメータ空間図形要素を各々の各前記画素について描画することができる。前記選別手段は、各々の前記パラメータ空間図形要素が交差する交差部における交差回数と、前記交差部の周辺の交差部周辺領域の他の交差部の交差回数と、予め設定された交差回数閾値とに基づいて、前記画像内の候補線に対応する前記パラメータ空間部の前記パラメータの組み合わせの座標値の有力候補を選別することができる。前記候補線描画手段は、前記選別手段にて選別された前記有力候補の前記座標値の周辺の有力候補領域内の各座標値について、前記画像内に対応する候補線を描画することができる。   In this case, the parameter space drawing unit can draw a parameter space graphic element corresponding to the pixel for each of the pixels in the parameter space. The selecting means includes the number of intersections at the intersection where each of the parameter space graphic elements intersects, the number of intersections at other intersections around the intersection, and a preset intersection number threshold value. Based on the above, it is possible to select a potential candidate of the coordinate value of the parameter combination in the parameter space portion corresponding to the candidate line in the image. The candidate line drawing means can draw a corresponding candidate line in the image for each coordinate value in a strong candidate area around the coordinate value of the strong candidate selected by the selecting means.

また、前記候補領域抽出手段は、前記線を抽出可能な候補領域を前記画像内から抽出することができる。この場合に、前記候補線描画制御手段は、前記候補領域内の各々の前記候補線を描画することができる。また、前記実在線決定制御手段は、前記候補領域内の各々の前記候補線の中から実在線を決定することができる。   Further, the candidate area extracting means can extract a candidate area from which the line can be extracted from the image. In this case, the candidate line drawing control means can draw each of the candidate lines in the candidate area. The real line determination control means can determine a real line from among the candidate lines in the candidate area.

(処理手順について)
次に、上述のような構成を有する画像処理システムにおける各部の処理は、方法としても実現可能であり、画像処理方法としての各種の処理手順について、図9を参照しつつ説明する。
(About processing procedure)
Next, the processing of each unit in the image processing system having the above-described configuration can be realized as a method, and various processing procedures as the image processing method will be described with reference to FIG.

本実施の形態に係る画像処理方法は、画像内の画素を通り得る線を特定のパラメータを含む方程式で表し、この方程式の前記パラメータを座標軸とするパラメータ空間部を利用してコンピュータが前記画像内から線を抽出する処理を行う処理を行うものを対象とするものである。
この画像処理方法では、前記コンピュータが、前記パラメータ空間部の前記パラメータの組み合わせがとる座標値に基づいて、前記座標値に対応する前記画像内の各候補線を描画する制御を行う候補線描画制御ステップ(例えば図9に示すステップS100aなど)を有する。
さらに、画像処理方法では、前記コンピュータが、前記候補線及び該候補線の周辺の候補線周辺領域が通過する通過画素を、各々の前記候補線について決定する候補線周辺領域決定ステップ(例えば図9に示すステップS107など)を有する。
また、画像処理方法では、前記コンピュータが、前記候補線を識別する指標であって前記候補線の接線の傾きを示す傾き重みを前記通過画素毎に算出し、各々の前記候補線について前記傾き重みの合計値を算出する候補線識別指標算出ステップ(例えば図9に示すステップS100dなど)を有する。
さらに、画像処理方法では、前記コンピュータが、前記候補線識別指標算出ステップにて算出された各々の前記候補線の各々の前記合計値に基づいて、一の前記候補線に対応する前記パラメータ空間部での一の前記パラメータの組み合わせの座標値の周辺のパラメータ値周辺領域内に、一の前記候補線の前記合計値を上回る他の前記候補線に対応する他の前記パラメータの組み合わせの座標値の有無を探索し、前記パラメータ値周辺領域内にて一の前記候補線の前記合計値を上回る他の前記候補線の前記合計値がない場合には、一の前記候補線を実在線として決定する制御を行う実在線決定制御ステップ(例えば図9に示すステップS110など)を有する。
In the image processing method according to the present embodiment, a line that can pass through pixels in an image is represented by an equation including a specific parameter, and a computer uses the parameter space portion with the parameter of the equation as a coordinate axis to allow the computer to It is intended for processing that performs processing for extracting a line from a target.
In this image processing method, the computer performs control for drawing each candidate line in the image corresponding to the coordinate value based on the coordinate value taken by the combination of the parameters in the parameter space portion. Steps (for example, step S100a shown in FIG. 9).
Further, in the image processing method, the computer determines a candidate line peripheral region determining step for determining, for each candidate line, a passing pixel through which the candidate line and a candidate line peripheral region around the candidate line pass (for example, FIG. 9). Step S107 shown in FIG.
In the image processing method, the computer calculates, for each passing pixel, an inclination weight that is an index for identifying the candidate line and indicates an inclination of a tangent line of the candidate line, and the inclination weight for each candidate line. A candidate line identification index calculating step (for example, step S100d shown in FIG. 9).
Further, in the image processing method, the computer uses the parameter space unit corresponding to one candidate line based on the total value of each of the candidate lines calculated in the candidate line identification index calculating step. In the parameter value peripheral area around the coordinate value of the one parameter combination in the above, the coordinate value of the other parameter combination corresponding to the other candidate line that exceeds the total value of the one candidate line The presence / absence is searched, and if there is no total value of the other candidate lines exceeding the total value of the one candidate line in the parameter value peripheral region, the one candidate line is determined as a real line An actual line determination control step (for example, step S110 shown in FIG. 9) for performing control is included.

より詳細には、まず、コンピュータが、画素値に基づいて、検出対象である直線や曲線の候補となる領域とそれ以外の領域の2つの領域をそれぞれ候補領域及び背景領域として、画像を2つの領域に分割する(ステップS101)<2値化処理ステップ>。   More specifically, first, based on the pixel value, the computer uses two regions, a candidate region for a straight line or a curve to be detected, and another region as a candidate region and a background region, respectively. Dividing into regions (step S101) <binarization processing step>.

次に、前記コンピュータが、前記候補領域の各画素において、その画素を通り得る全ての直線や曲線を表現する方程式のパラメータの組み合わせを算出する(ステップS102)<パラメータ算出処理ステップ>。   Next, the computer calculates, for each pixel in the candidate region, a combination of parameters of an equation expressing all straight lines and curves that can pass through the pixel (step S102) <parameter calculation processing step>.

続いて、前記コンピュータが、前記パラメータについて各々を軸とした空間をパラメータ空間とし、その空間上に前記パラメータの組み合わせ全てをパラメータ線として曲線状あるいは直線状に描画する(ステップS103)<パラメータ線描画処理ステップ>。   Subsequently, the computer draws a space about each of the parameters as an axis as a parameter space, and draws all combinations of the parameters as parameter lines on the space in a curved line or a straight line (step S103) <parameter line drawing Processing step>.

さらに、前記コンピュータが、候補領域内の全画素についてパラメータ線を描画し、パラメータ空間上でパラメータ線同士が重なる点の座標を交差点として求める(ステップS104)<交差点検出処理ステップ>。   Further, the computer draws parameter lines for all the pixels in the candidate area, and obtains coordinates of points where the parameter lines overlap in the parameter space as intersections (step S104) <intersection detection processing step>.

加えて、前記コンピュータが、パラメータ線同士が重なる回数が予め外部から与えた閾値より大きい座標であり且つ予め定めた近傍内で他に前記重なる回数を上回る箇所が無い座標が指し示すパラメータの組み合わせを、検出対象となる直線や曲線のパラメータ組み合わせの有力候補とする(ステップS105)<重なり回数計数処理ステップ>。   In addition, the computer is a coordinate combination in which the number of overlapping parameter lines is a coordinate that is larger than a threshold given from the outside in advance and a parameter indicated by a coordinate that has no other location exceeding the number of overlapping within a predetermined neighborhood, It is set as a promising candidate for a parameter combination of a straight line or a curve to be detected (step S105) <overlap count processing step>.

次いで、前記コンピュータが、パラメータ空間上その有力候補及び有力候補の近傍で有力候補から予め外部から与えた距離内にあるパラメータの組み合わせについて、それらパラメータに従って画像上に直線や曲線を有力候補線として描画する(ステップS106)<有力候補線描画処理ステップ>。   Next, the computer draws a straight line or a curve as an effective candidate line on the image in accordance with the parameters for a combination of parameters in the parameter space and in the vicinity of the effective candidate and within the distance previously given from the effective candidate. (Step S106) <Influential candidate line drawing processing step>.

また、前記コンピュータが、各々の有力候補線について、画像上の候補領域内で有力候補線が通る画素及び有力候補線から予め定めた範囲内の近傍にある画素を通過画素としてその座標を求める(ステップS107)<通過判定処理ステップ>。   Further, the computer obtains the coordinates of each of the potential candidate lines by using, as passing pixels, pixels passing through the potential candidate lines in the candidate area on the image and pixels in the vicinity within a predetermined range from the potential candidate lines ( Step S107) <Passing determination processing step>.

続いて、前記コンピュータが、有力候補線の接線の傾きに従って接線が画像上のx軸と成す角度の余弦の逆数の絶対値が2の平方根以下の場合はこの角度の余弦の逆数の絶対値を傾き重みとし、それ以外は正弦の逆数の絶対値を傾き重みとし、通過画素毎に傾き重みを求める(ステップS108)<重み算出処理ステップ>。   Subsequently, when the absolute value of the reciprocal of the cosine of the angle formed by the tangent and the x axis on the image is equal to or less than the square root of 2, the computer calculates the absolute value of the reciprocal of the cosine of this angle. The slope weight is used, and otherwise, the absolute value of the inverse of the sine is used as the slope weight, and the slope weight is obtained for each passing pixel (step S108) <weight calculation processing step>.

さらに、前記コンピュータが、各々の有力候補線について、全通過画素の傾き重みの合計値を算出して個数とし、この個数を数える(ステップS109)<個数計量処理ステップ>。   Further, the computer calculates the total value of the inclination weights of all passing pixels for each of the probable candidate lines, and counts the number (step S109) <number counting processing step>.

次に、前記コンピュータが、前記個数が予め外部から与えた閾値より多い場合であり、且つ、パラメータ空間上予め定めた近傍内で他に前記個数を上回る箇所が無い場合、その有力候補線は実際に画像上に存在する線である実在線とする(ステップS110)<実在線判定処理ステップ>。   Next, if the number of the computers is greater than the threshold given from the outside in advance, and there is no other location exceeding the number within a predetermined neighborhood in the parameter space, the probable candidate line is actually Is a real line that exists on the image (step S110) <real line determination processing step>.

そして、前記コンピュータが、前記実在線のみを描画した画像を実在線画像として生成する(ステップS111)<実在線画像生成処理ステップ>。   Then, the computer generates an image in which only the real line is drawn as a real line image (step S111) <real line image generation processing step>.

ここで、本実施の形態のパラメータ算出処理ステップ(S102)、パラメータ線描画処理ステップ(S103)、交差点検出処理ステップ(S104)、重なり回数計量処理ステップ(S105)、有力候補線描画処理ステップ(S106)により、「候補線描画制御ステップ(S100a)」ということもできる。また、本実施の形態の通過判定処理ステップS107は、「候補線周辺領域決定ステップ」ということもできる。
さらに、本実施の形態の重み算出処理ステップ(S108)と個数計量処理ステップ(S109)により、「候補線識別指標算出ステップ」ということもできる。また、本実施の形態の実在線判定処理ステップS110は、「実在線決定制御ステップ」ということもできる。
また、本実施の形態のパラメータ算出処理ステップ(S102)、パラメータ線描画処理ステップ(S103)により、「パラメータ空間部描画ステップ(S100b)」ということもできる。
さらに、本実施の形態の交差点検出処理ステップ(S104)、重なり回数計量処理ステップ(S105)により、「選別ステップ(S100c)」ということもできる。
さらにまた、本実施の形態の有力候補線描画処理ステップ(S106)は、「候補線描画ステップ」ということもできる。
また、本実施の形態の2値化処理ステップ(S101)は、「候補領域抽出ステップ」ということもできる。
Here, the parameter calculation processing step (S102), the parameter line drawing processing step (S103), the intersection detection processing step (S104), the overlap count measurement processing step (S105), and the leading candidate line drawing processing step (S106) of the present embodiment. ) Can also be referred to as a “candidate line drawing control step (S100a)”. Further, the passage determination processing step S107 of the present embodiment can also be referred to as a “candidate line peripheral region determination step”.
Furthermore, it can also be called a “candidate line identification index calculation step” by the weight calculation processing step (S108) and the number measurement processing step (S109) of the present embodiment. In addition, the actual line determination processing step S110 of the present embodiment can also be referred to as “real line determination control step”.
Further, the parameter calculation processing step (S102) and the parameter line drawing processing step (S103) of this embodiment can also be referred to as a “parameter space drawing step (S100b)”.
Furthermore, it can also be called a “selection step (S100c)” by the intersection detection processing step (S104) and the overlap count measurement processing step (S105) of the present embodiment.
Furthermore, the leading candidate line drawing processing step (S106) of the present embodiment can also be referred to as a “candidate line drawing step”.
Further, the binarization processing step (S101) of the present embodiment can also be referred to as a “candidate area extraction step”.

前記パラメータ空間部描画ステップでは、前記パラメータ空間部に、前記画素に対応するパラメータ空間図形要素を各々の各前記画素について描画することができる。
前記選別ステップでは、各々の前記パラメータ空間図形要素が交差する交差部における交差回数と、前記交差部の周辺の交差部周辺領域の他の交差部の交差回数と、予め設定された交差回数閾値とに基づいて、前記画像内の候補線に対応する前記パラメータ空間部の前記パラメータの組み合わせの座標値の有力候補を選別することができる。
前記候補線描画ステップでは、前記選別ステップにて選別された前記有力候補の前記座標値の周辺の有力候補領域内の各座標値について、前記画像内に対応する候補線を描画することができる。
前記候補領域抽出ステップでは、前記線を抽出可能な候補領域を前記画像内から抽出することができる。この場合、前記候補線描画制御ステップでは、前記候補領域内の各々の前記候補線を描画することができる。前記実在線決定制御ステップでは、前記候補領域内の各々の前記候補線の中から実在線を決定することができる。
In the parameter space portion drawing step, a parameter space graphic element corresponding to the pixel can be drawn for each of the pixels in the parameter space portion.
In the selection step, the number of intersections at the intersection where each of the parameter space graphic elements intersects, the number of intersections in the other intersections around the intersection, and a preset intersection number threshold value Based on the above, it is possible to select a potential candidate of the coordinate value of the parameter combination in the parameter space portion corresponding to the candidate line in the image.
In the candidate line drawing step, for each coordinate value in a potential candidate area around the coordinate value of the potential candidate selected in the selection step, a corresponding candidate line can be drawn in the image.
In the candidate area extraction step, a candidate area from which the line can be extracted can be extracted from the image. In this case, in the candidate line drawing control step, each candidate line in the candidate area can be drawn. In the real line determination control step, a real line can be determined from each of the candidate lines in the candidate area.

以上のように本実施の形態によれば、一旦、ハフ変換によりパラメータ空間上で交差回数が多くなる線を検出した後、各パラメータで画像上に線を描画して、その線に属する画素の数を数えなおす、有力候補線描画部と通過判定部と個数計量部とを有する。ここでは、抽出したパラメータを元に画像上に線を描画して構成画素数を数えなおす。   As described above, according to the present embodiment, once a line having a large number of intersections in the parameter space is detected by the Hough transform, a line is drawn on the image with each parameter, and pixels belonging to the line are drawn. A powerful candidate line drawing unit, a passage determining unit, and a number measuring unit are provided for recounting the number. Here, lines are drawn on the image based on the extracted parameters, and the number of constituent pixels is counted again.

検出した線について画素数を数えなおすことにより、1組のパラメータに対する線は1本だけとすることができ、隣接して検出された画素を同一パラメータとすることがなくなる。検出したパラメータで線を引きなおすだけなので、線が直線かどうかに関わらず適用できる。   By re-counting the number of pixels for the detected line, only one line for a set of parameters can be obtained, and adjacently detected pixels are not set to the same parameter. Since only the line is redrawn with the detected parameter, it can be applied regardless of whether the line is a straight line or not.

このため、パラメータ毎に対応する線を画像上に描画し、パラメータ空間部と画像とで線が1対1対応するようにするため、線の検出精度が画像上均一となり、また、これを単純にパラメータに従って画像上に線を描画するという簡単な処理で実現し、その描画する線についても、近傍内に他に自身より個数を上回るものとして、個数を制限し、計算負荷も低減できる。   For this reason, a line corresponding to each parameter is drawn on the image so that the line corresponds to the parameter space portion and the image on a one-to-one basis, so that the detection accuracy of the line becomes uniform on the image. This is realized by a simple process of drawing a line on the image in accordance with the parameters, and the number of lines to be drawn is limited to be greater than the number of others in the vicinity, and the calculation load can be reduced.

すなわち、膨大な計算負荷を追加せずに、線の検出精度が画像上均一とすることができる。
その理由は、パラメータ毎に対応する直線を画像上に描画するため、パラメータ空間と画像で線が1対1対応になるためである。
また、これを単に画像上に線を描画するという簡単な処理だけで実現するということ、その描画する線についても、閾値以上のものであり、近傍内に他に自身より回数や個数を上回るものとすることにより、個数を制限しているということから、計算負荷も低減できる。
That is, the line detection accuracy can be made uniform on the image without adding a huge calculation load.
The reason is that a straight line corresponding to each parameter is drawn on the image, so that the parameter space and the image have a one-to-one correspondence.
In addition, this is realized simply by drawing a line on the image, and the line to be drawn is also more than the threshold value, and there are more than the number and number of others in the vicinity. By limiting the number, the calculation load can be reduced.

さらに、関連技術では、ノイズによる偽の線を真の線と誤る可能性が画像上の座標によって増減する前記の現象について、この現象の抑制を直線以外の一般的な曲線にまで対象を広げて適用できなかった。その理由は、関連技術の画像処理装置では、直線への対応のみに注力してパラメータ空間のひずみ対策が考慮される場合が多いためである。   Furthermore, in the related technology, for the above phenomenon where the possibility that a false line due to noise is mistaken as a true line increases or decreases depending on the coordinates on the image, the suppression of this phenomenon is extended to general curves other than straight lines. It was not applicable. The reason for this is that in related art image processing apparatuses, countermeasures for distortion in the parameter space are often considered by focusing only on dealing with straight lines.

これに対して本実施の形態では、直線だけでなく曲線でも、検出精度が画像上均一となることである。その理由は、パラメータ空間と画像で線を1対1対応とするのに要するのは単純にパラメータに従って描画するという簡単な処理のみであるからである。   On the other hand, in the present embodiment, not only a straight line but also a curved line has a uniform detection accuracy on the image. The reason is that only a simple process of drawing according to the parameters is required to make the lines in the parameter space and the image have a one-to-one correspondence.

さらにまた、関連技術では、同一の線でも向きが変わるとノイズによる偽の線と区別できず検出できない場合があった。パラメータ空間上でのパラメータ線の重なり回数を数えることは、離散化したパラメータ空間で、画像上の各線に属する画素の個数を数えることとに相当するが、線を画素で数えることは線をマンハッタン距離で測ることとなるため、離散化前のアナログ空間で測れば同じ長さの線であっても傾きによっては長さが変わってしまう。
例えば、図41に示す2本の直線の長さは同じであるが、これを離散化すると直線毎に構成する画素数が異なる。関連技術の画像処理装置では、ハフ変換の際にこの点について考慮してこなかった。しかし、ノイズ過多の画像では方向によっては検出できた構成画素数がノイズによる偽の線の画素数より下回り検出できない可能性が増大する。
Furthermore, in the related art, when the direction of the same line is changed, it may not be distinguished from a false line due to noise and may not be detected. Counting the number of parameter line overlaps in the parameter space is equivalent to counting the number of pixels belonging to each line on the image in the discretized parameter space, but counting the line by pixel means that the line is Manhattan. Since the distance is measured, even if the line has the same length as measured in the analog space before discretization, the length changes depending on the inclination.
For example, the lengths of the two straight lines shown in FIG. 41 are the same, but if they are discretized, the number of pixels constituting each straight line is different. In the related art image processing apparatus, this point has not been considered in the Hough transform. However, in an excessively noisy image, there is an increased possibility that the number of constituent pixels that can be detected is less than the number of false line pixels due to noise and cannot be detected.

この不具合の例を図41を用いて模式的に説明する。図41は、長さ8画素の直線の例を示したものである。2本の直線は画素単位で長さを測ると同一の長さとなる。
しかし、見て明らかなように左側のほうが長い。一方、ユークリッド距離で測ると左側は約11.3画素(8×√2)となる。
An example of this problem will be schematically described with reference to FIG. FIG. 41 shows an example of a straight line having a length of 8 pixels. The two straight lines have the same length when measured in pixel units.
However, as you can see, the left side is longer. On the other hand, when measured by Euclidean distance, the left side is about 11.3 pixels (8 × √2).

これに対して本実施の形態では、線の向きに関わらず検出精度が変わらない。その理由は、線の接線の傾きに応じて数え上げた画素数を、線の長さをユークリッド距離で測った場合の値に調整するからである。   In contrast, in this embodiment, the detection accuracy does not change regardless of the direction of the line. This is because the number of pixels counted up according to the slope of the tangent line is adjusted to a value when the length of the line is measured by the Euclidean distance.

また、本実施の形態の画像処理装置は、パラメータ空間でパラメータの重なり回数もしくは逆ハフ変換時の線を構成する点の個数あるはそれに重みを加味した回数あるいは個数を用いることにより、検出された線の近傍に良く似た線が重複して検出されることを防ぐ重なり回数計量部や実在線判定部を有する。また、線の接線の傾きによって重みを変える重み算出部を有する。   In addition, the image processing apparatus according to the present embodiment is detected by using the number of overlapping points of the parameter in the parameter space or the number of points constituting the line at the time of the inverse Hough transform, or the number of times or the number adding the weight thereto. It has an overlap count metering unit and a real line determination unit that prevent a line similar to the vicinity of the line from being duplicated and detected. In addition, a weight calculation unit that changes the weight according to the slope of the tangent line is provided.

例えば、重なり回数が最大の交差部に対応する画像(画像空間)上の線は、該線のユークリッド距離も最大となるはずである。パラメータ空間上でのパラメータ線の重なり回数を数えることは、離散化したパラメータ空間で、画像上の各線に属する画素の個数を数えることとに相当するからである。そこで、実際に、画像上の線と、該線の周囲領域の他の線に属すると思われる線について、画像空間で画素数と傾き重みを計量してチェックし、ユークリッド距離が最大となる線のみを実在線とし、他のユークリッド距離の線は実在線ではないとみなして排除する。
これによって、一つのパラメータ空間上の点に対して、画像空間上の線を一つに絞り込むことができる。このため、関連技術のように、一つ点に対して、複数の線が対応するような事態を回避することができる。
ここでは、重なり回数が最大の場合について説明したが、重なり回数が特定回数の場合も同様である。
For example, a line on an image (image space) corresponding to an intersection having the largest number of overlaps should have the maximum Euclidean distance. This is because counting the number of parameter line overlaps in the parameter space corresponds to counting the number of pixels belonging to each line on the image in the discretized parameter space. Therefore, the line where the Euclidean distance is maximized is actually checked by measuring the number of pixels and the inclination weight in the image space for the line on the image and the line that seems to belong to the other lines around the line. Only the real line is regarded as a real line, and other Euclidean distance lines are regarded as not real lines and are excluded.
As a result, a line on the image space can be narrowed down to one for a point on one parameter space. For this reason, it is possible to avoid a situation in which a plurality of lines correspond to one point as in the related art.
Although the case where the number of overlaps is the maximum has been described here, the same applies to the case where the number of overlaps is a specific number.

以上に示した各部(手段)の説明は、プログラムにより機能化されたコンピュータをプログラムの機能と共に説明したものと解釈することも出来るし、また、固有のハードウエアにより恒久的に機能化された複数の電子回路ブロックからなる装置を説明したものとも解釈することが出来る。このため、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現でき、いずれかに限定されるものではない。   The description of each part (means) described above can be interpreted as a computer functionalized by a program together with the function of the program, or a plurality of functions permanently functioning by specific hardware. It can also be interpreted that the device comprising the electronic circuit block is described. Therefore, these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and is not limited to any one.

[第2の実施の形態]
次に、本発明にかかる第2の実施の形態について、図10に基づいて説明する。以下には、前記第1の実施の形態の実質的に同様の構成に関しては説明を省略し、異なる部分についてのみ述べる。図10は、本発明の画像処理システムにおける画像処理装置の第2の実施の形態の一例を示すブロック図である。
[Second Embodiment]
Next, a second embodiment according to the present invention will be described with reference to FIG. In the following, description of the substantially similar configuration of the first embodiment will be omitted, and only different parts will be described. FIG. 10 is a block diagram showing an example of the second embodiment of the image processing apparatus in the image processing system of the present invention.

上述の第1の実施の形態では、ハフ変換及び逆ハフ変換を行う構成としたが、本実施の形態では、ハフ変換せずに最初から逆ハフ変換して検出すべき線を構成するパラメータの価の組を見出す構成としている。   In the first embodiment described above, the Hough transform and the inverse Hough transform are performed. However, in the present embodiment, the parameters constituting the line to be detected by performing the inverse Hough transform from the beginning without performing the Hough transform. It is configured to find a set of prices.

(構成について)
具体的には、本第2の実施の形態は、図10に示すように、第1の実施の形態と同様、ビデオカメラ等やキーボード等から構成される入力装置110と、プログラム制御により動作する画像処理装置140と、情報を記憶する記憶装置120と、ディスプレイ装置や印刷装置等の出力装置130とを含む構成としている。
(About configuration)
Specifically, as shown in FIG. 10, the second embodiment operates in accordance with program control with an input device 110 including a video camera and a keyboard, as in the first embodiment. The image processing apparatus 140 includes a storage device 120 that stores information, and an output device 130 such as a display device or a printing device.

本第2の実施の形態では、入力装置110と記憶装置120と出力装置130は、第1の実施の形態と同じである。画像処理装置140の構成が異なる。ここでは、画像処理装置140について説明する。   In the second embodiment, the input device 110, the storage device 120, and the output device 130 are the same as those in the first embodiment. The configuration of the image processing apparatus 140 is different. Here, the image processing apparatus 140 will be described.

本第2の実施の形態の画像処理装置140は、図10に示すように、2値化処理部141と、全候補線描画部142と、通過判定部143と、重み算出部144と、個数計量部145と、実在線判定部146と、実在線画像生成部147と、これら各部の実行手順を制御するモジュール制御部148と、を含む構成としている。   As shown in FIG. 10, the image processing apparatus 140 according to the second embodiment includes a binarization processing unit 141, an all candidate line drawing unit 142, a passage determination unit 143, a weight calculation unit 144, The measuring unit 145, the actual line determination unit 146, the actual line image generation unit 147, and a module control unit 148 that controls the execution procedure of each unit are configured.

入力装置110から与えられた画像は、入力画像として画像記憶部123に保持される。   An image given from the input device 110 is held in the image storage unit 123 as an input image.

2値化処理部141は、画像記憶部123を参照し、入力画像の画素値に基づいて検出対象である直線や曲線の候補となる領域とそれ以外の領域をそれぞれ候補領域及び背景領域として、画像を2つの領域に分割する。2値化された画像は、2値化画像として画像記憶部123に保持される。2値化処理部141は、第1の実施の形態と同じ動作をする。   The binarization processing unit 141 refers to the image storage unit 123, and based on the pixel value of the input image, a region that is a candidate for a straight line or a curve to be detected and other regions are set as a candidate region and a background region, respectively. Divide the image into two regions. The binarized image is held in the image storage unit 123 as a binarized image. The binarization processing unit 141 performs the same operation as in the first embodiment.

全候補線描画部142は、画像上の線を表現する方程式のパラメータを軸としたパラメータ空間において、全てのパラメータの組み合わせについて、そのパラメータに従って画像上に直線や曲線を候補線として描画する。
特定のパラメータの組み合わせではなく、全てのパラメータについて直線や曲線を描画することが、前記第1の実施の形態における有力候補線描画部46と相違し、その他の線を描画する手法などは同様である。
具体的には、図11に示すように、各パラメータの組み合わせについて、候補線CL1、・・・・と順次描画する。
The all candidate line drawing unit 142 draws a straight line or a curve as a candidate line on the image according to the parameters for all combinations of parameters in the parameter space with the parameter of the equation representing the line on the image as an axis.
Unlike the leading candidate line drawing unit 46 in the first embodiment, drawing straight lines and curves for all parameters instead of specific parameter combinations is the same as the method for drawing other lines. is there.
Specifically, as shown in FIG. 11, the candidate lines CL1,... Are sequentially drawn for each parameter combination.

例えば、全候補線描画部142は、全パラメータに従って画像上に直線や曲線を候補線として描画する。
候補線を描画する手法としては、例えば画像記憶部123に入力画像と同じ大きさの画像領域を候補線画像として確保し全画素値をゼロとし、直線や曲線方程式から描画する線と座標が一致する画素について値を1とする。また例えば候補線毎に区別できるように値を変えてもよい。また例えば候補線画像ではなく2値化画像に描画してもよい。ただしこの場合、候補線の画素値は、候補領域の画素値とも背景領域の画素値とも異なる値とする。
For example, the all candidate line drawing unit 142 draws a straight line or a curve as a candidate line on the image according to all the parameters.
As a method of drawing a candidate line, for example, an image area having the same size as the input image is secured in the image storage unit 123 as a candidate line image, all pixel values are set to zero, and a line drawn from a straight line or a curve equation coincides with a coordinate. A value of 1 is set for a pixel to be processed. For example, the value may be changed so that each candidate line can be distinguished. Further, for example, the image may be drawn in a binarized image instead of the candidate line image. However, in this case, the pixel value of the candidate line is different from the pixel value of the candidate area and the pixel value of the background area.

通過判定部143と、重み算出部144と、個数計量部145と、実在線判定部146と、実在線画像生成部147についても、対象とするのが全候補線描画部142で描画された線であるというだけで、処理内容は前記第1の実施の形態と同様となっている。   The passage determination unit 143, the weight calculation unit 144, the number measurement unit 145, the real line determination unit 146, and the real line image generation unit 147 are also drawn by the all candidate line drawing unit 142. The processing contents are the same as in the first embodiment.

すなわち、通過判定部143は、各々の候補線について、画像上の候補領域内で候補線が通る画素及び候補線から予め定めた範囲内の近傍にある画素を通過画素としてその座標を求める。   In other words, the passage determination unit 143 obtains the coordinates of each candidate line, with the pixel passing through the candidate line in the candidate area on the image and the pixel in the vicinity within a predetermined range from the candidate line as the passing pixel.

例えば、通過判定部143は、前記画像を参照し、画素値が1となる画素のように候補線を構成する画素を注目画素とし、注目画素の座標で候補線の法線を求め法線方向について、候補線からの距離が閾値記憶部121に保持されている閾値の範囲内にある複数の画素の座標を求める。
それらの画素と同じ座標にある2値化画像上の画素のうち、いずれか一つが候補領域にあるならば、通過画素とみなし通過画素全ての座標を通過画素リストとしてパラメータ空間記憶部122に保持する。
この他に、例えば、法線方向ではなく、注目画素を中心としたN×N画素の近傍領域で候補領域が含まれるかどうか判断してもよい。このとき、Nは、予め定め閾値記憶部121に保持されるものとする。
For example, the passage determination unit 143 refers to the image, sets a pixel that forms a candidate line as a pixel having a pixel value of 1 as a target pixel, and obtains a normal line of the candidate line using the coordinates of the target pixel. , The coordinates of a plurality of pixels whose distance from the candidate line is within the threshold range held in the threshold storage unit 121 are obtained.
If any one of the pixels on the binarized image at the same coordinates as those pixels is in the candidate area, it is regarded as a passing pixel and the coordinates of all the passing pixels are stored in the parameter space storage unit 122 as a passing pixel list. To do.
In addition, for example, it may be determined whether the candidate area is included in the vicinity area of N × N pixels centered on the target pixel, not in the normal direction. At this time, N is assumed to be stored in the predetermined threshold storage unit 121 in advance.

重み算出部144は、注目画素における候補線の接線を求め、接線とx軸と成す角度の余弦(cosθ)の逆数の絶対値を求める。この絶対値が2の平方根以下の場合は、この角度の余弦の逆数の絶対値を傾き重みとし、それ以外は、正弦(sinθ)の逆数の絶対値を傾き重みとする。
傾き重みは、候補線の全通過画素毎に算出する。また、傾き重みは、全ての候補線の全通過画素について算出し、例えばパラメータ空間記憶部122に保持する。
The weight calculation unit 144 obtains the tangent of the candidate line at the target pixel, and obtains the absolute value of the reciprocal of the cosine (cos θ) of the angle formed between the tangent and the x axis. If this absolute value is less than or equal to the square root of 2, the absolute value of the reciprocal of the cosine of this angle is the slope weight, and otherwise, the absolute value of the reciprocal of sine (sin θ) is the slope weight.
The inclination weight is calculated for every passing pixel of the candidate line. In addition, the gradient weight is calculated for all passing pixels of all candidate lines, and is stored in the parameter space storage unit 122, for example.

例えば、候補線が原点からの距離ρと、x軸との角度θを使ってρ=x
cosθ+y sinθという直線で表現されるならば、これは接線の法線であるから傾き重みは0≦θ≦π/4あるいは3π/4≦θ≦πのときは1/|cosθ|、それ以外の場合は1/|sinθ|となる。
For example, using a distance ρ from the origin of the candidate line ρ and the angle θ with the x-axis, ρ = x
If it is expressed by a straight line of cos θ + y sin θ, this is a tangential normal line, so if the slope weight is 0 ≦ θ ≦ π / 4 or 3π / 4 ≦ θ ≦ π, 1 / | cos θ | In this case, 1 / | sinθ |.

個数計量部145は、各々の候補線について、全通過画素の傾き重みを合計して個数とし、その結果(傾き重みの合計値、画素数)をパラメータ空間記憶部122に保持する。   The number measuring unit 145 sums the inclination weights of all the passing pixels for each candidate line to obtain the number, and stores the result (total value of inclination weights, the number of pixels) in the parameter space storage unit 122.

実在線判定部146は、前記個数が予め外部から与えた閾値より多い場合であり、且つ、パラメータ空間上予め定めた近傍内(例えば図12に支援する候補線点周辺領域)で他に前記個数を上回る箇所が無い場合、その候補線は、実際に画像上に存在する線(実在線)であると判定するものである。   The actual line determination unit 146 is a case where the number is greater than a threshold given in advance from the outside, and the number of the other is within a predetermined vicinity in the parameter space (for example, the area around the candidate line point supported in FIG. 12). If there is no portion exceeding, the candidate line is determined to be a line that actually exists on the image (real line).

例えば、実在線判定部146は、傾き重みの合計が、閾値記憶部121に保持され予め定めた閾値より大きい場合であり、且つ、パラメータ空間上予め定めた近傍内で他に前記傾き重みの合計が上回る箇所が無い場合、実在線として例えば候補線点リスト上、実在線ビットを0から1に変える。
実在線ビットは、候補線点リスト生成時は0に初期化される。この代わりに1に初期化して実在線と判定したら0に変えるとしてもよい。また、0、1を示す1ビットではなく、0、1以外の任意の数値で区別するよう多ビットにしてもよい。
どの程度近傍を探索するかは、例えば閾値記憶部121に保存されている値を参照する。
For example, the real line determination unit 146 is a case where the total inclination weight is greater than a predetermined threshold held in the threshold storage unit 121, and the total of the inclination weights is within a predetermined vicinity in the parameter space. If there is no portion exceeding, the actual line bit is changed from 0 to 1 on the candidate line point list as the actual line, for example.
The actual line bit is initialized to 0 when the candidate line point list is generated. Instead, it may be initialized to 1 and changed to 0 if it is determined to be a real line. Further, it may be multi-bit so that it is distinguished by any numerical value other than 0 and 1 instead of 1 bit indicating 0 and 1.
For example, a value stored in the threshold storage unit 121 is referred to for how close the search is performed.

実在線画像生成部147は、前記実在線のみを描画した画像を実在線画像として生成する。   The real line image generation unit 147 generates an image in which only the real line is drawn as a real line image.

例えば、実在線画像生成部147は、予め画像記憶部123に領域確保し全画素値をゼロとした出力画像上に、前記実在線ビットが1となっているパラメータの組み合わせについて線を描画する。
実在線を描画する手法としては、例えば、線を構成する画素の画素値を1として線を表現する。線ごとに画素値を変えて線を区別しやすいようにしてもよい。
この他、出力画像ではなく2値化画像に描画してもよい。この場合、候補領域及び背景領域と異なる画素値を与えて区別できるようにする。
さらに、入力画像に描画してもよい。この場合、例えば、入力画像のビットを反転させるなどして濃淡で表される入力画像にあっても検出した線が目立つように処理を行ってもよい。
For example, the real line image generation unit 147 draws a line for a combination of parameters in which the real line bit is 1 on an output image in which an area is reserved in the image storage unit 123 in advance and all pixel values are zero.
As a technique for drawing an actual line, for example, a line is expressed by setting the pixel value of a pixel constituting the line to 1. You may make it easy to distinguish a line by changing a pixel value for every line.
In addition, the image may be drawn on a binarized image instead of the output image. In this case, different pixel values from the candidate area and the background area are given so that they can be distinguished.
Furthermore, you may draw on an input image. In this case, for example, processing may be performed so that the detected line is conspicuous even in the input image expressed by shading by inverting the bits of the input image.

ここで、本実施の形態の全候補線描画部142は、「候補線描画制御手段」ということもできる。また、本実施の形態の通過判定部143は、「候補線周辺領域決定手段」ということもできる。
さらに、本実施の形態の重み算出部144と個数計量部145により、「候補線識別指標算出手段140a」を構成することもできる。また、本実施の形態の実在線判定部146は、「実在線決定制御手段」ということもできる。
Here, all candidate line drawing units 142 of the present embodiment can also be referred to as “candidate line drawing control means”. Further, the passage determination unit 143 according to the present embodiment can also be referred to as “candidate line peripheral region determination means”.
Furthermore, the “candidate line identification index calculation means 140a” can be configured by the weight calculation unit 144 and the number measurement unit 145 of the present embodiment. Further, the actual line determination unit 146 of the present embodiment can also be referred to as “real line determination control means”.

候補線描画制御手段は、画像内の画素を通り得る線を特定のパラメータを含む方程式で表し、この方程式の前記パラメータを座標軸とするパラメータ空間部の前記パラメータの組み合わせがとる座標値に基づいて、前記座標値に対応する前記画像内の各候補線を描画する制御を行う。
候補線周辺領域決定手段は、前記候補線及び該候補線の周辺の候補線周辺領域が通過する通過画素を、各々の前記候補線について決定する。
候補線識別指標算出手段は、前記候補線を識別する指標であって前記候補線の接線の傾きを示す傾き重みを前記通過画素毎に算出し、各々の前記候補線について前記傾き重みの合計値を算出する。
実在線決定制御手段は、前記候補線識別指標算出手段にて算出された各々の前記候補線の各々の前記合計値に基づいて、一の前記候補線に対応する前記パラメータ空間部での一の前記パラメータの組み合わせの座標値の周辺のパラメータ値周辺領域内に、一の前記候補線の前記合計値を上回る他の前記候補線に対応する他の前記パラメータの組み合わせの座標値の有無を探索し、前記パラメータ値周辺領域内にて一の前記候補線の前記合計値を上回る他の前記候補線の前記合計値がない場合には、一の前記候補線を実在線として決定する制御を行う。
The candidate line drawing control means represents a line that can pass through the pixels in the image by an equation including a specific parameter, and based on the coordinate value taken by the combination of the parameters in the parameter space portion with the parameter of the equation as the coordinate axis, Control is performed to draw each candidate line in the image corresponding to the coordinate value.
The candidate line peripheral area determining means determines, for each of the candidate lines, the candidate line and a passing pixel through which the candidate line peripheral area around the candidate line passes.
Candidate line identification index calculation means calculates an inclination weight that is an index for identifying the candidate line and indicates an inclination of a tangent line of the candidate line for each passing pixel, and the total value of the inclination weights for each of the candidate lines Is calculated.
The real line determination control means is configured to select one of the parameter space portions corresponding to one candidate line based on the total value of each of the candidate lines calculated by the candidate line identification index calculation means. In the parameter value peripheral area around the coordinate value of the parameter combination, search for the presence or absence of coordinate values of another parameter combination corresponding to the other candidate line that exceeds the total value of the one candidate line. When there is no total value of the other candidate lines exceeding the total value of the one candidate line in the parameter value peripheral region, control is performed to determine the one candidate line as a real line.

(処理手順について)
次に、上述のような構成を有する画像処理システムにおける各部の処理は、方法としても実現可能であり、画像処理方法としての各種の処理手順について、図13を参照しつつ説明する。
(About processing procedure)
Next, the processing of each unit in the image processing system having the above-described configuration can be realized as a method, and various processing procedures as the image processing method will be described with reference to FIG.

先ず、コンピュータが、画素値に基づいて、検出対象である直線や曲線の候補となる領域とそれ以外の領域の2つの領域をそれぞれ候補領域及び背景領域として、画像を2つの領域に分割する(ステップS201)<2値化処理ステップ>。   First, the computer divides the image into two regions based on the pixel values, with the two regions of the detection target line and curve candidates as the candidate region and the background region, respectively. Step S201) <binarization processing step>.

次に、前記コンピュータが、画像上の直線や曲線を表す方程式の各パラメータを軸としたパラメータ空間上の全てのパラメータの組み合わせについて、画像上に直線や曲線を候補線として描画する(ステップS202)<全候補線描画処理ステップ>。   Next, the computer draws straight lines and curves as candidate lines on the image for all combinations of parameters on the parameter space with the parameters of equations representing straight lines and curves on the image as axes (step S202). <All candidate line drawing processing steps>.

続いて、前記コンピュータが、各々の候補線について、画像上の候補領域内で候補線が通る画素及び候補線から予め定めた範囲内の近傍にある画素を通過画素としてその座標を求める(ステップS203)<通過判定処理ステップ>。   Subsequently, for each candidate line, the computer obtains coordinates of pixels passing through the candidate line in the candidate area on the image and pixels in the vicinity within a predetermined range from the candidate line as passing pixels (step S203). ) <Passing determination processing step>.

そして、前記コンピュータが、全ての候補線の接線の傾きに従って接線が画像上のx軸と成す角度の余弦の逆数の絶対値が2の平方根以下の場合はこの角度の余弦の逆数の絶対値を傾き重みとし、それ以外は正弦の逆数の絶対値を傾き重みとし、候補線が通過する画素毎に傾き重みを求める(ステップS204)<重み算出処理ステップ>。   If the absolute value of the reciprocal of the cosine of the angle formed by the tangent and the x axis on the image is less than the square root of 2 according to the inclination of the tangent of all candidate lines, the computer calculates the absolute value of the reciprocal of the cosine of this angle. The slope weight is used, and the absolute value of the inverse of the sine is used as the slope weight, and the slope weight is obtained for each pixel through which the candidate line passes (step S204) <weight calculation processing step>.

さらに、前記コンピュータが、各々の候補線について、全通過画素の傾き重みの合計値を算出して個数とし、この個数を数える(ステップS205)<個数計量処理ステップ>。   Further, the computer calculates the total value of the inclination weights of all the passing pixels for each candidate line, and counts the number (step S205) <number counting processing step>.

次いで、前記コンピュータが、前記個数が予め外部から与えた閾値より多い場合であり、且つ、パラメータ空間上予め定めた近傍内で他に前記個数を上回る箇所が無い場合、その候補線は実際に画像上に存在する線である実在線とする(ステップS206)<実在線判定処理ステップ>。   Next, if the number of the computers is greater than the threshold given from the outside in advance, and if there is no other location exceeding the number within a predetermined neighborhood in the parameter space, the candidate line is actually an image. A real line which is an upper line is set (step S206) <real line determination processing step>.

そして、前記コンピュータが、前記実在線のみを描画した画像を実在線画像として生成する(ステップS207)<実在線画像生成処理ステップ>。   Then, the computer generates an image in which only the real line is drawn as a real line image (step S207) <real line image generation processing step>.

ここで、本実施の形態の全候補線描画処理ステップ(S202)は、「候補線描画制御ステップ」ということもできる。また、本実施の形態の通過判定処理ステップS203は、「候補線周辺領域決定ステップ」ということもできる。
さらに、本実施の形態の重み算出処理ステップ(S204)と個数計量処理ステップ(S205)により、「候補線識別指標算出ステップ」ということもできる。また、本実施の形態の実在線判定処理ステップS206は、「実在線決定制御ステップ」ということもできる。
Here, all candidate line drawing processing step (S202) of the present embodiment can also be referred to as “candidate line drawing control step”. Further, the passage determination processing step S203 of the present embodiment can also be referred to as a “candidate line peripheral region determination step”.
Furthermore, it can also be called a “candidate line identification index calculation step” by the weight calculation processing step (S204) and the number measurement processing step (S205) of the present embodiment. Further, the actual line determination processing step S206 of the present embodiment can also be referred to as “real line determination control step”.

候補線描画制御ステップは、コンピュータが、画像内の画素を通り得る線を特定のパラメータを含む方程式で表し、この方程式の前記パラメータを座標軸とするパラメータ空間部の前記パラメータの組み合わせがとる座標値に基づいて、前記座標値に対応する前記画像内の各候補線を描画する制御を行う。
候補線周辺領域決定ステップは、前記コンピュータが、前記候補線及び該候補線の周辺の候補線周辺領域が通過する通過画素を、各々の前記候補線について決定する。
候補線識別指標算出ステップは、前記コンピュータが、前記候補線を識別する指標であって前記候補線の接線の傾きを示す傾き重みを前記通過画素毎に算出し、各々の前記候補線について前記傾き重みの合計値を算出する。
実在線決定制御ステップは、前記コンピュータが、前記候補線識別指標算出ステップにて算出された各々の前記候補線の各々の前記合計値に基づいて、一の前記候補線に対応する前記パラメータ空間部での一の前記パラメータの組み合わせの座標値の周辺のパラメータ値周辺領域内に、一の前記候補線の前記合計値を上回る他の前記候補線に対応する他の前記パラメータの組み合わせの座標値の有無を探索し、前記パラメータ値周辺領域内にて一の前記候補線の前記合計値を上回る他の前記候補線の前記合計値がない場合には、一の前記候補線を実在線として決定する制御を行う。
In the candidate line drawing control step, the computer represents a line that can pass through the pixels in the image by an equation including a specific parameter, and the coordinate value taken by the combination of the parameters in the parameter space portion having the parameter of the equation as a coordinate axis is used. Based on this, control is performed to draw each candidate line in the image corresponding to the coordinate value.
In the candidate line peripheral region determination step, the computer determines, for each candidate line, a passing pixel through which the candidate line and a candidate line peripheral region around the candidate line pass.
In the candidate line identification index calculation step, the computer calculates an inclination weight that is an index for identifying the candidate line and indicates an inclination of a tangent line of the candidate line for each passing pixel, and the inclination for each of the candidate lines Calculate the total weight.
In the actual line determination control step, the parameter space unit corresponding to one candidate line based on the total value of each of the candidate lines calculated by the computer in the candidate line identification index calculation step. In the parameter value peripheral area around the coordinate value of the one parameter combination in the above, the coordinate value of the other parameter combination corresponding to the other candidate line that exceeds the total value of the one candidate line The presence / absence is searched, and if there is no total value of the other candidate lines exceeding the total value of the one candidate line in the parameter value peripheral region, the one candidate line is determined as a real line Take control.

以上のように本実施の形態によれば、前記第1の実施の形態と同様の作用効果を奏しながらも、2値化後の候補領域の画像全体に対する比率が高くても計算量増大を低減できる。その理由は、ハフ変換せずに最初から逆ハフ変換して検出すべき線を構成するパラメータの価の組を見出す仕組みがあるからである。
ここで、第1の実施の形態と第2の実施の形態の違いは計算量である。離散化幅が小さい場合ほど、パラメータの組の数が大きくなり第2の実施の形態の方が第1の実施の形態より計算量が大きくなる。反対に、離散化幅が大きいほど、画像空間計算量のほうが小さくなる。
As described above, according to the present embodiment, an increase in the amount of calculation is reduced even when the ratio of the binarized candidate area to the entire image is high while achieving the same operational effects as the first embodiment. it can. The reason is that there is a mechanism for finding a set of values of parameters constituting a line to be detected by performing inverse Hough transform from the beginning without performing Hough transform.
Here, the difference between the first embodiment and the second embodiment is the amount of calculation. The smaller the discretization width, the larger the number of parameter sets, and the second embodiment has a larger calculation amount than the first embodiment. Conversely, the larger the discretization width, the smaller the image space calculation amount.

また、2値化した後の候補領域の画像全体に対する比率が小さいときは、第1の実施の形態ではパラメータ空間が効率よく絞り込まれ計算量が小さくなるが、比率が大きい場合は、第1の実施の形態では、第2の実施の形態では行っていないパラメータ線の描画に関する計算が必要なため、第1の実施の形態の方が計算量が大きくなるということが起こり得る。この場合、本第2の実施の形態の方が処理速度の向上が図れる。   Further, when the ratio of the binarized candidate area to the entire image is small, the parameter space is efficiently narrowed down and the amount of calculation is reduced in the first embodiment, but when the ratio is large, the first In the embodiment, since calculation related to the drawing of the parameter line that is not performed in the second embodiment is necessary, the calculation amount in the first embodiment may be larger. In this case, the processing speed of the second embodiment can be improved.

このように、本実施の形態の画像処理装置では、2値化画像における候補領域の比率が大きく最初にハフ変換する場合の計算量が大きくなる場合を回避するため、ハフ変換せずに最初から逆ハフ変換して検出すべき線を構成するパラメータの組を見出す。   As described above, in the image processing apparatus according to the present embodiment, in order to avoid a case where the ratio of candidate areas in the binarized image is large and the amount of calculation in the first Hough transform is large, the Hough transform is not performed from the beginning. Inverse Hough transform is used to find a set of parameters that constitute a line to be detected.

その他の構成およびその他のステップ並びにその作用効果については、前述した第1の実施の形態の場合と同一となっている。また、前記の説明において、上述した各ステップの動作内容及び各部の構成要素をプログラム化し、コンピュータに実行させてもよい。   Other configurations, other steps, and operational effects thereof are the same as those in the first embodiment described above. In the above description, the operation content of each step described above and the components of each unit may be programmed and executed by a computer.

[第3の実施の形態]
次に、本発明にかかる第3の実施の形態について、図14に基づいて説明する。以下には、前記第1の実施の形態の実質的に同様の構成に関しては説明を省略し、異なる部分についてのみ述べる。図14は、本発明の画像処理システムの第3の実施の形態の一例を示すブロック図である。
[Third Embodiment]
Next, a third embodiment according to the present invention will be described with reference to FIG. In the following, description of the substantially similar configuration of the first embodiment will be omitted, and only different parts will be described. FIG. 14 is a block diagram showing an example of the third embodiment of the image processing system of the present invention.

上述の第1の実施の形態では、画像処理装置が1つ構成される場合の例を示したが、本第3の実施の形態では、異なる種類の第1の画像処理装置と第2の画像処理装置との2つ構成される場合の例を示している。加えて、本第3の実施の形態では、第1の画像処理装置と第2の画像処理装置のうちいずれか一つの画像処理装置で処理するかを切替える切替制御装置を含む構成としている。   In the first embodiment described above, an example in which one image processing device is configured has been described. However, in the third embodiment, different types of first image processing device and second image are provided. An example in which two processing apparatuses are configured is shown. In addition, the third embodiment includes a switching control device that switches between processing performed by any one of the first image processing device and the second image processing device.

(構成について)
具体的には、本第3の実施の形態の画像処理システム200は、図14に示すように、画像を入力する入力装置210と、前記入力装置210にて入力された画像内から第1の処理にて線を抽出する第1の画像処理装置240と、前記入力装置210にて入力された画像内から第1の処理と異なる第2の処理(画像処理演算)にて線を抽出する第2の画像処理装置260と、前記第1の画像処理装置240と前記第2の画像処理装置260とを切替制御する切替制御装置270と、前記切替制御装置270にて切替制御された前記第1及び第2の画像処理装置240、270のうちいずれか一方の画像処理結果を出力する出力装置230と、前記画像及び前記画像処理結果、画像処理過程での演算結果を記憶する記憶装置220と、を含んで構成される。
(About configuration)
Specifically, as shown in FIG. 14, the image processing system 200 according to the third embodiment includes an input device 210 that inputs an image, and a first image that is input from the input device 210. A first image processing device 240 that extracts a line by processing and a second processing (image processing operation) that extracts a line from the image input by the input device 210 by a second processing (image processing calculation) different from the first processing. The second image processing device 260, the switching control device 270 that controls switching between the first image processing device 240 and the second image processing device 260, and the first that is controlled by the switching control device 270. And an output device 230 that outputs an image processing result of one of the second image processing devices 240 and 270, a storage device 220 that stores the image, the image processing result, and an operation result in the image processing process, Including It is made.

第1の画像処理装置240は、図15に示すように、前記第1の実施の形態で説明した画像処理装置と同様の構成である、2値化処理部241と、パラメータ算出部242と、パラメータ線描画部243と、交差点検出部244と、重なり回数計量部245と、有力候補線描画部246と、通過判定部247と、重み算出部248と、個数計量部249と、実在線判定部251と、実在線画像生成部252と、これら各部の実行手順を制御するモジュール制御部253と、を含む構成としている。   As shown in FIG. 15, the first image processing device 240 has the same configuration as the image processing device described in the first embodiment, a binarization processing unit 241, a parameter calculation unit 242, Parameter line drawing unit 243, intersection detection unit 244, overlap number measurement unit 245, leading candidate line drawing unit 246, passage determination unit 247, weight calculation unit 248, number measurement unit 249, real line determination unit 251, a real line image generation unit 252, and a module control unit 253 that controls the execution procedure of each unit.

第2の画像処理装置260は、図16に示すように、前記第2の実施の形態で説明した画像処理装置と同様の構成である、2値化処理部261と、全候補線描画部262と、通過判定部263と、重み算出部264と、個数計量部265と、実在線判定部266と、実在線画像生成部267と、これら各部の実行手順を制御するモジュール制御部268と、を含む構成としている。   As shown in FIG. 16, the second image processing device 260 has the same configuration as the image processing device described in the second embodiment, and a binarization processing unit 261 and an all candidate line drawing unit 262. A passage determination unit 263, a weight calculation unit 264, a number measurement unit 265, a real line determination unit 266, a real line image generation unit 267, and a module control unit 268 that controls the execution procedure of these units. It is configured to include.

切替制御装置270は、第1の画像処理装置240による第1の計算量と、第2の画像処理装置260による第2の計算量とを比較して、第1の画像処理装置240で処理すべきか、第2の画像処理装置260で処理すべきかを選択制御する。
計算量は、パラメータ空間部の離散化幅や2値化画像の候補領域の比率によって大きさが決まる。
The switching control device 270 compares the first calculation amount by the first image processing device 240 with the second calculation amount by the second image processing device 260, and the first image processing device 240 performs all processing. Or whether to be processed by the second image processing device 260.
The amount of calculation is determined by the discretization width of the parameter space part and the ratio of binarized image candidate areas.

ここで、切替制御装置270について詳細に説明する。
切替制御装置270は、図17に示すように、2値化処理部271と、パラメータ算出計算量推定部272と、パラメータ線描画計算量推定部273と、交差点検出計算量推定部274と、重なり回数計量計算量推定部275と、有力候補線描画計算量推定部276と、通過判定計算量推定部277と、重み算出計算量推定部278と、個数計量計算量推定部279と、実在線判定計算量推定部281と、を含む構成としている。
Here, the switching control device 270 will be described in detail.
As shown in FIG. 17, the switching control device 270 includes a binarization processing unit 271, a parameter calculation calculation amount estimation unit 272, a parameter line drawing calculation amount estimation unit 273, and an intersection detection calculation amount estimation unit 274. Count metric calculation amount estimation unit 275, leading candidate line drawing calculation amount estimation unit 276, passage determination calculation amount estimation unit 277, weight calculation calculation amount estimation unit 278, number metric calculation amount estimation unit 279, and real line determination And a calculation amount estimation unit 281.

さらに、切替制御装置270は、図17に示すように、全候補線描画計算量推定部282と、全通過判定計算量推定部283と、全重み算出計算量推定部284と、全個数計量計算量推定部285と、全実在線判定計算量推定部286と、手法選択部287と、これら各部の実行手順を制御するモジュール制御部288と、を含む構成としている。   Further, as shown in FIG. 17, the switching control device 270 includes an all-candidate line drawing calculation amount estimation unit 282, an all-pass determination calculation amount estimation unit 283, an all-weight calculation calculation amount estimation unit 284, and an all-pieces calculation calculation. An amount estimation unit 285, an all real line determination calculation amount estimation unit 286, a method selection unit 287, and a module control unit 288 that controls the execution procedure of each unit are configured.

2値化処理部271は、第1の実施の形態と同様の動作をするとともに、2値化された画像上の候補領域の比率を求め、パラメータ空間の各軸に離散化幅を与えて各々の処理の計算量を推定する。   The binarization processing unit 271 operates in the same manner as in the first embodiment, obtains the ratio of candidate regions on the binarized image, gives a discretization width to each axis of the parameter space, and Estimate the computational complexity of the process.

図17に示す切替制御装置270におけるパラメータ算出計算量推定部272、パラメータ線描画計算量推定部273、交差点検出計算量推定部274、重なり回数計量計算量推定部275、有力候補線描画計算量推定部276、通過判定計算量推定部277、重み算出計算量推定部278、個数計量計算量推定部279、実在線判定計算量推定部281は、各々、図15に示す第1の画像処理装置240におけるパラメータ算出部242、パラメータ線描画部243、交差点検出部244、重なり回数計量部245、有力候補線描画部246、通過判定部247、重み算出部248、個数計量部249、実在線判定部251の処理時の計算量を推定する。   17, the parameter calculation calculation amount estimation unit 272, the parameter line drawing calculation amount estimation unit 273, the intersection detection calculation amount estimation unit 274, the overlap count metric calculation amount estimation unit 275, and the probable candidate line drawing calculation amount estimation in the switching control device 270 shown in FIG. The unit 276, the passage determination calculation amount estimation unit 277, the weight calculation calculation amount estimation unit 278, the number metric calculation amount estimation unit 279, and the real line determination calculation amount estimation unit 281 each include the first image processing device 240 illustrated in FIG. Parameter calculation unit 242, parameter line drawing unit 243, intersection detection unit 244, overlap number measurement unit 245, leading candidate line drawing unit 246, passage determination unit 247, weight calculation unit 248, number measurement unit 249, actual line determination unit 251 Estimate the amount of computation during processing.

2値化処理部271により、2値化された画像上の候補領域の比率が分かり、パラメータ空間の各軸を離散化幅を与えれば各々の処理の計算量を推定することができる。   If the binarization processing unit 271 knows the ratio of candidate areas on the binarized image and gives the discretization width to each axis of the parameter space, the calculation amount of each process can be estimated.

パラメータ算出計算量推定部272は、例えば画像上の線を描く方程式とパラメータ範囲とパラメータ空間の離散化幅を元に、画像上の候補領域の1つの画素に対して何回演算が必要となるか概算し、それを候補領域の画素数だけ倍してパラメータ算出部242が処理する計算量を推定しパラメータ算出計算量とする。   The parameter calculation calculation amount estimation unit 272 needs to calculate the number of times for one pixel of the candidate region on the image based on, for example, an equation for drawing a line on the image, a parameter range, and a discretization width of the parameter space. This is approximated and multiplied by the number of pixels in the candidate area to estimate the calculation amount processed by the parameter calculation unit 242 to obtain the parameter calculation calculation amount.

パラメータ線描画計算量推定部273は、例えば、前記パラメータ算出計算量推定部272の処理過程で得られた、パラメータ空間上、要素が書き換えられることになる回数と要素を1つ書き換えるのに要する計算量をかけて、パラメータ線描画部243が処理する計算量を推定しパラメータ線描画計算量とする。   The parameter line drawing calculation amount estimation unit 273, for example, the number of times that an element is rewritten in the parameter space obtained in the process of the parameter calculation calculation amount estimation unit 272 and the calculation required to rewrite one element. By multiplying the amount, the calculation amount processed by the parameter line drawing unit 243 is estimated and set as the parameter line drawing calculation amount.

交差点検出計算量推定部274は、例えば候補領域の画素数をパラメータ線の数とし、パラメータ線の平均的な長さを仮定し、パラメータ線をランダムにパラメータ空間に配置するとして、パラメータ線同士が交差する点の数を推定し、ひとつの点のパラメータ空間上での座標を得るために要する計算量をかけ、交差点検出部244が処理する計算量を推定し交差点検出計算量とする。   For example, the intersection detection calculation amount estimation unit 274 assumes that the number of pixels in the candidate region is the number of parameter lines, assumes the average length of the parameter lines, and arranges the parameter lines randomly in the parameter space. The number of intersecting points is estimated, the amount of calculation required to obtain the coordinates of one point in the parameter space is multiplied, and the amount of calculation processed by the intersection detection unit 244 is estimated to be the intersection detection calculation amount.

重なり回数計量計算量推定部275は、例えば、交差点検出計算量推定部274が得た交差点の数に、一つの交差点の値を読み出すために要する計算量や閾値の比較に要する計算量をかけて、重なり回数計量部245が処理する計算量を推定し重なり回数計量計算量とする。   The overlap count metric calculation amount estimation unit 275, for example, multiplies the number of intersections obtained by the intersection detection calculation amount estimation unit 274 by the calculation amount required to read the value of one intersection and the calculation amount required for comparison of threshold values. The calculation amount processed by the overlap number measurement unit 245 is estimated as the overlap number measurement calculation amount.

有力候補線描画計算量推定部276は、例えば、交差点検出計算量推定部274が得た交差点の数と、交差点の数と同時に得た交差点における要素の値の平均値や分布から、閾値を越えて有力候補線となるパラメータの数を推定し、画像上の線を描く方程式から線を一本描くための計算量を推定しこれをパラメータの数にかけて、有力候補線描画部246が処理する計算量を推定し有力候補線描画計算量とする。   The probable candidate line drawing calculation amount estimation unit 276 exceeds the threshold value, for example, from the number of intersections obtained by the intersection detection calculation amount estimation unit 274 and the average value or distribution of the element values at the intersections obtained simultaneously with the number of intersections. The number of parameters to be a potential candidate line is estimated, the amount of calculation for drawing a single line is estimated from the equation for drawing a line on the image, and this is multiplied by the number of parameters to calculate that the strong candidate line drawing unit 246 processes. The amount is estimated and used as a candidate line drawing calculation amount.

通過判定計算量推定部277は、例えば有力候補線の数である前記推定された有力候補線となるパラメータの数を元にランダムに有力候補線を2値化画像上に配置した場合、有力候補線が候補領域の画素を通過する回数を推定し、通過する画素1つの座標を得るために要する計算量をかけて、通過判定部247が処理する計算量を推定し通過判定計算量とする。   The passage determination calculation amount estimation unit 277, for example, in the case where the dominant candidate lines are randomly arranged on the binarized image based on the number of parameters to be the estimated leading candidate lines, which is the number of leading candidate lines, is a leading candidate. The number of times that the line passes through the pixels of the candidate area is estimated, and the amount of calculation required to obtain the coordinates of one pixel that passes through is estimated, and the amount of calculation processed by the passage determination unit 247 is estimated and used as the passage determination calculation amount.

重み算出計算量推定部278は、例えば線の方程式から接線の方程式を算出するための計算量を推定し、それと接線がx軸となす角度を求めるための計算量と、角度から傾き重みを算出するための計算量を足し合わせ、それを有力候補線の平均的な長さと本数にかけて、重み算出部248が処理する計算量を推定し重み算出計算量とする。   The weight calculation calculation amount estimation unit 278 estimates the calculation amount for calculating the tangent equation from the line equation, for example, and calculates the inclination weight from the calculation amount for calculating the angle between the tangent and the x axis. The calculation amount to be processed is added, and the calculation amount processed by the weight calculation unit 248 is estimated as the weight calculation calculation amount by adding the calculation amount to the average length and the number of leading candidate lines.

個数計量計算量推定部279は、例えば有力候補線の平均的な長さと本数に、重みを1回掛け合わせるために要する計算量をかけて、個数計量部249が処理する計算量を推定し個数計量計算量とする。   The number measurement calculation amount estimation unit 279 estimates the calculation amount processed by the number measurement unit 249 by multiplying, for example, the average length and the number of leading candidate lines by the calculation amount required to multiply the weight once. Calculated weight.

実在線判定計算量推定部281は、例えば、推定した有力候補線の個数に対し、一つの有力候補線の重みの合計を閾値と比較し予め定めた近傍内の重みの合計と比較するために要する計算量をかけて、実在線判定部251が処理する計算量を推定し実在線判定計算量とする。   For example, the real line determination calculation amount estimation unit 281 compares the total weight of one leading candidate line with a threshold for the estimated number of leading candidate lines and compares the total weight with a predetermined weight. The calculation amount to be processed by the actual line determination unit 251 is estimated by multiplying the required calculation amount to obtain the actual line determination calculation amount.

図17に示す切替制御装置270における全候補線描画計算量推定部282、全通過判定計算量推定部283、全重み算出計算量推定部284、全個数計量計算量推定部285、全実在線判定計算量推定部286は、各々、図16に示す第2の画像処理装置260における全候補線描画部262、通過判定部263、重み算出部264、個数計量部265、実在線判定部266の処理時の計算量を推定する。   17, all candidate line drawing calculation amount estimation unit 282, all passage determination calculation amount estimation unit 283, all weight calculation calculation amount estimation unit 284, all number metric calculation amount estimation unit 285, all real line determination The calculation amount estimation unit 286 performs processing of the all candidate line drawing unit 262, the passage determination unit 263, the weight calculation unit 264, the number measurement unit 265, and the real line determination unit 266 in the second image processing apparatus 260 illustrated in FIG. Estimate time complexity.

全候補線描画計算量推定部282は、パラメータ空間上の全てのパラメータの組み合わせについて、画像上に直線や曲線を候補線として描画するために要する計算量を推定し、全候補線描画計算量とする。
例えば、パラメータ空間における全てのパラメータの組み合わせの数に、画像上の線を描く方程式から線を一本描くための計算量を先ず推定し、これをもとに全候補線描画部262が処理する計算量を推定し全候補線描画計算量とする。
The total candidate line drawing calculation amount estimation unit 282 estimates the amount of calculation required to draw a straight line or a curve as a candidate line on the image for all parameter combinations in the parameter space, To do.
For example, the amount of calculation for drawing one line is first estimated from the equation for drawing a line on the image to the number of combinations of all parameters in the parameter space, and all candidate line drawing units 262 process based on this. The amount of calculation is estimated to be the amount of calculation for all candidate line drawing.

全通過判定計算量推定部283は、各々の候補線について、画像上の候補領域内で候補線が通る画素及び候補線から予め定めた範囲内の近傍にある画素を通過画素としてその座標を求めるために要する計算量を推定し、全通過判定計算量とする。
例えば候補線を2値化画像上に配置した場合、候補線が候補領域の画素を通過する回数を推定し、通過する画素1つの座標を得るために要する計算量をかけて、通過判定部263が処理する計算量を推定し全通過判定計算量とする。
The all-passage determination calculation amount estimation unit 283 obtains the coordinates of each candidate line, with the pixel passing through the candidate line in the candidate area on the image and the pixel in the vicinity within a predetermined range from the candidate line as the passing pixel. The amount of calculation required for this is estimated to be the all-pass determination calculation amount.
For example, when the candidate line is arranged on the binarized image, the number of times the candidate line passes through the pixels in the candidate area is estimated, and the amount of calculation required to obtain the coordinates of one pixel passing through is multiplied, and the passage determination unit 263 Estimate the calculation amount to be processed, and set it as the all-pass determination calculation amount.

全重み算出計算量推定部284は、例えば線の方程式から接線の方程式を算出するための計算量を推定し、それと接線がx軸となす角度を求めるための計算量と、角度から傾き重みを算出するための計算量を足し合わせ、それを候補線の平均的な長さと本数にかけて、重み算出部264が処理する計算量を推定し全重み算出計算量とする。   The total weight calculation calculation amount estimation unit 284 estimates, for example, a calculation amount for calculating a tangent equation from a line equation, and calculates a calculation amount for determining an angle between the tangent and the x axis, and an inclination weight from the angle. The calculation amount for calculation is added, and it is multiplied by the average length and the number of candidate lines to estimate the calculation amount to be processed by the weight calculation unit 264 as the total weight calculation calculation amount.

全個数計量計算量推定部285は、各々の候補線について、全通過画素の傾き重みを合計し個数とするために要する計算量を推定し、全個数計量計算量とする。
例えば候補線の平均的な長さと本数に、重みを1回掛け合わせるために要する計算量をかけて、個数計量部265が処理する計算量を推定し全個数計量計算量とする。
The total number calculation calculation amount estimation unit 285 estimates the calculation amount necessary for totaling the slope weights of all the passing pixels for each candidate line, and sets it as the total number calculation calculation amount.
For example, by multiplying the average length and the number of candidate lines by the amount of calculation required to multiply the weight once, the amount of calculation processed by the number counting unit 265 is estimated to be the total number counting calculation amount.

全実在線判定計算量推定部286は、前記個数が予め外部から与えた閾値より多い場合であり且つパラメータ空間上予め定めた近傍内で他に前記個数を上回る箇所が無い場合、その候補線は実際に画像上に存在する線である実在線とみなすために要する計算量を推定し、全実在線判定計算量とする。
例えば、一つの候補線の重みの合計を閾値と比較し予め定めた近傍内の重みの合計と比較するために要する計算量をかけて、実在線判定部266が処理する計算量を推定し全実在線判定計算量とする。
The all real line determination calculation amount estimation unit 286 is a case where the number is greater than a threshold given from the outside in advance, and when there is no other portion exceeding the number within a predetermined neighborhood in the parameter space, the candidate line is The amount of calculation required to be regarded as a real line that is actually present on the image is estimated to be the total real line determination calculation amount.
For example, the total amount of weight of one candidate line is compared with a threshold and multiplied by the amount of calculation required to compare with the total of the weights in a predetermined neighborhood, and the amount of calculation processed by the existing line determination unit 266 is estimated. The actual line judgment calculation amount.

ここで、図15に示す有力候補線描画部246とそれに続く、通過判定部247、重み算出部248、個数計量部249、実在線判定部251は、それらの処理の前に有力候補線を絞り込んだあとで有力候補線のみを画像上に描画して処理を続ける。
これに対し、図16に示す全候補線描画部262とそれに続く、通過判定部263、重み算出部264、個数計量部265、実在線判定部266は、絞込みを行わず、全てのパラメータの組み合わせについて線を画像上に描画して処理を続ける。
このように、第1の画像処理装置240による処理と、第2の画像処理装置260による処理とは、有力候補線を絞り込んでいるか否かが相違する。
Here, the leading candidate line drawing unit 246 shown in FIG. 15 and the subsequent passage determining unit 247, weight calculating unit 248, number measuring unit 249, and actual line determining unit 251 narrow down the leading candidate lines before these processes. After that, only the strong candidate lines are drawn on the image and the process is continued.
On the other hand, the all candidate line drawing unit 262 shown in FIG. 16 and the subsequent passage determination unit 263, weight calculation unit 264, number measurement unit 265, and actual line determination unit 266 do not narrow down and combine all parameters. Draw a line on the image and continue processing.
As described above, the processing by the first image processing device 240 and the processing by the second image processing device 260 are different depending on whether or not the potential candidate lines are narrowed down.

手法選択部287は、先ず、パラメータ算出計算量、パラメータ線描画計算量、交差点検出計算量、重なり回数計量計算量、有力候補線描画計算量、通過判定計算量、重み算出計算量、個数計量計算量、実在線判定計算量の合計を、パラメータ空間計算量(第1の計算量)とする。   First, the method selection unit 287 calculates a parameter calculation calculation amount, a parameter line drawing calculation amount, an intersection detection calculation amount, an overlap count calculation calculation amount, a leading candidate line drawing calculation amount, a passage determination calculation amount, a weight calculation calculation amount, and a number measurement calculation. The sum of the amount and the actual line determination calculation amount is defined as a parameter space calculation amount (first calculation amount).

また、手法選択部287は、全候補線描画計算量、全通過判定計算量、全重み算出計算量、全個数計量計算量、全実在線判定計算量の合計を、画像空間計算量(第2の計算量)とする。   The method selection unit 287 also calculates the total of all candidate line drawing calculation amounts, all-pass determination calculation amounts, all weight calculation calculation amounts, all piece metric calculation amounts, and all real line determination calculation amounts as image space calculation amounts (second Calculation amount).

さらに、手法選択部287は、前記パラメータ空間計算量と前記画像空間計算量とを比較し、パラメータ空間計算量の方が小さい場合は、前記第1の画像処理装置240による処理を選択し、画像空間計算量の方が小さい場合は、前記第2の画像処理装置260による処理を選択し、お互いが等しい場合は、予め定めた選択制約に基づいて、いずれかの処理を選択する制御を行う。   Further, the method selection unit 287 compares the parameter space calculation amount with the image space calculation amount, and when the parameter space calculation amount is smaller, selects the processing by the first image processing device 240, and When the amount of spatial calculation is smaller, the processing by the second image processing device 260 is selected, and when they are equal, control is performed to select one of the processing based on a predetermined selection constraint.

これら計算量の推定時には、確率的に線の配置などを決めており、計算量自体に確率分布をもたせてもよい。例えば推定値に誤差を加えた表記をしてもよい。この場合、パラメータ空間計算量や画像空間計算量を求める際など確率分布を持った数値同士を演算する場合は誤差伝播を考慮して、演算後の数値にも分布を持たせてもよい。   When estimating the amount of calculation, the arrangement of lines and the like is determined probabilistically, and the calculation amount itself may have a probability distribution. For example, the estimated value may be added with an error. In this case, when calculating numerical values having a probability distribution, such as when calculating the parameter space calculation amount and the image space calculation amount, the calculated numerical values may have a distribution in consideration of error propagation.

ここで、本実施の形態のパラメータ算出計算量推定部272、パラメータ線描画計算量推定部273、交差点検出計算量推定部274、重なり回数計量計算量推定部275、有力候補線描画計算量推定部276、通過判定計算量推定部277、重み算出計算量推定部278、個数計量計算量推定部279、実在線判定計算量推定部281により、「第1の計算量推定手段270a」を構成することもできる。   Here, the parameter calculation calculation amount estimation unit 272, the parameter line drawing calculation amount estimation unit 273, the intersection detection calculation amount estimation unit 274, the overlap count metric calculation amount estimation unit 275, the leading candidate line drawing calculation amount estimation unit according to the present embodiment. 276, the passage determination calculation amount estimation unit 277, the weight calculation calculation amount estimation unit 278, the number measurement calculation amount estimation unit 279, and the real line determination calculation amount estimation unit 281 constitute the “first calculation amount estimation unit 270a”. You can also.

また、本実施の形態の全候補線描画計算量推定部282、全通過判定計算量推定部283、全重み算出計算量推定部284、全個数計量計算量推定部285、全実在線判定計算量推定部286により、「第2の計算量推定手段270b」を構成することができる。
さらに、本実施の形態の手法選択部287は、「計算パターン選択手段」ということもできる。
さらにまた、2値化処理部271、「第1の計算量推定手段270a」、「第2の計算量推定手段270b」、手法選択部287、モジュール制御部288により、「計算パターン選択制御手段」を構成することもできる。
Also, all candidate line drawing calculation amount estimation unit 282, all passage determination calculation amount estimation unit 283, all weight calculation calculation amount estimation unit 284, all number metric calculation amount estimation unit 285, all actual line determination calculation amount of the present embodiment. The estimation unit 286 can constitute the “second calculation amount estimation unit 270b”.
Furthermore, the technique selection unit 287 of the present embodiment can also be referred to as “calculation pattern selection means”.
Furthermore, the binarization processing unit 271, the “first calculation amount estimation unit 270a”, the “second calculation amount estimation unit 270b”, the method selection unit 287, and the module control unit 288 are used to generate “calculation pattern selection control unit”. Can also be configured.

また、前記第1の実施の形態と同様に、本実施の形態のパラメータ算出部242、パラメータ線描画部243、交差点検出部244、重なり回数計量部245、有力候補線描画部246により、「候補線描画制御手段」を構成することもできる。また、本実施の形態の通過判定部247は、「候補線周辺領域決定手段」ということもできる。
さらに、本実施の形態の重み算出部248と個数計量部249により、「候補線識別指標算出手段」を構成することもできる。また、本実施の形態の実在線判定部251は、「実在線決定制御手段」ということもできる。
また、本実施の形態のパラメータ算出部242、パラメータ線描画部243により、「パラメータ空間部描画手段」を構成することもできる。
さらに、本実施の形態の交差点検出部44、重なり回数計量部45により、「選別手段40c」を構成することもできる。
さらにまた、本実施の形態の有力候補線描画部46は、「候補線描画手段」ということもできる。
Similarly to the first embodiment, the parameter calculation unit 242, parameter line drawing unit 243, intersection detection unit 244, overlap number measurement unit 245, and leading candidate line drawing unit 246 of the present embodiment can be used as a “candidate”. Line drawing control means "can also be configured. Further, the passage determination unit 247 of the present embodiment can also be referred to as “candidate line peripheral region determination means”.
Furthermore, the “candidate line identification index calculating means” may be configured by the weight calculating unit 248 and the number measuring unit 249 of the present embodiment. In addition, the actual line determination unit 251 of the present embodiment can also be referred to as “real line determination control means”.
Further, the parameter calculation unit 242 and the parameter line drawing unit 243 according to the present embodiment can constitute a “parameter space drawing unit”.
Furthermore, the “selecting means 40 c” can be configured by the intersection detection unit 44 and the overlap number measurement unit 45 of the present embodiment.
Furthermore, the leading candidate line drawing unit 46 of the present embodiment can also be referred to as “candidate line drawing means”.

この場合、前記パラメータ空間部描画手段は、画像内の画素を通り得る線を特定のパラメータを含む方程式で表し、この方程式の前記パラメータを座標軸とするパラメータ空間部に、前記画素に対応するパラメータ空間図形要素を各々の各前記画素について描画することができる。
また、前記選別手段は、各々の前記パラメータ空間図形要素が交差する交差部における交差回数と、前記交差部の周辺の交差部周辺領域の他の交差部の交差回数と、予め設定された交差回数閾値とに基づいて、前記画像内の候補線に対応する前記パラメータ空間部の前記パラメータの組み合わせの座標値の有力候補を選別することができる。
さらに、前記候補線描画手段は、前記選別手段にて選別された前記有力候補の前記座標値の周辺の有力候補領域内の各座標値について、前記画像内に対応する候補線を描画することができる。
In this case, the parameter space drawing unit represents a line that can pass through the pixel in the image by an equation including a specific parameter, and the parameter space corresponding to the pixel in the parameter space having the parameter of the equation as a coordinate axis. A graphic element can be drawn for each said pixel.
In addition, the selecting means includes the number of intersections at each intersection where the parameter space graphic elements intersect, the number of intersections at other intersections around the intersection, and a preset number of intersections. Based on the threshold value, it is possible to select a potential candidate for the coordinate value of the parameter combination in the parameter space portion corresponding to the candidate line in the image.
Further, the candidate line drawing means may draw a corresponding candidate line in the image for each coordinate value in a strong candidate area around the coordinate value of the strong candidate selected by the selecting means. it can.

さらに、前記候補線周辺領域決定手段は、前記候補線及び該候補線の周辺の候補線周辺領域が通過する通過画素を、各々の前記候補線について決定することができる。
また、前記候補線識別指標算出手段は、前記候補線を識別する指標であって前記候補線の接線の傾きを示す傾き重みを前記通過画素毎に算出し、各々の前記候補線について前記傾き重みの合計値を算出することができる。
さらに、実在線決定制御手段は、前記候補線識別指標算出手段にて算出された各々の前記候補線の各々の前記合計値に基づいて、一の前記候補線に対応する前記パラメータ空間部での一の前記パラメータの組み合わせの座標値の周辺のパラメータ値周辺領域内に、一の前記候補線の前記合計値を上回る他の前記候補線に対応する他の前記パラメータの組み合わせの座標値の有無を探索し、前記パラメータ値周辺領域内にて一の前記候補線の前記合計値を上回る他の前記候補線の前記合計値がない場合には、一の前記候補線を実在線として決定する制御を行うことができる。
Further, the candidate line peripheral region determining means can determine, for each candidate line, a passing pixel through which the candidate line and a candidate line peripheral region around the candidate line pass.
In addition, the candidate line identification index calculating means calculates an inclination weight that is an index for identifying the candidate line and indicates an inclination of a tangent line of the candidate line for each passing pixel, and the inclination weight for each candidate line The total value of can be calculated.
Further, the actual line determination control means is configured to determine, based on the total value of each of the candidate lines calculated by the candidate line identification index calculation means, the parameter space portion corresponding to one candidate line. Presence / absence of coordinate values of other parameter combinations corresponding to the other candidate lines exceeding the total value of the one candidate line in the parameter value peripheral region around the coordinate values of the one parameter combination Search and control to determine one candidate line as a real line if there is no other total value of the candidate line exceeding the total value of the one candidate line in the parameter value peripheral region It can be carried out.

また、前記第2の実施の形態と同様に、本実施の形態の全候補線描画部262により、「候補線描画制御手段」を構成することもできる。また、本実施の形態の通過判定部263は、「候補線周辺領域決定手段」ということもできる。
さらに、本実施の形態の重み算出部264と個数計量部265により、「候補線識別指標算出手段」を構成することもできる。また、本実施の形態の実在線判定部266は、「実在線決定制御手段」ということもできる。
Further, as in the second embodiment, the “candidate line drawing control means” can be configured by the all candidate line drawing unit 262 of the present embodiment. In addition, the passage determination unit 263 according to the present embodiment can also be referred to as “candidate line peripheral region determination means”.
Furthermore, the “candidate line identification index calculating means” can be configured by the weight calculating unit 264 and the number measuring unit 265 of the present embodiment. Further, the actual line determination unit 266 of the present embodiment can also be referred to as “real line determination control means”.

この場合、前記候補線描画制御手段は、画像内の画素を通り得る線を特定のパラメータを含む方程式で表し、この方程式の前記パラメータを座標軸とするパラメータ空間部の前記パラメータの組み合わせがとる座標値に基づいて、前記座標値に対応する前記画像内の各候補線を描画する制御を行うことができる。
また、前記候補線周辺領域決定手段は、前記候補線及び該候補線の周辺の候補線周辺領域が通過する通過画素を、各々の前記候補線について決定することができる。
さらに、候補線識別指標算出手段は、前記候補線を識別する指標であって前記候補線の接線の傾きを示す傾き重みを前記通過画素毎に算出し、各々の前記候補線について前記傾き重みの合計値を算出することができる。
また、実在線決定制御手段は、前記候補線識別指標算出手段にて算出された各々の前記候補線の各々の前記合計値に基づいて、一の前記候補線に対応する前記パラメータ空間部での一の前記パラメータの組み合わせの座標値の周辺のパラメータ値周辺領域内に、一の前記候補線の前記合計値を上回る他の前記候補線に対応する他の前記パラメータの組み合わせの座標値の有無を探索し、前記パラメータ値周辺領域内にて一の前記候補線の前記合計値を上回る他の前記候補線の前記合計値がない場合には、一の前記候補線を実在線として決定する制御を行うことができる。
In this case, the candidate line drawing control means represents a line that can pass through a pixel in the image by an equation including a specific parameter, and a coordinate value taken by a combination of the parameters in the parameter space portion having the parameter of the equation as a coordinate axis. Based on the above, it is possible to perform control for drawing each candidate line in the image corresponding to the coordinate value.
In addition, the candidate line peripheral area determination unit can determine, for each of the candidate lines, a passing pixel through which the candidate line and a candidate line peripheral area around the candidate line pass.
Further, the candidate line identification index calculating means calculates an inclination weight that is an index for identifying the candidate line and indicates an inclination of a tangent line of the candidate line for each passing pixel, and the inclination weight of each candidate line is calculated. The total value can be calculated.
In addition, the real line determination control unit is configured to determine, based on the total value of each of the candidate lines calculated by the candidate line identification index calculation unit, in the parameter space unit corresponding to the one candidate line. Presence / absence of coordinate values of other parameter combinations corresponding to the other candidate lines exceeding the total value of the one candidate line in the parameter value peripheral region around the coordinate values of the one parameter combination Search and control to determine one candidate line as a real line if there is no other total value of the candidate line exceeding the total value of the one candidate line in the parameter value peripheral region It can be carried out.

また、前記第1の計算量推定手段は、前記第1の画像処理装置の前記パラメータ空間部描画手段による前記パラメータ空間部への描画処理、及び前記候補線描画手段による前記画像内の選別された各々の前記候補線の描画処理を行う場合の第1の計算パターンによる第1の計算量を推定することができる。さらに、前記第2の計算量推定手段は、前記画像内の各々の前記候補線の描画処理のみを行う場合の第2の計算パターンによる第2の計算量を推定することができる。さらにまた、前記計算パターン選択手段は、前記第1の計算量推定手段での前記第1の計算量と、前記第2の計算量推定手段での前記第2の計算量とを比較し、計算量の少ない方の計算パターンを選択することができる。   In addition, the first calculation amount estimation unit is configured to perform drawing processing in the parameter space part by the parameter space part drawing unit of the first image processing apparatus, and selection in the image by the candidate line drawing unit. It is possible to estimate a first calculation amount based on a first calculation pattern when each candidate line is drawn. Furthermore, the second calculation amount estimation means can estimate a second calculation amount based on a second calculation pattern when only drawing processing of each candidate line in the image is performed. Furthermore, the calculation pattern selection unit compares the first calculation amount in the first calculation amount estimation unit with the second calculation amount in the second calculation amount estimation unit, and calculates the calculation amount. The calculation pattern with the smaller amount can be selected.

前記計算パターン選択制御手段は、前記パラメータ空間部描画手段による前記パラメータ空間部への描画処理、及び前記候補線描画手段による前記画像内の選別された各々の前記候補線の描画処理を行う場合の第1の計算パターンによる第1の計算量と、前記画像内の各々の前記候補線の描画処理のみを行う場合の第2の計算パターンによる第2の計算量とに基づいて、計算量の少ない方の計算パターンを選択することができる。   The calculation pattern selection control means is configured to perform drawing processing on the parameter space portion by the parameter space portion drawing means and drawing processing of each selected candidate line in the image by the candidate line drawing means. The calculation amount is small based on the first calculation amount based on the first calculation pattern and the second calculation amount based on the second calculation pattern when only drawing processing of each candidate line in the image is performed. You can select the calculation pattern.

(処理手順について)
次に、上述のような構成を有する画像処理システムにおける各部の処理は、方法としても実現可能であり、画像処理方法としての各種の処理手順について、図18を参照しつつ説明する。
(About processing procedure)
Next, the processing of each unit in the image processing system having the above-described configuration can be realized as a method, and various processing procedures as the image processing method will be described with reference to FIG.

先ず、コンピュータが、画素値に基づいて、検出対象である直線や曲線の候補となる領域とそれ以外の領域の2つの領域をそれぞれ候補領域及び背景領域として、画像を2つの領域に分割し、2値化された画像上の候補領域の比率を求め、パラメータ空間の各軸に離散化幅を与えて各々の処理の計算量を推定する(ステップS301)<2値化処理ステップ>。   First, based on the pixel value, the computer divides the image into two areas, with the two areas of the detection target line and curve candidates and the other areas as a candidate area and a background area, respectively. A ratio of candidate areas on the binarized image is obtained, and a discretization width is given to each axis of the parameter space to estimate a calculation amount of each processing (step S301) <binarization processing step>.

次に、前記コンピュータが、前記候補領域の各画素において、その画素を通り得る全ての直線や曲線を表現する方程式のパラメータの組み合わせを算出するために要する計算量を推定し、パラメータ算出計算量とする(ステップS302)<パラメータ算出計算量推定処理ステップ>。   Next, the computer estimates the amount of calculation required for calculating a combination of parameters of equations expressing all straight lines and curves that can pass through the pixel in each pixel of the candidate region, (Step S302) <Parameter calculation calculation amount estimation processing step>

続いて、前記コンピュータが、前記パラメータについて各々を軸とした空間をパラメータ空間とし、その空間上に前記パラメータの組み合わせ全てをパラメータ線として曲線状あるいは直線状に描画するために要する計算量を推定し、パラメータ線描画計算量とする(ステップS303)<パラメータ線描画計算量推定処理ステップ>。   Subsequently, the computer estimates the amount of calculation required to draw a space with each axis as an axis for the parameter as a parameter space and draw all combinations of the parameters as parameter lines on the space in a curved line or a straight line. , Parameter line drawing calculation amount (step S303) <parameter line drawing calculation amount estimation processing step>.

そして、前記コンピュータが、候補領域内の全画素についてパラメータ線を描画し、パラメータ空間上でパラメータ線同士が重なる点の座標を交差点として求めるために要する計算量を推定し、交差点検出計算量とする(ステップS304)<交差点検出計算量推定処理ステップ>。   Then, the computer draws parameter lines for all the pixels in the candidate area, estimates the amount of calculation required to obtain the coordinates of the points where the parameter lines overlap in the parameter space as an intersection, and sets it as the intersection detection calculation amount (Step S304) <Intersection detection calculation amount estimation processing step>.

さらに、前記コンピュータが、パラメータ線同士が重なる回数が予め外部から与えた閾値より大きい座標であり且つ予め定めた近傍内で他に前記重なる回数を上回る箇所が無い座標が指し示すパラメータの組み合わせを、検出対象となる直線や曲線のパラメータ組み合わせの有力候補とするために要する計算量を推定し、重なり回数計量計算量とする(ステップS305)<重なり回数計量計算量推定処理ステップ>。   Further, the computer detects a combination of parameters indicated by coordinates where the number of overlapping parameter lines is larger than a threshold given from the outside in advance and where there is no other location exceeding the overlapping number within a predetermined neighborhood. Estimate the amount of calculation required to be a promising candidate for the parameter combination of the target straight line or curve, and set it as the overlap count metric calculation amount (step S305) <overlap count metric calculation amount estimation processing step>.

加えて、前記コンピュータが、パラメータ空間上その有力候補及び有力候補の近傍で有力候補から予め外部から与えた距離内にあるパラメータの組み合わせについて、それらパラメータに従って画像上に直線や曲線を有力候補線として描画するために要する計算量を推定し、有力候補線描画計算量とする(ステップS306)<有力候補線描画計算量推定処理ステップ>。   In addition, for the combination of parameters in the parameter space that are within the distance given from the outside in advance from the potential candidates in the vicinity of the potential candidates in the parameter space, the computer uses straight lines or curves as potential candidate lines on the image according to those parameters. A calculation amount required for drawing is estimated and set as a leading candidate line drawing calculation amount (step S306) <leading candidate line drawing calculation amount estimation processing step>.

次いで、前記コンピュータが、各々の有力候補線について、画像上の候補領域内で有力候補線が通る画素及び有力候補線から予め定めた範囲内の近傍にある画素を通過画素としてその座標を求めるために要する計算量を推定し、通過判定計算量とする(ステップS307)<通過判定計算量推定処理ステップ>。   Next, the computer obtains the coordinates of each potential candidate line, using pixels passing through the potential candidate line in the candidate area on the image and pixels in the vicinity within a predetermined range from the potential candidate line as passing pixels. The amount of calculation required to pass is estimated as the passage determination calculation amount (step S307) <passage determination calculation amount estimation processing step>.

続いて、前記コンピュータが、有力候補線の接線の傾きに従って接線が画像上のx軸と成す角度の余弦の逆数の絶対値が2の平方根以下の場合はこの角度の余弦の逆数の絶対値を傾き重みとし、それ以外は正弦の逆数の絶対値を重みとし、有力候補線の通過画素毎に傾き重みを求めるために要する計算量を推定し、重み算出計算量とする(ステップS308)<重み算出計算量推定処理ステップ>。   Subsequently, when the absolute value of the reciprocal of the cosine of the angle formed by the tangent and the x axis on the image is equal to or less than the square root of 2, the computer calculates the absolute value of the reciprocal of the cosine of this angle. In other words, the absolute value of the reciprocal of the sine is used as the weight, and the amount of calculation required to obtain the inclination weight for each passing pixel of the leading candidate line is estimated to be the weight calculation calculation amount (step S308) <weight Calculated calculation amount estimation processing step>.

そして、前記コンピュータが、各々の有力候補線について、全通過画素の傾き重みを合計して個数とするために要する計算量を推定し、個数計量計算量とする(ステップS309)<個数計量計算量推定処理ステップ>。   Then, the computer estimates the amount of calculation required for summing the inclination weights of all the passing pixels for each leading candidate line, and sets it as the number measurement calculation amount (step S309) <number measurement calculation amount Estimation processing step>.

さらに、前記コンピュータが、前記個数が予め外部から与えた閾値より多い場合であり、且つ、パラメータ空間上予め定めた近傍内で他に前記個数を上回る箇所が無い場合、その有力候補線は実際に画像上に存在する線である実在線とするために要する計算量を推定し、実在線判定計算量とする(ステップS310)<実在線判定計算量推定処理ステップ>。   Further, when the computer is more than the threshold value given from the outside in advance, and there is no other location exceeding the number in the predetermined neighborhood in the parameter space, the probable candidate line is actually A calculation amount required to make a real line which is a line existing on the image is estimated and set as a real line determination calculation amount (step S310) <real line determination calculation amount estimation processing step>.

次に、前記コンピュータが、パラメータ空間上の全てのパラメータの組み合わせについて、画像上に直線や曲線を候補線として描画するために要する計算量を推定し、全候補線描画計算量とする(ステップS311)<全候補線描画計算量推定処理ステップ>。   Next, the computer estimates the amount of calculation required to draw a straight line or curve as a candidate line on the image for all parameter combinations in the parameter space, and sets it as the total candidate line drawing calculation amount (step S311). ) <All candidate line drawing calculation amount estimation processing step>.

続いて、前記コンピュータが、各々の候補線について、画像上の候補領域内で候補線が通る画素及び候補線から予め定めた範囲内の近傍にある画素を通過画素としてその座標を求めるために要する計算量を推定し、全通過判定計算量とする(ステップS312)<全通過判定計算量推定処理ステップ>。   Subsequently, it is necessary for the computer to obtain the coordinates of each candidate line by using, as a passing pixel, a pixel passing through the candidate line in the candidate area on the image and a pixel in the vicinity within a predetermined range from the candidate line. The calculation amount is estimated and set as an all-pass determination calculation amount (step S312) <all-pass determination calculation amount estimation processing step>.

そして、前記コンピュータが、全ての候補線の接線の傾きに従って接線が画像上のx軸と成す角度の余弦の逆数の絶対値が2の平方根以下の場合はこの角度の余弦の逆数の絶対値を傾き重みとし、それ以外は正弦の逆数の絶対値を傾き重みとし、有力候補線が通過する画素毎に傾き重みを求めるために要する計算量を推定し、全重み算出計算量とする(ステップS313)<全重み算出計算量推定処理ステップ>。   If the absolute value of the reciprocal of the cosine of the angle formed by the tangent and the x axis on the image is less than the square root of 2 according to the inclination of the tangent of all candidate lines, the computer calculates the absolute value of the reciprocal of the cosine of this angle. In other words, the absolute value of the inverse of the sine is used as the inclination weight, and the calculation amount required to obtain the inclination weight for each pixel through which the promising candidate line passes is estimated to be the total weight calculation calculation amount (step S313). ) <Total weight calculation calculation amount estimation processing step>.

さらに、前記コンピュータが、各々の候補線について、全通過画素の傾き重みを合計し個数とするために要する計算量を推定し、全個数計量計算量とする(ステップS314)<全個数計量計算量推定処理ステップ>。   Further, for each candidate line, the computer estimates the amount of calculation required for summing the slope weights of all the passing pixels to make the number, and sets it as the total number measurement calculation amount (step S314) <total number measurement calculation amount Estimation processing step>.

加えて、前記コンピュータが、前記個数が予め外部から与えた閾値より多い場合であり且つパラメータ空間上予め定めた近傍内で他に前記個数を上回る箇所が無い場合、その候補線は実際に画像上に存在する線である実在線とみなすために要する計算量を推定し、全実在線判定計算量とする(ステップS315)<全実在線判定計算量推定処理ステップ>。   In addition, when the number of the computers is greater than the threshold given from the outside in advance and there is no other location exceeding the number in the predetermined vicinity in the parameter space, the candidate line is actually on the image. The amount of calculation required to be regarded as a real line, which is a line existing in, is estimated as the total real line determination calculation amount (step S315) <all real line determination calculation amount estimation processing step>.

次いで、前記コンピュータが、前記パラメータ算出計算量とパラメータ線描画計算量と交差点検出計算量と重なり回数計量計算量と有力候補線描画計算量と通過判定計算量と重み算出計算量と個数計量計算量と実在線判定計算量の合計をパラメータ空間計算量(第1の計算量)とする。
加えて、前記コンピュータが、全候補線描画計算量と全通過判定計算量と全重み算出計算量と全個数計量計算量と全実在線判定計算量の合計を画像空間計算量(第2の計算量)とする。
さらに加えて、前記コンピュータが、前記パラメータ空間計算量と前記画像空間計算量を比較し、パラメータ空間計算量の方が画像空間計算量より小さい場合は、前記第1の実施の形態のステップS101〜S111の処理手順による実在線画像を生成する。
一方、画像空間計算量の方がパラメータ空間計算量より小さい場合は、前記コンピュータは、前記第2の実施の形態のステップS201〜S207の処理手順による実在線画像を生成する。
他方、画像空間計算量とパラメータ空間計算量とが等しい場合は、予め定めたルールに基づいていずれか一方の処理手順により実在線画像を生成する(ステップS316)<手法選択処理ステップ>。
Next, the computer calculates the parameter calculation calculation amount, the parameter line drawing calculation amount, the intersection detection calculation amount, the overlap count metric calculation amount, the leading candidate line drawing calculation amount, the passage determination calculation amount, the weight calculation calculation amount, and the number measurement calculation amount. And the real line determination calculation amount is defined as a parameter space calculation amount (first calculation amount).
In addition, the computer calculates the total of all candidate line drawing calculation amount, all pass determination calculation amount, all weight calculation calculation amount, all piece metric calculation calculation amount, and all real line determination calculation amount (second calculation amount). Amount).
In addition, the computer compares the parameter space calculation amount and the image space calculation amount. If the parameter space calculation amount is smaller than the image space calculation amount, steps S101 to S101 in the first embodiment are performed. A real line image is generated by the processing procedure of S111.
On the other hand, when the image space calculation amount is smaller than the parameter space calculation amount, the computer generates a real line image according to the processing procedure of steps S201 to S207 of the second embodiment.
On the other hand, if the image space calculation amount is equal to the parameter space calculation amount, a real line image is generated by one of the processing procedures based on a predetermined rule (step S316) <method selection processing step>.

ここで、以上のステップS301乃至ステップS316における一連のステップを「計算パターン選択制御ステップ」ということもできる。この計算パターン選択制御ステップでは、前記パラメータ空間部描画ステップ(図9に示すステップS100b)による前記パラメータ空間部への描画処理、及び前記候補線描画ステップ(図9に示すステップS106)による前記画像内の選別された各々の前記候補線の描画処理を行う場合の第1の計算パターンによる第1の計算量と、前記画像内の各々の前記候補線の描画処理のみを行う場合の第2の計算パターンによる第2の計算量とに基づいて、計算量の少ない方の計算パターンを選択する制御を行うことができる。   Here, the series of steps in steps S301 to S316 described above can also be referred to as “calculation pattern selection control step”. In the calculation pattern selection control step, the drawing process in the parameter space part by the parameter space part drawing step (step S100b shown in FIG. 9), and the inside of the image by the candidate line drawing step (step S106 shown in FIG. 9). The first calculation amount by the first calculation pattern when performing the drawing process of each selected candidate line, and the second calculation when performing only the drawing process of each candidate line in the image Based on the second calculation amount based on the pattern, it is possible to perform control to select the calculation pattern having the smaller calculation amount.

以上のように本実施の形態によれば、前記第1の実施の形態と同様の作用効果を奏しながらも、2値化後の候補領域の画像全体に対する比率が高くても計算量増大をさらに低減できる。その理由は、ハフ変換せずに最初から逆ハフ変換して検出すべき線を構成するパラメータの組を見出す仕組みがあり、更に、各々の手法の計算量を推測することによって、自動的に最初にハフ変換すべきか否か(ハフ変換+逆ハフ変換か逆ハフ変換のみか)判断できるからである。   As described above, according to the present embodiment, while achieving the same operational effects as the first embodiment, even if the ratio of the binarized candidate area to the entire image is high, the calculation amount is further increased. Can be reduced. The reason for this is that there is a mechanism for finding a set of parameters that constitute a line to be detected by performing inverse Hough transform from the beginning without Hough transform, and by automatically estimating the calculation amount of each method, This is because it can be determined whether or not the Hough transformation should be performed (whether the Hough transformation + inverse Hough transformation or inverse Hough transformation only).

このように、本実施の形態の画像処理装置では、一旦ハフ変換してから逆ハフ変換する場合の計算量と、ハフ変換せずに最初から逆ハフ変換して検出すべき線を構成するパラメータの組を見出す場合の計算量を比較し、2値化画像における候補領域の比率とパラメータ空間の離散化幅からどちらの手法が計算量が少ないかを自動的に判別する。   As described above, in the image processing apparatus according to the present embodiment, the amount of calculation when the Hough transform is performed and then the inverse Hough transform is performed, and the parameters constituting the line to be detected by performing the inverse Hough transform from the beginning without performing the Hough transform. The amount of calculation for finding the set of the two is compared, and it is automatically determined which method has the smaller amount of calculation from the ratio of the candidate areas in the binarized image and the discretization width of the parameter space.

その他の構成およびその他のステップ並びにその作用効果については、前述した第1の実施の形態の場合と同一となっている。また、前記の説明において、上述した各ステップの動作内容及び各部の構成要素をプログラム化し、コンピュータに実行させてもよい。   Other configurations, other steps, and operational effects thereof are the same as those in the first embodiment described above. In the above description, the operation content of each step described above and the components of each unit may be programmed and executed by a computer.

[第4の実施の形態]
次に、本発明にかかる第4の実施の形態について、図19に基づいて説明する。以下には、前記第1の実施の形態の実質的に同様の構成に関しては説明を省略し、異なる部分についてのみ述べる。図19は、本発明の画像処理システムにおける画像処理装置の第4の実施の形態の一例を示すブロック図である。
[Fourth Embodiment]
Next, a fourth embodiment according to the present invention will be described with reference to FIG. In the following, description of the substantially similar configuration of the first embodiment will be omitted, and only different parts will be described. FIG. 19 is a block diagram showing an example of the fourth embodiment of the image processing apparatus in the image processing system of the present invention.

本実施の形態では、前記第1の実施の形態の画像処理装置の2値化処理部の前段に平滑化処理部を構成した例を開示している。   In the present embodiment, an example is disclosed in which a smoothing processing unit is configured before the binarization processing unit of the image processing apparatus of the first embodiment.

(構成について)
具体的には、本第4の実施の形態の画像処理システムにおける画像処理装置340は、図19に示すように、画像を平滑化する平滑化処理部341と、前記第1の実施の形態と同様の構成である、2値化処理部342と、パラメータ算出部343と、パラメータ線描画部344と、交差点検出部345と、重なり回数計量部346と、有力候補線描画部347と、通過判定部348と、重み算出部349と、個数計量部351と、実在線判定部352と、実在線画像生成部353と、これら各部の実行手順を制御するモジュール制御部354と、を含む構成としている。
(About configuration)
Specifically, as shown in FIG. 19, the image processing apparatus 340 in the image processing system of the fourth embodiment includes a smoothing processing unit 341 that smoothes an image, and the first embodiment. The binarization processing unit 342, the parameter calculation unit 343, the parameter line drawing unit 344, the intersection detection unit 345, the overlap count measurement unit 346, the leading candidate line drawing unit 347, and the passage determination having the same configuration. Unit 348, weight calculation unit 349, number measurement unit 351, real line determination unit 352, real line image generation unit 353, and module control unit 354 that controls the execution procedure of these units. .

平滑化処理部341における平滑化の手法としては、例えば重みが2次元ガウシアンとなっているマスクを画像に畳み込む手法や、局所領域内で平均をとる手法、局所領域内で中間値をとる手法、多次元局面を最小2乗フィッティングする手法など様々な方法があるが、どれを適用してもよい。   As a smoothing method in the smoothing processing unit 341, for example, a method of convolving a mask whose weight is a two-dimensional Gaussian into an image, a method of taking an average in a local region, a method of taking an intermediate value in a local region, There are various methods such as a method of least square fitting of a multidimensional aspect, and any method may be applied.

ここで、本実施の形態の平滑化処理部341は、「平滑化処理手段」ということもできる。また、本実施の形態のパラメータ算出部343と、パラメータ線描画部344と、交差点検出部345と、重なり回数計量部346と、有力候補線描画部347とにより、「候補線描画制御手段」を構成することもできる。   Here, the smoothing processing unit 341 of the present embodiment can also be referred to as “smoothing processing means”. In addition, the parameter calculation unit 343, the parameter line drawing unit 344, the intersection detection unit 345, the overlap count measurement unit 346, and the leading candidate line drawing unit 347 according to the present embodiment provide a “candidate line drawing control unit”. It can also be configured.

前記平滑化処理手段は、前記候補領域を抽出する前に、前記画像を平滑化処理することができる。この場合、前記候補線描画制御手段は、前記平滑化処理手段にて平滑化された前記候補領域の画像をもとに、前記候補線を描画することができる。   The smoothing processing means can smooth the image before extracting the candidate area. In this case, the candidate line drawing control means can draw the candidate line based on the image of the candidate area smoothed by the smoothing processing means.

(処理手順について)
次に、上述のような構成を有する画像処理システムにおける各部の処理は、方法としても実現可能であり、画像処理方法としての各種の処理手順について、図20を参照しつつ説明する。
(About processing procedure)
Next, the processing of each unit in the image processing system having the above-described configuration can be realized as a method, and various processing procedures as the image processing method will be described with reference to FIG.

本実施の形態に係る画像処理方法では、コンピュータが、2値化処理の前に平滑化処理を行う(ステップS401)<平滑化処理ステップ>。   In the image processing method according to the present embodiment, the computer performs smoothing processing before binarization processing (step S401) <smoothing processing step>.

続いて、前記第1の実施の形態と同様の処理手順である、ステップS402〜ステップS412の処理を行う。   Subsequently, the processing of Step S402 to Step S412 which is the same processing procedure as that of the first embodiment is performed.

ここで、本実施の形態のステップS401の平滑化処理ステップでは、候補領域を抽出する前に、前記画像を平滑化処理する。この場合、前記候補線描画制御ステップ(ステップS403乃至ステップS407)では、前記平滑化処理ステップにて平滑化された前記候補領域の画像をもとに、前記候補線を描画することができる。   Here, in the smoothing process step of step S401 of the present embodiment, the image is smoothed before extracting candidate areas. In this case, in the candidate line drawing control step (steps S403 to S407), the candidate line can be drawn based on the image of the candidate area smoothed in the smoothing processing step.

以上のように本実施の形態によれば、前記第1の実施の形態と同様の作用効果を奏しながらも、平滑化によりノイズを低減することができる。   As described above, according to the present embodiment, it is possible to reduce noise by smoothing while exhibiting the same operational effects as those of the first embodiment.

その他の構成およびその他のステップ並びにその作用効果については、前述した第1の実施の形態の場合と同一となっている。また、前記の説明において、上述した各ステップの動作内容及び各部の構成要素をプログラム化し、コンピュータに実行させてもよい。   Other configurations, other steps, and operational effects thereof are the same as those in the first embodiment described above. In the above description, the operation content of each step described above and the components of each unit may be programmed and executed by a computer.

本実施の形態では、簡単のために、第1の実施の形態の画像処理装置に平滑化処理部を追加した構成例を説明したが、前記第2の実施の形態の画像処理装置に平滑化処理部を追加する場合、前記第3の実施の形態の第1、第2の画像処理装置の各々に平滑化処理部を追加する場合であってもよい。   In the present embodiment, for the sake of simplicity, the configuration example in which the smoothing processing unit is added to the image processing apparatus according to the first embodiment has been described. However, the image processing apparatus according to the second embodiment performs smoothing. When the processing unit is added, a smoothing processing unit may be added to each of the first and second image processing apparatuses of the third embodiment.

[第5の実施の形態]
次に、本発明にかかる第5の実施の形態について、図21に基づいて説明する。以下には、前記第1の実施の形態の実質的に同様の構成に関しては説明を省略し、異なる部分についてのみ述べる。図21は、本発明の画像処理システムにおける画像処理装置の第5の実施の形態の一例を示すブロック図である。
[Fifth Embodiment]
Next, a fifth embodiment according to the present invention will be described with reference to FIG. In the following, description of the substantially similar configuration of the first embodiment will be omitted, and only different parts will be described. FIG. 21 is a block diagram showing an example of the fifth embodiment of the image processing apparatus in the image processing system of the present invention.

本実施の形態では、前記第1の実施の形態の画像処理装置の2値化処理部の後段に膨張収縮処理部を構成した例を開示している。   The present embodiment discloses an example in which an expansion / contraction processing unit is configured after the binarization processing unit of the image processing apparatus according to the first embodiment.

(構成について)
具体的には、本第5の実施の形態の画像処理システムにおける画像処理装置440は、図21に示すように、2値化画像の候補領域に対し、外部から与えられた回数だけ膨張収縮処理を実施する膨張収縮処理部442と、前記第1の実施の形態と同様の構成である、2値化処理部441と、パラメータ算出部443と、パラメータ線描画部444と、交差点検出部445と、重なり回数計量部446と、有力候補線描画部447と、通過判定部448と、重み算出部449と、個数計量部451と、実在線判定部452と、実在線画像生成部453と、これら各部の実行手順を制御するモジュール制御部454と、を含む構成としている。
(About configuration)
Specifically, the image processing apparatus 440 in the image processing system according to the fifth embodiment performs an expansion / contraction process on the binarized image candidate area as many times as given from the outside, as shown in FIG. An expansion / contraction processing unit 442, a binarization processing unit 441, a parameter calculation unit 443, a parameter line drawing unit 444, and an intersection detection unit 445 having the same configuration as that of the first embodiment. , Overlapping number measurement unit 446, leading candidate line drawing unit 447, passage determination unit 448, weight calculation unit 449, number measurement unit 451, real line determination unit 452, real line image generation unit 453, and the like And a module control unit 454 that controls the execution procedure of each unit.

膨張収縮処理部442における膨張収縮処理の手法としては、画像処理で一般的に使用されている手法でよい。
例えば膨張処理は、注目画素について8近傍のうち1つでも候補領域の画素があれば注目画素を候補領域とする。
また、例えば収縮処理は、注目画素について8近傍のうち1つでも背景領域に属する画素があれば注目が祖を背景領域とする。
As a technique of the expansion / contraction process in the expansion / contraction processing unit 442, a technique generally used in image processing may be used.
For example, in the dilation process, if there is a pixel in the candidate area in any one of the eight neighborhoods of the target pixel, the target pixel is set as the candidate area.
Further, for example, in the contraction process, if there is a pixel that belongs to the background region in any of the eight neighborhoods of the pixel of interest, the attention is determined to be the background region.

ここにおいて、膨張収縮処理部442における膨張処理と収縮処理とは、順番を入れ替えた処理を行ってもよい。また、膨張収縮処理部442にて、膨張処理と収縮処理とが、各々任意の順番で任意の回数繰り替えす処理を行ってもよい。   Here, the expansion process and the contraction process in the expansion / contraction process unit 442 may be performed in a reversed order. Further, the expansion / contraction processing unit 442 may perform a process in which the expansion process and the contraction process are repeated an arbitrary number of times in an arbitrary order.

ここで、本実施の形態の膨張収縮処理部442は、「膨張収縮手段」ということもできる。また、本実施の形態のパラメータ算出部443と、パラメータ線描画部444と、交差点検出部445と、重なり回数計量部446と、有力候補線描画部447とにより、「候補線描画制御手段」を構成することもできる。   Here, the expansion / contraction processing unit 442 of the present embodiment can also be referred to as “expansion / contraction means”. In addition, the parameter calculation unit 443, the parameter line drawing unit 444, the intersection detection unit 445, the overlap number measurement unit 446, and the leading candidate line drawing unit 447 according to the present embodiment provide a “candidate line drawing control unit”. It can also be configured.

前記膨張収縮処理手段は、前記候補領域を膨張及び収縮する処理のいずれか一方又は双方を特定回数行うことができる。この場合、前記候補線描画制御手段は、前記膨張収縮処理手段にて処理された前記候補領域の画像をもとに、前記候補線を描画することができる。   The expansion / contraction processing means can perform one or both of the processes of expanding and contracting the candidate region a specific number of times. In this case, the candidate line drawing control means can draw the candidate line based on the image of the candidate area processed by the expansion / contraction processing means.

(処理手順について)
次に、上述のような構成を有する画像処理システムにおける各部の処理は、方法としても実現可能であり、画像処理方法としての各種の処理手順について、図22を参照しつつ説明する。
(About processing procedure)
Next, the processing of each unit in the image processing system having the above-described configuration can be realized as a method, and various processing procedures as the image processing method will be described with reference to FIG.

本実施の形態に係る画像処理方法では、先ず、コンピュータが、画素値に基づいて、検出対象である直線や曲線の候補となる領域とそれ以外の領域の2つの領域をそれぞれ候補領域及び背景領域として、画像を2つの領域に分割する(ステップS501)<2値化処理ステップ>。   In the image processing method according to the present embodiment, first, based on the pixel value, the computer converts a candidate area and a background area into two areas, that is, a candidate area for a straight line or a curve to be detected and another area. Then, the image is divided into two regions (step S501) <binarization processing step>.

次に、コンピュータが、2値化手処理の後に、予め外部から与えた回数だけ2値化画像の候補領域に対して膨張処理及び収縮処理のうちいずれか一方又は双方を実施するステップS502)<膨張収縮処理ステップ>。   Next, after the binarization manual processing, the computer performs one or both of expansion processing and contraction processing on the candidate region of the binarized image for the number of times given in advance from outside (step S502) < Expansion and contraction processing step>.

続いて、前記第1の実施の形態と同様の処理手順である、ステップS503〜ステップS512の処理を行う。   Subsequently, the processing in steps S503 to S512, which is the same processing procedure as in the first embodiment, is performed.

ここで、本実施の形態の前記ステップS502の膨張収縮処理ステップは、前記候補領域を膨張及び収縮する処理のいずれか一方又は双方を特定回数行う。この場合、前記候補線描画制御ステップ(ステップS503乃至ステップS507)では、前記膨張収縮処理ステップにて処理された前記候補領域の画像をもとに、前記候補線を描画することができる。   Here, in the expansion / contraction process step of step S502 of the present embodiment, one or both of the processes for expanding and contracting the candidate area are performed a specific number of times. In this case, in the candidate line drawing control step (steps S503 to S507), the candidate line can be drawn based on the image of the candidate area processed in the expansion / contraction processing step.

以上のように本実施の形態によれば、前記第1の実施の形態と同様の作用効果を奏しながらも、このような膨張処理と収縮処理によりノイズを低減したり、途切れた線をある程度つなぐこともできる。   As described above, according to the present embodiment, while exhibiting the same operational effects as the first embodiment, noise is reduced by such expansion processing and contraction processing, and disconnected lines are connected to some extent. You can also

その他の構成およびその他のステップ並びにその作用効果については、前述した第1の実施の形態の場合と同一となっている。また、前記の説明において、上述した各ステップの動作内容及び各部の構成要素をプログラム化し、コンピュータに実行させてもよい。   Other configurations, other steps, and operational effects thereof are the same as those in the first embodiment described above. In the above description, the operation content of each step described above and the components of each unit may be programmed and executed by a computer.

本実施の形態では、簡単のために、第1の実施の形態の画像処理装置に膨張収縮処理部を追加した構成例を説明したが、前記第2の実施の形態の画像処理装置に膨張収縮処理部を追加する場合、前記第3の実施の形態の第1、第2の画像処理装置の各々に膨張収縮処理部を追加する場合、前記第4の実施の形態の画像処理装置に膨張収縮処理部を追加する場合であってもよい。   In the present embodiment, for the sake of simplicity, the configuration example in which the expansion / contraction processing unit is added to the image processing apparatus of the first embodiment has been described. However, the image processing apparatus of the second embodiment has the expansion / contraction When a processing unit is added, when an expansion / contraction processing unit is added to each of the first and second image processing devices of the third embodiment, expansion / contraction is added to the image processing device of the fourth embodiment. It may be a case where a processing unit is added.

[第6の実施の形態]
次に、本発明にかかる第6の実施の形態について、図23に基づいて説明する。以下には、前記第1の実施の形態の実質的に同様の構成に関しては説明を省略し、異なる部分についてのみ述べる。図23は、本発明の画像処理システムにおける画像処理装置の第6の実施の形態の一例を示すブロック図である。
[Sixth Embodiment]
Next, a sixth embodiment according to the present invention will be described with reference to FIG. In the following, description of the substantially similar configuration of the first embodiment will be omitted, and only different parts will be described. FIG. 23 is a block diagram showing an example of the sixth embodiment of the image processing apparatus in the image processing system of the present invention.

本実施の形態では、前記第1の実施の形態の画像処理装置の2値化処理部の前段に構成される画像縮小処理部と、各部を制御することによりパラメータの微調整制御処理を行うパラメータ微調整制御部とを構成した例を開示している。   In the present embodiment, the image reduction processing unit configured in the preceding stage of the binarization processing unit of the image processing apparatus of the first embodiment, and the parameter for performing the parameter fine adjustment control process by controlling each unit An example in which a fine adjustment control unit is configured is disclosed.

(構成について)
具体的には、本第6の実施の形態の画像処理システムにおける画像処理装置540は、図23に示すように、画像縮小処理部541と、パラメータ微調整制御部554と、前記第1の実施の形態と同様の構成である、2値化処理部542と、パラメータ算出部543と、パラメータ線描画部544と、交差点検出部545と、重なり回数計量部546と、有力候補線描画部547と、通過判定部548と、重み算出部549と、個数計量部551と、実在線判定部552と、実在線画像生成部553と、を含む構成としている。
(About configuration)
Specifically, as shown in FIG. 23, the image processing apparatus 540 in the image processing system of the sixth embodiment includes an image reduction processing unit 541, a parameter fine adjustment control unit 554, and the first embodiment. The binarization processing unit 542, the parameter calculation unit 543, the parameter line drawing unit 544, the intersection detection unit 545, the overlap number measurement unit 546, and the promising candidate line drawing unit 547 are configured in the same manner as The passage determining unit 548, the weight calculating unit 549, the number measuring unit 551, the real line determining unit 552, and the real line image generating unit 553 are included.

画像縮小処理部541は、入力画像を予め与えた倍率で縮小しその画像を縮小画像(第1の縮小画像)とし、実在線を求め、一旦実在線が求まった後、第1の縮小画像よりも高い縮小倍率に縮小した画像を新たに生成して縮小画像(第2の縮小画像)とする。   The image reduction processing unit 541 reduces the input image at a predetermined magnification, sets the image as a reduced image (first reduced image), obtains a real line, and once the real line is obtained, the first reduced image is obtained. An image reduced to a higher reduction ratio is newly generated to obtain a reduced image (second reduced image).

パラメータ微調整制御部554は、各部の実行手順を制御するモジュール制御機能を有し、一旦求まった実在線を新たに有力候補線とみなしパラメータ空間上の近傍で新たに実在線を求め直し、倍率の異なる画像縮小と新たな実在線の導出を予め定めた回数かあるいは予め設定したパラメータ空間上の精度に達するまで(パラメータ空間上の変動幅が予め与えた値より小さくなるまで)繰り返し実行させる制御を行う。   The parameter fine adjustment control unit 554 has a module control function for controlling the execution procedure of each unit, regards the actual line once obtained as a new potential candidate line, newly calculates a real line near the parameter space, Control to repeatedly execute image reduction and derivation of a new real line for a predetermined number of times or until the accuracy in the preset parameter space is reached (until the fluctuation range in the parameter space becomes smaller than a predetermined value). I do.

ここで、画像処理装置540において、画像を繰り返し段階的に縮小率を変える場合の詳細な動作を説明する。
先ず、2値化処理部542に続いてパラメータ算出部543、パラメータ線描画部544、交差点検出部545、重なり回数計量部546を経て、有力候補線描画部547及びそれ以降での処理が実施される。
Here, the detailed operation in the image processing apparatus 540 when the image is repeatedly reduced and the reduction rate is changed will be described.
First, following the binarization processing unit 542, the parameter calculation unit 543, the parameter line drawing unit 544, the intersection detection unit 545, and the overlap count measurement unit 546, the processing in the leading candidate line drawing unit 547 and thereafter is performed. The

次に、繰り返し処理の2回目以降では、2値化処理部542の次に、すぐに有力候補線描画部547での処理を行うように制御する。
これは、最初の段階(1回目の処理)では、ハフ変換によって全パラメータ空間から領域を絞込む処理を行うため、パラメータ算出部543、パラメータ線描画部544、交差点検出部545、重なり回数計量部546での処理が必要となる。
一方、2回目以降の処理の段階では、最初の段階(1回目の処理)にて一旦ある画像縮小率で実在線が得られ、その実在線をそのまま有力候補線としてその近傍で探索してパラメータを精密化することになるため、これらのパラメータ算出部543、パラメータ線描画部544、交差点検出部545、重なり回数計量部546での処理が不要となる。
Next, in the second and subsequent iterations, control is performed so that the process in the leading candidate line drawing unit 547 is performed immediately after the binarization processing unit 542.
This is because, in the first stage (first process), a process for narrowing down the area from the entire parameter space is performed by the Hough transform. Therefore, the parameter calculation unit 543, the parameter line drawing unit 544, the intersection detection unit 545, and the overlap count measurement unit Processing at 546 is required.
On the other hand, in the second and subsequent processing stages, a real line is once obtained at a certain image reduction ratio in the first stage (first process), and the real line is directly searched as a promising candidate line in the vicinity thereof to set parameters. Since it will be refined, processing in the parameter calculation unit 543, the parameter line drawing unit 544, the intersection detection unit 545, and the overlap count measurement unit 546 becomes unnecessary.

ここで、本実施の形態の画像縮小処理部541は、「画像縮小処理手段」ということもできる。また、本実施の形態のパラメータ微調整制御部554は、「第1の調整制御手段」ということもできる。   Here, the image reduction processing unit 541 of the present embodiment can also be referred to as “image reduction processing means”. Further, the parameter fine adjustment control unit 554 of the present embodiment can also be referred to as “first adjustment control means”.

この場合、前記画像縮小処理手段は、前記画像を縮小する処理を行うことができる。また、前記第1の調整制御手段は、前記画像縮小処理手段にて前記画像を第1の倍率で縮小した第1の縮小画像にて前記実在線を決定した後に、この決定された実在線を新たな新候補線とし、この新候補線の周辺の新候補線周辺領域について新たに探索を行い、前記第1の倍率より高い第2の倍率にて縮小した第2の縮小画像にて前記パラメータ空間を利用して新たに新実在線を決定し、前記縮小及び前記新実在線の決定を段階的に繰り返し行い、前記実在線の決定の調整制御を行うことができる。   In this case, the image reduction processing means can perform a process of reducing the image. The first adjustment control means determines the real line in the first reduced image obtained by reducing the image at the first magnification by the image reduction processing means, and then determines the determined real line. As a new new candidate line, a new search is performed for the area surrounding the new candidate line around the new candidate line, and the parameter is set in the second reduced image reduced at the second magnification higher than the first magnification. A new real line is newly determined using the space, and the reduction and the determination of the new real line are repeatedly performed in stages, thereby performing adjustment control of the determination of the real line.

(処理手順について)
次に、上述のような構成を有する画像処理システムにおける各部の処理は、方法としても実現可能であり、画像処理方法としての各種の処理手順について、図24を参照しつつ説明する。
(About processing procedure)
Next, the processing of each unit in the image processing system having the above-described configuration can be realized as a method, and various processing procedures as the image processing method will be described with reference to FIG.

本実施の形態に係る画像処理方法では、先ず、コンピュータが、入力画像を予め与えた倍率で縮小しその画像を縮小画像とする(ステップS601)<画像縮小処理ステップ>。   In the image processing method according to the present embodiment, first, the computer reduces the input image at a predetermined magnification to make the image a reduced image (step S601) <image reduction processing step>.

次に、コンピュータが、画素値に基づいて、検出対象である直線や曲線の候補となる領域とそれ以外の領域の2つの領域をそれぞれ候補領域及び背景領域として、画像を2つの領域に分割する(ステップS602)<2値化処理ステップ>。   Next, the computer divides the image into two regions based on the pixel values, with the two regions of the detection target line and curve candidates and the other regions as a candidate region and a background region, respectively. (Step S602) <binarization processing step>.

続いて、コンピュータが、1回目の処理か2回目以降の処理か判定を行う(ステップS603)<処理回数判定処理ステップ>。
この判定処理にて、コンピュータが、1回目の処理であると判定した場合には、コンピュータは、ステップS604から処理を行い、コンピュータが、2回目以降の処理であると判定した場合には、コンピュータは、ステップS608から処理を行う。
Subsequently, the computer determines whether the process is the first process or the second process or later (step S603) <process count determination process step>.
In this determination process, when the computer determines that the process is the first process, the computer performs the process from step S604, and when the computer determines that the process is the second or later process, the computer Performs the process from step S608.

そして、コンピュータは、前記第1の実施の形態と同様の処理手順である、ステップS604〜ステップS613の処理を行う。   And a computer performs the process of step S604-step S613 which is the process sequence similar to the said 1st Embodiment.

さらに、コンピュータが、予め設定したパラメータ空間上の設定精度に達したか否かの判定を行う(ステップS614)<精度判定処理ステップ>。
この判定処理にて、コンピュータが、予め設定したパラメータ空間上の設定精度に達していないと判定した場合には、コンピュータは、ステップS601に戻り、ステップS601〜ステップS603及びステップS608〜ステップS613の処理(2回目以降の画像縮小処理ステップ、2回目以降の2値化処理ステップ、2回目以降の処理回数判定処理ステップ、2回目以降の有力候補線描画処理ステップ、2回目以降の通過判定処理ステップ、2回目以降の重み算出処理ステップ、2回目以降の個数計量処理ステップ、2回目以降の実在線判定処理ステップ、2回目以降の実在線画像生成処理ステップ)を繰り返し実行する。
一方、コンピュータが、予め設定したパラメータ空間上の設定精度に達していると判定した場合には、コンピュータは、処理を終了する。
Further, the computer determines whether or not the setting accuracy on the preset parameter space has been reached (step S614) <accuracy determination processing step>.
In this determination process, when the computer determines that the setting accuracy in the preset parameter space has not been reached, the computer returns to step S601 and performs the processes of steps S601 to S603 and steps S608 to S613. (Second image reduction processing step, second binarization processing step, second and subsequent processing frequency determination processing step, second and subsequent dominant candidate line drawing processing step, second and subsequent passage determination processing step, The second and subsequent weight calculation processing steps, the second and subsequent number counting processing steps, the second and subsequent real line determination processing steps, and the second and subsequent real line image generation processing steps) are repeatedly executed.
On the other hand, when the computer determines that the setting accuracy in the preset parameter space has been reached, the computer ends the process.

ここで、2回目以降の処理の段階では、最初の段階(1回目の処理)にて一旦ある画像縮小率で実在線が得られ、その実在線をそのまま有力候補線としてその近傍で探索してパラメータを精密化することになるため、ステップS604からステップS607までの処理が不要となる。   Here, in the second and subsequent processing stages, a real line is once obtained at a certain image reduction ratio in the first stage (first process), and the real line is directly searched as a promising candidate line in the vicinity thereof, and parameters are set. Therefore, the processing from step S604 to step S607 becomes unnecessary.

このように、コンピュータは、実在線を求め、一旦実在線が求まった後、縮小画像よりも大きいサイズに縮小した画像を新たに生成して縮小画像とする。   As described above, the computer obtains the real line, and once the real line is obtained, an image reduced to a size larger than the reduced image is newly generated to obtain a reduced image.

そして、前記コンピュータは、一旦求まった実在線を新たに有力候補線あるいは候補線とみなし、パラメータ空間上の近傍で新たに実在線を求め直し、倍率の異なる画像縮小と新たな実在線の導出を予め定めた回数かあるいはパラメータ空間上の変動幅が予め与えた値より小さくなるまで繰り返し実行させる。   Then, the computer regards the actual line once obtained as a new candidate line or a candidate line, re-determines a new real line in the vicinity of the parameter space, reduces the image with different magnification, and derives a new real line. It is repeatedly executed until the predetermined number of times or the fluctuation range in the parameter space becomes smaller than a predetermined value.

ここで、ステップS603乃至ステップS614における繰り返し制御を行うステップを「第1の調整制御ステップ」ということもできる。この「第1の調整制御ステップ」では、前記画像縮小処理ステップにて前記画像を第1の倍率で縮小した第1の縮小画像にて前記実在線を決定した後に、この決定された実在線を新たな新候補線とし、この新候補線の周辺の新候補線周辺領域について新たに探索を行い、前記第1の倍率より高い第2の倍率にて縮小した第2の縮小画像にて前記パラメータ空間を利用して新たに新実在線を決定し、前記縮小及び前記新実在線の決定を段階的に繰り返し行い、前記実在線の決定の調整制御を行うことができる。   Here, the step of performing the repetitive control in steps S603 to S614 can also be referred to as a “first adjustment control step”. In the “first adjustment control step”, after the real line is determined by the first reduced image obtained by reducing the image at the first magnification in the image reduction processing step, the real line thus determined is determined. As a new new candidate line, a new search is performed for the area surrounding the new candidate line around the new candidate line, and the parameter is set in the second reduced image reduced at the second magnification higher than the first magnification. A new real line is newly determined using the space, and the reduction and the determination of the new real line are repeatedly performed in stages, thereby performing adjustment control of the determination of the real line.

以上のように本実施の形態によれば、前記第1の実施の形態と同様の作用効果を奏しながらも、画像を順次高精細にして、より高い精度でより低計算量で線を検出することができる。   As described above, according to the present embodiment, the same effect as the first embodiment can be obtained, but the image is sequentially made high definition, and the line is detected with higher accuracy and lower calculation amount. be able to.

このように、本実施の形態の画像処理装置では、画像を縮小する画像縮小部と画像を段階的に縮小して徐々に検出した線の位置精度を向上させるパラメータ微調整部を有する。   As described above, the image processing apparatus according to the present embodiment includes the image reduction unit that reduces the image and the parameter fine adjustment unit that reduces the image in stages and gradually improves the position accuracy of the detected line.

その他の構成およびその他のステップ並びにその作用効果については、前述した第1の実施の形態の場合と同一となっている。また、前記の説明において、上述した各ステップの動作内容及び各部の構成要素をプログラム化し、コンピュータに実行させてもよい。   Other configurations, other steps, and operational effects thereof are the same as those in the first embodiment described above. In the above description, the operation content of each step described above and the components of each unit may be programmed and executed by a computer.

本実施の形態は、簡単のために、第1の実施の形態の画像処理装置に画像縮小処理部及びパラメータ微調整制御部を追加した構成例を説明したが、前記第2の実施の形態の画像処理装置に画像縮小処理部及びパラメータ微調整制御部を追加する場合、前記第3の実施の形態の第1、第2の画像処理装置の各々に画像縮小処理部及びパラメータ微調整制御部を追加する場合、前記第4の実施の形態の画像処理装置に画像縮小処理部及びパラメータ微調整制御部を追加する場合、前記第5の実施の形態の画像処理装置に画像縮小処理部及びパラメータ微調整制御部を追加する場合であってもよい。   In the present embodiment, for the sake of simplicity, the configuration example in which the image reduction processing unit and the parameter fine adjustment control unit are added to the image processing apparatus of the first embodiment has been described. When an image reduction processing unit and a parameter fine adjustment control unit are added to the image processing device, an image reduction processing unit and a parameter fine adjustment control unit are provided in each of the first and second image processing devices of the third embodiment. In the case of adding the image reduction processing unit and the parameter fine adjustment control unit to the image processing device of the fourth embodiment, the image reduction processing unit and the parameter fine adjustment are added to the image processing device of the fifth embodiment. It may be a case where an adjustment control unit is added.

(第6の実施の形態の変形例)
(構成について)
図25は、前記第2の実施の形態に画像縮小処理部及びパラメータ微調整制御部を追加した構成例を示すブロック図である。
(Modification of the sixth embodiment)
(About configuration)
FIG. 25 is a block diagram illustrating a configuration example in which an image reduction processing unit and a parameter fine adjustment control unit are added to the second embodiment.

図25に示すように、画像処理システムにおける画像処理装置640は、前記第2の実施の形態と異なり、画像縮小処理部641、パラメータ微調整制御部649以外に、全候補線描画部の代わりに全候補線有力候補線描画部643を設けた構成としている。   As shown in FIG. 25, the image processing apparatus 640 in the image processing system is different from the second embodiment in place of the all candidate line drawing unit in addition to the image reduction processing unit 641 and the parameter fine adjustment control unit 649. All candidate line leading candidate line drawing units 643 are provided.

全候補線有力候補線描画部643は、最初は第1の縮小画像とした上でパラメータ空間上のすべてのパラメータの組み合わせについて、線を画像上に描画する(1回目は全候補線描画処理)が、一旦、実在線が求まって次のサイズの縮小画像(第2の縮小画像)で実在線を求める際は、パラメータ空間において、見つかった実在線の近傍でパラメータの組み合わせのみについて線を描画する(2回目以降は有力候補線描画処理)。   The all candidate line leading candidate line drawing unit 643 draws lines on the image for all combinations of parameters on the parameter space after first forming the first reduced image (the first time all candidate line drawing processing). However, once a real line is obtained and a real line is obtained with a reduced image (second reduced image) of the next size, a line is drawn only for a combination of parameters in the vicinity of the found real line in the parameter space. (From the second time on, a powerful candidate line drawing process).

その他、画像処理装置640は、前記第2の実施の形態と同様の構成である、2値化処理部641と、通過判定部644と、重み算出部645と、個数計量部646と、実在線判定部647と、実在線画像生成部648と、を含む構成としている。   In addition, the image processing device 640 has the same configuration as that of the second embodiment, a binarization processing unit 641, a passage determination unit 644, a weight calculation unit 645, a number measuring unit 646, a real line The determination unit 647 and the real line image generation unit 648 are included.

上述のような構成からなる画像処理装置640において、パラメータ微調整制御部649は、2値化処理部641に続いて画像縮小処理部641にて入力画像を予め与えた倍率で縮小しその画像を縮小画像(第1の縮小画像)とする画像サイズを変更するように制御する。   In the image processing apparatus 640 having the above-described configuration, the parameter fine adjustment control unit 649 reduces the input image at a predetermined magnification by the image reduction processing unit 641 following the binarization processing unit 641 and reduces the input image. Control is performed to change the image size to be a reduced image (first reduced image).

その後、パラメータ微調整制御部649は、全候補線有力候補線描画部643及びそれ以降での処理(1回目の通過判定部644での処理、1回目の重み算出部645での処理、1回目の個数計量部646での処理、1回目の実在線判定部647での処理)を実施するように制御する。   Thereafter, the parameter fine adjustment control unit 649 performs processing in all candidate line leading candidate line drawing units 643 and subsequent processing (processing in the first pass determination unit 644, processing in the first weight calculation unit 645, and first time Control at the number measuring unit 646 of the first actual line determination unit 647).

ここで、最初の段階(1回目の処理)では、パラメータ空間上のすべてのパラメータの組み合わせについて、線を画像上に描画するため、全候補線有力候補線描画部643は、全候補線描画処理を行う。   Here, in the first stage (first processing), all candidate line leading candidate line drawing units 643 draw all lines on the image for all parameter combinations in the parameter space. I do.

次に、パラメータ微調整制御部649は、実在線を求め、一旦実在線が求まった後、繰り返し処理の2回目以降でも同様に、画像縮小処理部641にて、第1の縮小画像よりも高い縮小倍率に縮小した画像を新たに生成して縮小画像(第2の縮小画像)とし、全候補線有力候補線描画部643及びそれ以降での処理(2回目以降の通過判定部644での処理、2回目以降の重み算出部645での処理、2回目以降の個数計量部646での処理、2回目以降の実在線判定部647での処理)での処理を行うように制御する。   Next, the parameter fine adjustment control unit 649 obtains the actual line, and once the actual line is obtained, the image reduction processing unit 641 similarly uses the second reduction process and after that it is higher than the first reduced image. An image reduced to the reduction magnification is newly generated to obtain a reduced image (second reduced image), and processing in all candidate line leading candidate line drawing units 643 and subsequent processing (processing in the second and subsequent pass determination units 644) Control is performed so that processing in the second and subsequent weight calculation unit 645, processing in the second and subsequent number measurement unit 646, and processing in the second and subsequent actual line determination unit 647) is performed.

ここで、2回目以降の処理の段階では、最初の段階(1回目の処理)である画像サイズ(第1の縮小画像)にて一旦パラメータ空間を利用して実在線が求まって、次の画像サイズ(第2の縮小画像)で実在線を求める際は、パラメータ空間において、見つかった実在線をそのまま有力候補線としてその近傍で探索した場合のパラメータの組み合わせのみについて線を描画し、全候補線有力候補線描画部643は、パラメータを精密化して有力候補線描画処理を行う。   Here, in the second and subsequent processing stages, the actual line is obtained once using the parameter space at the image size (first reduced image) which is the first stage (first processing), and the next image is obtained. When obtaining a real line with the size (second reduced image), in the parameter space, a line is drawn for only the combination of parameters when the found real line is directly searched as a potential candidate line in the vicinity, and all candidate lines are drawn. The leading candidate line drawing unit 643 performs leading candidate line drawing processing by refining the parameters.

(処理手順について)
次に、上述のような構成を有する画像処理システムにおける各部の処理は、方法としても実現可能であり、画像処理方法としての各種の処理手順について、図26を参照しつつ説明する。
(About processing procedure)
Next, the processing of each unit in the image processing system having the above-described configuration can be realized as a method, and various processing procedures as the image processing method will be described with reference to FIG.

本実施の形態に係る画像処理方法は、先ず、コンピュータが、入力画像を予め与えた倍率で縮小しその画像を縮小画像(第1の縮小画像)とする(ステップS601)<画像縮小処理ステップ>。   In the image processing method according to the present embodiment, first, the computer reduces the input image at a predetermined magnification and sets the image as a reduced image (first reduced image) (step S601) <Image reduction processing step> .

次に、コンピュータが、画素値に基づいて、検出対象である直線や曲線の候補となる領域とそれ以外の領域の2つの領域をそれぞれ候補領域及び背景領域として、画像を2つの領域に分割する(ステップS702)<2値化処理ステップ>。   Next, the computer divides the image into two regions based on the pixel values, with the two regions of the detection target line and curve candidates and the other regions as a candidate region and a background region, respectively. (Step S702) <binarization processing step>.

続いて、コンピュータが、ステップ703の全候補線有力候補線描画処理ステップを行う。
ここで、1回目の処理か2回目以降の処理か判定を行う<処理回数判定処理ステップ>。この判定処理にて、コンピュータが、1回目の処理であると判定した場合には、コンピュータは、パラメータ空間上のすべてのパラメータの組み合わせについて、線を画像上に描画するため、全候補線有力候補線描画処理において、全候補線描画処理を行う。
Subsequently, the computer performs an all candidate line leading candidate line drawing process step of Step 703.
Here, it is determined whether the process is the first process or the second and subsequent processes <process count determination process step>. In this determination process, if the computer determines that this is the first process, the computer draws lines on the image for all parameter combinations in the parameter space. In the line drawing process, all candidate line drawing processes are performed.

一方、コンピュータが、2回目以降の処理であると判定した場合には、コンピュータは、最初の段階(1回目の処理)である画像サイズ(第1の縮小画像)にて一旦パラメータ空間を利用して実在線が求まって、次の画像サイズ(第2の縮小画像)で実在線を求めるため、全候補線有力候補線描画処理において、パラメータ空間において、見つかった実在線をそのまま有力候補線としてその近傍で探索した場合のパラメータの組み合わせのみについて線を描画し、パラメータを精密化して有力候補線描画処理を行う。   On the other hand, when the computer determines that the process is the second and subsequent processes, the computer temporarily uses the parameter space at the image size (first reduced image) that is the first stage (first process). In order to obtain a real line at the next image size (second reduced image), the real line found in the parameter space is directly used as a strong candidate line in the parameter space in the candidate line drawing process. A line is drawn only for a combination of parameters when searching in the vicinity, and the parameters are refined to perform a powerful candidate line drawing process.

そして、コンピュータは、前記第2の実施の形態と同様の処理手順である、ステップS704〜ステップS708の処理を行う。   Then, the computer performs the processing from step S704 to step S708, which is the same processing procedure as in the second embodiment.

さらに、コンピュータが、予め設定したパラメータ空間上の設定精度に達したか否かの判定を行う(ステップS709)<精度判定処理ステップ>。
この判定処理にて、コンピュータが、予め設定したパラメータ空間上の設定精度に達していないと判定した場合には、コンピュータは、ステップS701に戻り、ステップS701〜ステップS708の処理(2回目以降の画像縮小処理ステップ、2回目以降の2値化処理ステップ、2回目以降の全候補線有力候補線描画処理ステップ、2回目以降の通過判定処理ステップ、2回目以降の重み算出処理ステップ、2回目以降の個数計量処理ステップ、2回目以降の実在線判定処理ステップ、2回目以降の実在線画像生成処理ステップ)を繰り返し実行する。
一方、コンピュータが、予め設定したパラメータ空間上の設定精度に達していると判定した場合には、コンピュータは、処理を終了する。
Further, the computer determines whether or not the setting accuracy in the preset parameter space has been reached (step S709) <accuracy determination processing step>.
In this determination process, when the computer determines that the setting accuracy in the preset parameter space has not been reached, the computer returns to step S701 and performs the processes of steps S701 to S708 (second and subsequent images). Reduction processing step, second and subsequent binarization processing steps, second and subsequent all-candidate candidate line drawing processing steps, second and subsequent passage determination processing steps, second and subsequent weight calculation processing steps, second and subsequent processing steps The number measurement processing step, the second and subsequent real line determination processing step, and the second and subsequent real line image generation processing step) are repeatedly executed.
On the other hand, when the computer determines that the setting accuracy in the preset parameter space has been reached, the computer ends the process.

ここで、2回目以降の処理の段階では、最初の段階(1回目の処理)である画像サイズ(第1の縮小画像)にて一旦パラメータ空間を利用して実在線が得られ、その実在線をそのまま有力候補線としてその近傍で探索してパラメータを精密化することになる。   Here, in the second and subsequent processing stages, a real line is once obtained using the parameter space at the image size (first reduced image) which is the first stage (first process), and the real line is The parameter is refined by searching in the vicinity as a strong candidate line as it is.

このように、コンピュータは、実在線を求め、一旦実在線が求まった後、縮小画像よりも大きいサイズに縮小した画像を新たに生成して縮小画像とする。   As described above, the computer obtains the real line, and once the real line is obtained, an image reduced to a size larger than the reduced image is newly generated to obtain a reduced image.

そして、前記コンピュータは、一旦求まった実在線を新たに有力候補線あるいは候補線とみなし、パラメータ空間上の近傍で新たに実在線を求め直し、倍率の異なる画像縮小と新たな実在線の導出を予め定めた回数かあるいはパラメータ空間上の変動幅が予め与えた値より小さくなるまで繰り返し実行させる。   Then, the computer regards the actual line once obtained as a new candidate line or a candidate line, re-determines a new real line in the vicinity of the parameter space, reduces the image with different magnification, and derives a new real line. It is repeatedly executed until the predetermined number of times or the fluctuation range in the parameter space becomes smaller than a predetermined value.

[第7の実施の形態]
次に、本発明にかかる第7の実施の形態について、図27に基づいて説明する。以下には、前記第1の実施の形態の実質的に同様の構成に関しては説明を省略し、異なる部分についてのみ述べる。図27は、本発明の画像処理システムにおける画像処理装置の第7の実施の形態の一例を示すブロック図である。
[Seventh Embodiment]
Next, a seventh embodiment according to the present invention will be described with reference to FIG. In the following, description of the substantially similar configuration of the first embodiment will be omitted, and only different parts will be described. FIG. 27 is a block diagram showing an example of the seventh embodiment of the image processing apparatus in the image processing system of the present invention.

本実施の形態では、前記第1の実施の形態の画像処理装置の2値化処理部の後段に構成されるパラメータ空間粗視化処理部と、各部を制御することによりパラメータの微調整制御処理を行うパラメータ微調整制御部とを構成した例を開示している。   In the present embodiment, a parameter space coarse-graining processing unit configured after the binarization processing unit of the image processing apparatus of the first embodiment, and a parameter fine-tuning control process by controlling each unit The example which comprised the parameter fine adjustment control part which performs is disclosed.

(構成について)
具体的には、本第7の実施の形態の画像処理システムにおける画像処理装置740は、図27に示すように、パラメータ空間粗視化処理部742と、パラメータ微調整制御部754と、前記第1の実施の形態と同様の構成である、2値化処理部741と、パラメータ算出部743と、パラメータ線描画部744と、交差点検出部745と、重なり回数計量部746と、有力候補線描画部747と、通過判定部748と、重み算出部749と、個数計量部751と、実在線判定部752と、実在線画像生成部753と、を含む構成としている。
(About configuration)
Specifically, as shown in FIG. 27, the image processing apparatus 740 in the image processing system of the seventh embodiment includes a parameter space coarse-grain processing unit 742, a parameter fine adjustment control unit 754, and the first The binarization processing unit 741, the parameter calculation unit 743, the parameter line drawing unit 744, the intersection detection unit 745, the overlap count measurement unit 746, and the potential candidate line drawing, which have the same configuration as that of the first embodiment. A unit 747, a passage determination unit 748, a weight calculation unit 749, a number measuring unit 751, a real line determination unit 752, and a real line image generation unit 753.

パラメータ空間粗視化処理部742は、パラメータ空間の離散化幅を予め与えた幅に大きくしてパラメータ空間を粗くし実在線を求め、一旦実在線が求まった後、パラメータ空間をより密に離散化する処理を行う。   The parameter space coarse graining processing unit 742 obtains a real line by increasing the discretization width of the parameter space to a predetermined width to obtain a real line, and once the real line is obtained, the parameter space is more densely discrete. Perform processing.

パラメータ微調整制御部754は、各部の実行手順を制御するモジュール制御機能を有し、細分化したパラメータ空間で一旦求まった実在線の近傍で新たに実在線を求め直し、離散化幅が異なるパラメータ空間での新たな実在線の導出を予め定めた回数かあるいは離散化幅が予め与えた値に達するまで繰り返し実行させる制御を行う。   The parameter fine adjustment control unit 754 has a module control function for controlling the execution procedure of each unit, re-determines a real line in the vicinity of the real line once obtained in the subdivided parameter space, and has different discretization widths. Control is performed to repeatedly execute the derivation of a new real line in the space a predetermined number of times or until the discretization width reaches a predetermined value.

ここで、画像処理装置740において、パラメータ空間の離散化幅を繰り返し段階的に小さくしていく場合の詳細な動作を説明する。   Here, a detailed operation in the case where the discretization width of the parameter space is repeatedly reduced stepwise in the image processing device 740 will be described.

先ず、パラメータ微調整制御部754は、2値化処理部741に続いてパラメータ空間粗視化処理部742にてパラメータ空間の離散化幅を変更するように制御する。   First, the parameter fine adjustment control unit 754 controls the parameter space coarse-grain processing unit 742 to change the discretization width of the parameter space following the binarization processing unit 741.

その後、パラメータ微調整制御部754は、パラメータ算出部743、パラメータ線描画部744、交差点検出部745、重なり回数計量部746を経て、有力候補線描画部747及びそれ以降での処理を実施するように制御する。   Thereafter, the parameter fine adjustment control unit 754 passes through the parameter calculation unit 743, the parameter line drawing unit 744, the intersection detection unit 745, and the overlap count measurement unit 746 so as to perform the processing in the leading candidate line drawing unit 747 and the subsequent steps. To control.

次に、パラメータ微調整制御部754は、繰り返し処理の2回目以降では、パラメータ空間粗視化処理部742、有力候補線描画部747での処理を行うように制御する。
これは、最初の段階(1回目の処理)では、ハフ変換によって全パラメータ空間から領域を絞込む処理を行うため、パラメータ算出部743と、パラメータ線描画部744と、交差点検出部745と、重なり回数計量部746での処理が必要となる。
一方、2回目以降の処理の段階では、最初の段階(1回目の処理)にて一旦あるパラメータ空間の離散化幅で実在線が得られ、その実在線をそのまま有力候補線としてその近傍で探索してパラメータを精密化することになるため、これらのパラメータ算出部743と、パラメータ線描画部744と、交差点検出部745と、重なり回数計量部746での処理が不要となる。
Next, the parameter fine adjustment control unit 754 controls the parameter space coarse-grain processing unit 742 and the powerful candidate line drawing unit 747 to perform processing in the second and subsequent iterations.
This is because, in the first stage (the first process), the parameter calculation unit 743, the parameter line drawing unit 744, and the intersection detection unit 745 overlap each other because the region is narrowed down from the entire parameter space by the Hough transform. Processing in the number measuring unit 746 is required.
On the other hand, in the second and subsequent processing stages, a real line is obtained once in the discretization width of a certain parameter space in the first stage (first process), and the real line is directly searched as a promising candidate line in the vicinity. Therefore, the parameters in the parameter calculation unit 743, the parameter line drawing unit 744, the intersection detection unit 745, and the overlap count measurement unit 746 become unnecessary.

ここで、本実施の形態のパラメータ空間粗視化処理部742は、「離散化幅調整手段」ということもできる。また、パラメータ微調整制御部754は、「第2の調整制御手段」ということもできる。   Here, the parameter space coarse-grain processing unit 742 of the present embodiment can also be referred to as “discretization width adjusting means”. The parameter fine adjustment control unit 754 can also be referred to as “second adjustment control means”.

この場合、前記離散化幅調整手段は、前記パラメータ空間部の各座標軸の離散化幅を調整することができる。また、前記第2の調整制御手段は、前記離散化幅調整手段にて前記離散化幅を大きくした第1の離散化幅の前記パラメータ空間部を利用して前記実在線を決定した後に、この決定された実在線を新たな新候補線とし、この新候補線の周辺の新候補線周辺領域について新たに探索を行い、前記第1の離散化幅より小さい第2の離散化幅の前記パラメータ空間を利用して新たに新実在線を決定し、前記離散化幅の変更及び前記新実在線の決定を段階的に繰り返し行い、前記実在線の決定の調整制御を行うことができる。   In this case, the discretization width adjusting means can adjust the discretization width of each coordinate axis of the parameter space portion. Further, the second adjustment control means determines the real line using the parameter space portion of the first discretization width obtained by increasing the discretization width by the discretization width adjustment means. The determined actual line is set as a new new candidate line, a new search is performed for a new candidate line peripheral region around the new candidate line, and the parameter of the second discretization width smaller than the first discretization width A new real line is newly determined using a space, the change of the discretization width and the determination of the new real line are repeatedly performed in stages, and adjustment control of the determination of the real line can be performed.

(処理手順について)
次に、上述のような構成を有する画像処理システムにおける各部の処理は、方法としても実現可能であり、画像処理方法としての各種の処理手順について、図28を参照しつつ説明する。
(About processing procedure)
Next, the processing of each unit in the image processing system having the above-described configuration can be realized as a method, and various processing procedures as the image processing method will be described with reference to FIG.

本実施の形態に係る画像処理方法は、先ず、コンピュータが、画素値に基づいて、検出対象である直線や曲線の候補となる領域とそれ以外の領域の2つの領域をそれぞれ候補領域及び背景領域として、画像を2つの領域に分割する(ステップS801)<2値化処理ステップ>。   In the image processing method according to the present embodiment, first, based on the pixel value, the computer converts a candidate area and a background area into two areas, that is, a candidate area for a straight line or a curve to be detected and another area. Then, the image is divided into two regions (step S801) <binarization processing step>.

次に、コンピュータが、パラメータ空間の離散化幅を予め与えた幅(第1の離散化幅)に大きくしてパラメータ空間の離散化幅を粗くする処理を行う(ステップS802)<パラメータ空間粗視化処理ステップ>。   Next, the computer performs processing for increasing the discretization width of the parameter space to a predetermined width (first discretization width) and coarsening the discretization width of the parameter space (step S802) <parameter space coarse-graining. Processing step>.

続いて、コンピュータが、1回目の処理か2回目以降の処理か判定を行う(ステップS803)<処理回数判定処理ステップ>。
この判定処理にて、コンピュータが、1回目の処理であると判定した場合には、コンピュータは、ステップS804から処理を行い、コンピュータが、2回目以降の処理であると判定した場合には、コンピュータは、ステップS808から処理を行う。
Subsequently, the computer determines whether the process is the first process or the second or later process (step S803) <process count determination process step>.
In this determination process, if the computer determines that the process is the first process, the computer performs the process from step S804. If the computer determines that the process is the second or subsequent process, the computer Performs the process from step S808.

そして、コンピュータは、前記第1の実施の形態と同様の処理手順である、ステップS804〜ステップS813の処理を行う。   And a computer performs the process of step S804-step S813 which is the process sequence similar to the said 1st Embodiment.

さらに、コンピュータが、予め設定したパラメータ空間上の設定離散化幅に達したか否かの判定を行う(ステップS814)<設定離散化幅判定処理ステップ>。
この判定処理にて、コンピュータが、予め設定したパラメータ空間上の設定離散化幅に達していないと判定した場合には、コンピュータは、ステップS801に戻り、ステップS801〜ステップS803及びステップS808〜ステップS813の処理(2回目以降の2値化処理ステップ、2回目以降のパラメータ空間粗視化処理ステップ、2回目以降の処理回数判定処理ステップ、2回目以降の有力候補線描画処理ステップ、2回目以降の通過判定処理ステップ、2回目以降の重み算出処理ステップ、2回目以降の個数計量処理ステップ、2回目以降の実在線判定処理ステップ、2回目以降の実在線画像生成処理ステップ)を繰り返し実行する。
一方、コンピュータが、予め設定したパラメータ空間上の設定離散化幅に達していると判定した場合には、コンピュータは、処理を終了する。
Further, the computer determines whether or not the preset discretization width on the preset parameter space has been reached (step S814) <set discretization width determination processing step>.
If it is determined in this determination process that the computer has not reached the preset discretization width in the parameter space, the computer returns to step S801, and steps S801 to S803 and steps S808 to S813. Processing (second and subsequent binarization processing steps, second and subsequent parameter space coarse-graining processing steps, second and subsequent processing count determination processing steps, second and subsequent leading candidate line drawing processing steps, and second and subsequent processing steps The passage determination processing step, the second and subsequent weight calculation processing step, the second and subsequent number measurement processing step, the second and subsequent real line determination processing step, and the second and subsequent real line image generation processing step) are repeatedly executed.
On the other hand, if the computer determines that the preset discretization width on the parameter space has been reached, the computer ends the process.

ここで、2回目以降の処理の段階では、最初の段階(1回目の処理)にて一旦あるパラメータ空間の離散化幅で実在線が得られ、その実在線をそのまま有力候補線としてその近傍で探索してパラメータを精密化することになるため、ステップS804からステップS807までの処理が不要となる。   Here, in the second and subsequent processing stages, a real line is once obtained with a discretization width of a certain parameter space in the first stage (first process), and the real line is directly searched as a leading candidate line in the vicinity thereof. Since the parameters are refined, the processing from step S804 to step S807 becomes unnecessary.

このように、コンピュータが、パラメータ空間の離散化幅を予め与えた幅に大きくしてパラメータ空間を粗くし実在線を求め、一旦実在線が求まった後、パラメータ空間をより密に離散化する。   As described above, the computer increases the discretization width of the parameter space to a predetermined width to roughen the parameter space to obtain a real line, and once the real line is obtained, the parameter space is discretized more densely.

そして、前記コンピュータが、細分化したパラメータ空間で一旦求まった実在線の近傍で新たに実在線を求め直し、離散化幅が異なるパラメータ空間での新たな実在線の導出を予め定めた回数かあるいは離散化幅が予め与えた値に達するまで繰り返し実行させる。   Then, the computer re-determines a new real line in the vicinity of the real line once obtained in the subdivided parameter space, and the derivation of the new real line in the parameter space having a different discretization width is performed a predetermined number of times or It is repeatedly executed until the discretization width reaches a predetermined value.

ここで、ステップS803乃至ステップS814における繰り返し制御を行うステップを「第2の調整制御ステップ」ということもできる。また、ステップS802は、離散化幅調整ステップということもできる。離散化幅調整ステップでは、前記パラメータ空間部の各座標軸の離散化幅を調整する。この場合、前記「第1の調整制御ステップ」では、前記離散化幅調整ステップにて前記離散化幅を大きくした第1の離散化幅の前記パラメータ空間部を利用して前記実在線を決定した後に、この決定された実在線を新たな新候補線とし、この新候補線の周辺の新候補線周辺領域について新たに探索を行い、前記第1の離散化幅より小さい第2の離散化幅の前記パラメータ空間を利用して新たに新実在線を決定し、前記離散化幅の変更及び前記新実在線の決定を段階的に繰り返し行い、前記実在線の決定の調整制御を行うことができる。   Here, the step of performing the repetitive control in steps S803 to S814 can also be referred to as a “second adjustment control step”. Step S802 can also be called a discretization width adjustment step. In the discretization width adjustment step, the discretization width of each coordinate axis of the parameter space portion is adjusted. In this case, in the “first adjustment control step”, the real line is determined using the parameter space portion of the first discretization width obtained by increasing the discretization width in the discretization width adjustment step. Later, the determined real line is set as a new new candidate line, a new search is performed for a new candidate line peripheral region around the new candidate line, and a second discretized width smaller than the first discretized width A new real line is newly determined using the parameter space, and the change of the discretization width and the determination of the new real line are repeated stepwise to perform adjustment control of the determination of the real line. .

以上のように本実施の形態によれば、前記第1の実施の形態と同様の作用効果を奏しながらも、最初は離散化幅を粗くし次第に細かくして検出した線の位置情報を向上させるパラメータ微調整部を有するので、パラメータ空間を順次高精細にして、より高い精度でより低計算量で線を検出することができる。   As described above, according to the present embodiment, while the same effect as the first embodiment is achieved, the position information of the detected line is improved by increasing the discretization width first and then gradually increasing the resolution. Since the parameter fine adjustment unit is provided, it is possible to detect the line with higher accuracy and lower calculation amount by sequentially increasing the definition of the parameter space.

その他の構成およびその他のステップ並びにその作用効果については、前述した第1の実施の形態の場合と同一となっている。また、前記の説明において、上述した各ステップの動作内容及び各部の構成要素をプログラム化し、コンピュータに実行させてもよい。   Other configurations, other steps, and operational effects thereof are the same as those in the first embodiment described above. In the above description, the operation content of each step described above and the components of each unit may be programmed and executed by a computer.

本実施の形態では、簡単のために、第1の実施の形態の画像処理装置にパラメータ空間粗視化処理部及びパラメータ微調整制御部を追加した構成例を説明したが、前記第2の実施の形態の画像処理装置にパラメータ空間粗視化処理部及びパラメータ微調整制御部を追加する場合、前記第3の実施の形態の第1、第2の画像処理装置の各々にパラメータ空間粗視化処理部及びパラメータ微調整制御部を追加する場合、前記第4の実施の形態の画像処理装置にパラメータ空間粗視化処理部及びパラメータ微調整制御部を追加する場合、前記第5の実施の形態の画像処理装置にパラメータ空間粗視化処理部及びパラメータ微調整制御部を追加する場合、前記第6の実施の形態の画像処理装置にパラメータ空間粗視化処理部及びパラメータ微調整制御部を追加する場合であってもよい。   In the present embodiment, for the sake of simplicity, the configuration example in which the parameter space coarse-grain processing unit and the parameter fine adjustment control unit are added to the image processing apparatus of the first embodiment has been described. When the parameter space coarse-grain processing unit and the parameter fine adjustment control unit are added to the image processing apparatus according to the embodiment, the parameter space coarse-graining is added to each of the first and second image processing apparatuses of the third embodiment. When adding a processing unit and parameter fine adjustment control unit, when adding a parameter space coarse-graining processing unit and parameter fine adjustment control unit to the image processing apparatus of the fourth embodiment, the fifth embodiment. When a parameter space coarse-grain processing unit and a parameter fine adjustment control unit are added to the image processing apparatus, the parameter space coarse-grain processing unit and the parameter fine adjustment control are added to the image processing apparatus according to the sixth embodiment. It may be a case to add.

(第7の実施の形態の変形例)
(構成について)
図29は、前記第2の実施の形態にパラメータ空間粗視化処理部及びパラメータ微調整制御部を追加した構成例を示すブロック図である。
(Modification of the seventh embodiment)
(About configuration)
FIG. 29 is a block diagram illustrating a configuration example in which a parameter space coarse-grain processing unit and a parameter fine adjustment control unit are added to the second embodiment.

図29に示すように、画像処理システムにおける画像処理装置840は、前記第2の実施の形態と異なり、パラメータ空間粗視化処理部842、パラメータ微調整制御部849以外に、全候補線描画部の代わりに全候補線有力候補線描画部843を設けた構成としている。   As shown in FIG. 29, the image processing apparatus 840 in the image processing system differs from the second embodiment in that all candidate line drawing units are provided in addition to the parameter space coarse-graining processing unit 842 and the parameter fine adjustment control unit 849. Instead of this, all candidate line leading candidate line drawing sections 843 are provided.

全候補線有力候補線描画部843は、最初は第1の離散化幅のパラメータ空間上のすべてのパラメータの組み合わせについて、線を画像上に描画する(1回目は全候補線描画処理)が、一旦、実在線が求まって次の離散化幅(第2の離散化幅)で実在線を求める際は、パラメータ空間において、見つかった実在線の近傍でパラメータの組み合わせのみについて線を描画する(2回目以降は有力候補線描画処理)。   The all candidate line leading candidate line drawing unit 843 first draws lines on the image for all parameter combinations on the parameter space of the first discretization width (the first time all candidate line drawing processing) Once the real line is obtained and the real line is obtained with the next discretization width (second discretization width), the line is drawn only for the combination of parameters in the parameter space near the found real line (2 From the first time on, the candidate line drawing process).

その他、画像処理装置840は、前記第2の実施の形態と同様の構成である、2値化処理部841と、通過判定部844と、重み算出部845と、個数計量部846と、実在線判定部847と、実在線画像生成部848と、を含む構成としている。   In addition, the image processing apparatus 840 has the same configuration as that of the second embodiment, a binarization processing unit 841, a passage determination unit 844, a weight calculation unit 845, a number measuring unit 846, a real line A determination unit 847 and a real line image generation unit 848 are included.

上述のような構成からなる画像処理装置840において、パラメータ微調整制御部849は、2値化処理部841に続いてパラメータ空間粗視化処理部842にてパラメータ空間の離散化幅を変更するように制御する。   In the image processing apparatus 840 configured as described above, the parameter fine adjustment control unit 849 changes the discretization width of the parameter space in the parameter space coarse-graining processing unit 842 following the binarization processing unit 841. To control.

その後、パラメータ微調整制御部849は、全候補線有力候補線描画部843及びそれ以降での処理(1回目の通過判定部844での処理、1回目の重み算出部845での処理、1回目の個数計量部846での処理、1回目の実在線判定部847での処理)を実施するように制御する。   After that, the parameter fine adjustment control unit 849 performs processing in all candidate line leading candidate line drawing units 843 and subsequent processing (processing in the first pass determination unit 844, processing in the first weight calculation unit 845, first time Control at the number measuring unit 846 of the first actual line determination unit 847).

次に、パラメータ微調整制御部849は、繰り返し処理の2回目以降でも同様に、パラメータ空間粗視化処理部842、全候補線有力候補線描画部843及びそれ以降での処理(2回目以降の通過判定部844での処理、2回目以降の重み算出部845での処理、2回目以降の個数計量部846での処理、2回目以降の実在線判定部847での処理)での処理を行うように制御する。   Next, the parameter fine adjustment control unit 849 similarly performs the processing in the parameter space coarse-graining processing unit 842, all candidate line leading candidate line drawing unit 843 and the subsequent processing (second and subsequent times) in the second and subsequent iterations. Processing in the passage determination unit 844, processing in the second and subsequent weight calculation unit 845, processing in the second and subsequent number measurement unit 846, processing in the second and subsequent actual line determination unit 847) are performed. To control.

ここで、最初の段階(1回目の処理)では、パラメータ空間上のすべてのパラメータの組み合わせについて、線を画像上に描画するため、全候補線有力候補線描画部843は、全候補線描画処理を行う。   Here, in the first stage (the first process), all candidate line leading candidate line drawing unit 843 draws lines on the image for all parameter combinations in the parameter space. I do.

一方、2回目以降の処理の段階では、最初の段階(1回目の処理)にて一旦パラメータ空間のある離散化幅(第1の離散化幅)で実在線が求まって、次の離散化幅(第2の離散化幅)で実在線を求める際は、パラメータ空間において、見つかった実在線をそのまま有力候補線としてその近傍で探索した場合のパラメータの組み合わせのみについて線を描画し、パラメータを精密化して有力候補線描画処理を行う。   On the other hand, in the second and subsequent processing stages, in the first stage (first processing), the actual line is once obtained with a certain discretization width (first discretization width) in the parameter space, and the next discretization width is obtained. When calculating a real line with (second discretization width), draw a line only for the combination of parameters when the real line found in the parameter space is searched as a promising candidate line in the vicinity, and the parameter is precisely To perform leading candidate line drawing processing.

(処理手順について)
次に、上述のような構成を有する画像処理システムにおける各部の処理は、方法としても実現可能であり、画像処理方法としての各種の処理手順について、図30を参照しつつ説明する。
(About processing procedure)
Next, the processing of each unit in the image processing system having the above-described configuration can be realized as a method, and various processing procedures as the image processing method will be described with reference to FIG.

本実施の形態に係る画像処理方法は、先ず、コンピュータが、画素値に基づいて、検出対象である直線や曲線の候補となる領域とそれ以外の領域の2つの領域をそれぞれ候補領域及び背景領域として、画像を2つの領域に分割する(ステップS901)<2値化処理ステップ>。   In the image processing method according to the present embodiment, first, based on the pixel value, the computer converts a candidate area and a background area into two areas, that is, a candidate area for a straight line or a curve to be detected and another area. Then, the image is divided into two regions (step S901) <binarization processing step>.

次に、コンピュータが、パラメータ空間の離散化幅を予め与えた幅(第1の離散化幅)に大きくしてパラメータ空間の離散化幅を粗くする処理を行う(ステップS902)<パラメータ空間粗視化処理ステップ>。   Next, the computer performs a process of increasing the discretization width of the parameter space to a predetermined width (first discretization width) and coarsening the discretization width of the parameter space (step S902) <parameter space coarse-graining. Processing step>.

続いて、コンピュータが、ステップ903の全候補線有力候補線描画処理ステップを行う。
ここで、1回目の処理か2回目以降の処理か判定を行う<処理回数判定処理ステップ>。この判定処理にて、コンピュータが、1回目の処理であると判定した場合には、コンピュータは、パラメータ空間上のすべてのパラメータの組み合わせについて、線を画像上に描画するため、全候補線有力候補線描画処理において、全候補線描画処理を行う。
Subsequently, the computer performs all candidate line leading candidate line drawing processing step in step 903.
Here, it is determined whether the process is the first process or the second and subsequent processes <process count determination process step>. In this determination process, if the computer determines that this is the first process, the computer draws lines on the image for all parameter combinations in the parameter space. In the line drawing process, all candidate line drawing processes are performed.

一方、コンピュータが、2回目以降の処理であると判定した場合には、コンピュータは、最初の段階(1回目の処理)にて一旦パラメータ空間のある離散化幅(第1の離散化幅)で実在線が求まって、次の離散化幅(第2の離散化幅)で実在線を求めるため、全候補線有力候補線描画処理において、パラメータ空間において、見つかった実在線をそのまま有力候補線としてその近傍で探索した場合のパラメータの組み合わせのみについて線を描画し、パラメータを精密化して有力候補線描画処理を行う。   On the other hand, when the computer determines that the process is the second or later process, the computer temporarily uses a discretization width (first discretization width) having a parameter space in the first stage (first process). Since the real line is obtained and the real line is obtained with the next discretization width (second discretization width), in the all candidate line leading candidate line drawing process, the found real line is directly used as the leading candidate line in the parameter space. A line is drawn only for the combination of parameters when searching in the vicinity, and the leading candidate line drawing process is performed by refining the parameters.

そして、コンピュータは、前記第2の実施の形態と同様の処理手順である、ステップS904〜ステップS908の処理を行う。   Then, the computer performs the processing from step S904 to step S908, which is the same processing procedure as in the second embodiment.

さらに、コンピュータが、予め設定したパラメータ空間上の設定離散化幅に達したか否かの判定を行う(ステップS909)<設定離散化幅判定処理ステップ>。
この判定処理にて、コンピュータが、予め設定したパラメータ空間上の設定離散化幅に達していないと判定した場合には、コンピュータは、ステップS901に戻り、ステップS901〜ステップS908の処理(2回目以降の2値化処理ステップ、2回目以降のパラメータ空間粗視化処理ステップ、2回目以降の全候補線有力候補線描画処理ステップ、2回目以降の通過判定処理ステップ、2回目以降の重み算出処理ステップ、2回目以降の個数計量処理ステップ、2回目以降の実在線判定処理ステップ、2回目以降の実在線画像生成処理ステップ)を繰り返し実行する。
一方、コンピュータが、予め設定したパラメータ空間上の設定離散化幅に達していると判定した場合には、コンピュータは、処理を終了する。
Further, the computer determines whether or not the preset discretization width on the preset parameter space has been reached (step S909) <set discretization width determination processing step>.
If it is determined in this determination process that the computer has not reached the preset discretization width in the parameter space, the computer returns to step S901 and performs the processes in steps S901 to S908 (second and subsequent times). Binarization processing step, second and subsequent parameter space coarse-graining processing step, second and subsequent all candidate line leading candidate line drawing processing step, second and subsequent passage determination processing step, and second and subsequent weight calculation processing step The second and subsequent number counting processing steps, the second and subsequent real line determination processing steps, and the second and subsequent real line image generation processing steps) are repeatedly executed.
On the other hand, if the computer determines that the preset discretization width on the parameter space has been reached, the computer ends the process.

ここで、2回目以降の処理の段階では、最初の段階(1回目の処理)にて一旦あるパラメータ空間の離散化幅で実在線が得られ、その実在線をそのまま有力候補線としてその近傍で探索してパラメータを精密化することになる。   Here, in the second and subsequent processing stages, a real line is once obtained with a discretization width of a certain parameter space in the first stage (first process), and the real line is directly searched as a leading candidate line in the vicinity thereof. The parameters will be refined.

このように、コンピュータが、パラメータ空間の離散化幅を予め与えた幅に大きくしてパラメータ空間を粗くし実在線を求め、一旦実在線が求まった後、パラメータ空間をより密に離散化する。   As described above, the computer increases the discretization width of the parameter space to a predetermined width to roughen the parameter space to obtain a real line, and once the real line is obtained, the parameter space is discretized more densely.

そして、前記コンピュータが、細分化したパラメータ空間で一旦求まった実在線の近傍で新たに実在線を求め直し、離散化幅が異なるパラメータ空間での新たな実在線の導出を予め定めた回数かあるいは離散化幅が予め与えた値に達するまで繰り返し実行させる。   Then, the computer re-determines a new real line in the vicinity of the real line once obtained in the subdivided parameter space, and the derivation of the new real line in the parameter space having a different discretization width is performed a predetermined number of times or It is repeatedly executed until the discretization width reaches a predetermined value.

[第8の実施の形態]
次に、本発明にかかる第8の実施の形態について、図31に基づいて説明する。以下には、前記第1の実施の形態の実質的に同様の構成に関しては説明を省略し、異なる部分についてのみ述べる。図31は、本発明の画像処理システムにおける画像処理装置の第8の実施の形態の一例を示すブロック図である。
[Eighth Embodiment]
Next, an eighth embodiment according to the present invention will be described with reference to FIG. In the following, description of the substantially similar configuration of the first embodiment will be omitted, and only different parts will be described. FIG. 31 is a block diagram showing an example of the eighth embodiment of the image processing apparatus in the image processing system of the present invention.

本実施の形態では、前記第1の実施の形態の画像処理装置のパラメータ線描画部の代わりに構成される画素値重み付きパラメータ線描画部と、前記第1の実施の形態の画像処理装置の重なり回数計量部の代わりに構成される画素値重み付き重なり回数計量部と、前記第1の実施の形態の画像処理装置の重み算出部の代わりに構成される画素値重み付き重み算出部とを構成した例を開示している。   In the present embodiment, the parameter line drawing unit with a pixel value weight configured instead of the parameter line drawing unit of the image processing apparatus of the first embodiment, and the image processing apparatus of the first embodiment. A pixel value weighted overlap number measuring unit configured in place of the overlap number measuring unit, and a pixel value weighted weight calculating unit configured in place of the weight calculating unit of the image processing apparatus according to the first embodiment. A configured example is disclosed.

(構成について)
具体的には、本第8の実施の形態の画像処理システムにおける画像処理装置940は、図31に示すように、画素値重み付きパラメータ線描画部943と、画素値重み付き重なり回数計量部945と、画素値重み付き重み算出部948と、前記第1の実施の形態と同様の構成である、2値化処理部941と、パラメータ算出部942と、交差点検出部944と、有力候補線描画部946と、通過判定部947と、個数計量部949と、実在線判定部951と、実在線画像生成部952と、画素値重みを算出する画素値重み算出部954と、これら各部の実行手順を制御するモジュール制御部953と、を含む構成としている。
(About configuration)
Specifically, the image processing apparatus 940 in the image processing system of the eighth embodiment includes a pixel value weighted parameter line drawing unit 943 and a pixel value weighted overlap count measuring unit 945 as shown in FIG. A pixel value weighted weight calculation unit 948, a binarization processing unit 941, a parameter calculation unit 942, an intersection detection unit 944, and a powerful candidate line drawing having the same configuration as that of the first embodiment. Unit 946, passage determination unit 947, number measurement unit 949, real line determination unit 951, real line image generation unit 952, pixel value weight calculation unit 954 for calculating pixel value weights, and execution procedures of these units And a module control unit 953 for controlling.

画素値重み付きパラメータ線描画部943は、パラメータ空間上にパラメータ線を描画する際、2値化前の画像の画素値をもとに重みを予め定めた手段(画素値重み算出部954)で算出して画素値重みとし、この画素値重みを考慮して描画を行うものである。
例えば、前記画素に対応する前記画素値重みを、前記パラメータ線と前記パラメータ空間部の座標が一致する要素の要素数に付与して描画する。
The pixel value weighted parameter line drawing unit 943 is a means (pixel value weight calculating unit 954) that predetermines a weight based on the pixel value of the image before binarization when drawing the parameter line on the parameter space. The pixel value weight is calculated to be drawn in consideration of the pixel value weight.
For example, the pixel value weight corresponding to the pixel is given to the number of elements of which the coordinates of the parameter line and the parameter space portion match and rendered.

画素値重み付き重なり回数計量部945は、前記交差点において、パラメータ線同士が重なる回数及び前記画素値重みの合計が予め外部から与えた閾値より大きい座標であり、且つ、予め定めた近傍内で他に前記重なる回数を上回る箇所が無い座標が指し示すパラメータの組み合わせを、検出対象となる直線や曲線のパラメータ組み合わせの有力候補とするものである。   The pixel value weighted overlap count metric unit 945 is a coordinate whose number of parameter lines overlaps at the intersection and the sum of the pixel value weights is larger than a threshold given in advance from the outside, and other within a predetermined neighborhood. The combination of the parameters indicated by the coordinates having no portion exceeding the number of times of overlap is set as a promising candidate for the parameter combination of the straight line or the curve to be detected.

画素値重み付き重み算出部948は、注目画素における有力候補線の接線を求め、接線とx軸と成す角度の余弦(cosθ)の逆数の絶対値を求める。この絶対値が2の平方根以下の場合は、この角度の余弦の逆数の絶対値を傾き重みとし、それ以外は、正弦(sinθ)の逆数の絶対値を傾き重みとする。
傾き重みは、有力候補線の通過画素毎に算出する。また、傾き重みは、全ての有力候補線の全通過画素について算出し、例えばパラメータ空間記憶部122に保持する。
そして、画素値重み付き重み算出部948は、前記傾き重みに更に2値化前の画像の画素値を元に算出した値をかけて新たに傾き重み(画素値重み付き傾き重み)とする。
The pixel value weighted weight calculation unit 948 obtains the tangent line of the leading candidate line at the target pixel, and obtains the absolute value of the reciprocal of the cosine (cos θ) of the angle formed between the tangent line and the x axis. If this absolute value is less than or equal to the square root of 2, the absolute value of the reciprocal of the cosine of this angle is the slope weight, and otherwise, the absolute value of the reciprocal of sine (sin θ) is the slope weight.
The inclination weight is calculated for each passing pixel of the leading candidate line. In addition, the inclination weight is calculated for all passing pixels of all possible candidate lines, and is stored in, for example, the parameter space storage unit 122.
The pixel value weighted weight calculation unit 948 then multiplies the inclination weight by a value calculated based on the pixel value of the image before binarization to obtain a new inclination weight (pixel value weighted inclination weight).

各部における画素値重みとしては、例えば画素値をそのまま使ってもよいし、画素値を例えば対数変換してもよいし、予め与えた関数で変換してもよい。   As the pixel value weight in each part, for example, the pixel value may be used as it is, or the pixel value may be logarithmically converted or may be converted by a function given in advance.

ここで、本実施の形態の画素値重み算出部954は、「画素値重み算出手段」ということもできる。また、本実施の形態の画素値重み付き重み算出部948と個数計量部949とにより、「候補線識別指標算出手段」を構成することもできる。さらに、画素値重み付きパラメータ線描画部943とパラメータ算出部942により、「パラメータ空間部描画手段」を構成することもできる。またさらに、交差点検出部944と画素値重み付き重なり回数計量部945とにより、「選別手段」を構成することもできる。   Here, the pixel value weight calculation unit 954 of the present embodiment can also be referred to as “pixel value weight calculation means”. The pixel value weighted weight calculating unit 948 and the number measuring unit 949 of the present embodiment can also constitute a “candidate line identification index calculating unit”. Further, the “parameter space drawing unit” may be configured by the pixel value weighted parameter line drawing unit 943 and the parameter calculation unit 942. Further, the intersection detection unit 944 and the pixel value weighted overlap number measurement unit 945 may constitute a “selection unit”.

前記画素値重み算出手段は、前記候補領域を抽出する前の前記画像の画素値に基づいて特定の画素値重みを算出することができる。また、この場合、前記候補線識別指標算出手段は、前記画素値重みと前記傾き重みとに基づいて画素値重み付き傾き重みを前記通過画素毎に算出し、各々の前記候補線について前記画素値重み付き傾き重みの合計値を算出することができる。   The pixel value weight calculating means can calculate a specific pixel value weight based on a pixel value of the image before extracting the candidate area. Further, in this case, the candidate line identification index calculating means calculates a pixel value weighted inclination weight for each passing pixel based on the pixel value weight and the inclination weight, and the pixel value for each candidate line. A total value of weighted gradient weights can be calculated.

前記パラメータ空間部描画手段は、前記画素に対応する前記パラメータ空間図形要素を前記パラメータ空間部に描画する際に、前記画素に対応する前記画素値重みを、前記パラメータ空間図形要素と前記パラメータ空間部の座標が一致する要素の要素数に付与して描画することができる。この場合、前記選別手段は、各々の前記パラメータ空間図形要素が交差する交差部における前記画素値重みの合計数と、予め設定された画素値重み合計数閾値とに基づいて、前記パラメータ空間部の交差部及び前記交差部周辺領域のパラメータ空間の有力候補領域を選別することができる。   The parameter space drawing unit draws the pixel value weight corresponding to the pixel, the parameter space graphic element, and the parameter space part when drawing the parameter space graphic element corresponding to the pixel in the parameter space part. It is possible to draw by assigning to the number of elements having the same coordinates. In this case, the selecting means is configured to determine whether the parameter space portion of the parameter space portion is based on the total number of the pixel value weights at the intersection where each of the parameter space graphic elements intersects and a preset pixel value weight total number threshold value. Possible candidate areas in the parameter space of the intersection and the surrounding area of the intersection can be selected.

また、前記画素値重み算出手段が、前記画素値を対数変換することで画素値重みを算出するものである場合には、前記候補線識別指標算出手段は、各々の前記候補線について対数変換による前記画素値重み付き傾き重みの合計値を算出することができる。   Further, when the pixel value weight calculating unit calculates a pixel value weight by logarithmically converting the pixel value, the candidate line identification index calculating unit performs logarithmic conversion on each candidate line. The total value of the pixel value weighted gradient weights can be calculated.

(処理手順について)
次に、上述のような構成を有する画像処理システムにおける各部の処理は、方法としても実現可能であり、画像処理方法としての各種の処理手順について、図32を参照しつつ説明する。
(About processing procedure)
Next, the processing of each unit in the image processing system having the above-described configuration can be realized as a method, and various processing procedures as the image processing method will be described with reference to FIG.

本実施の形態に係る画像処理方法では、先ず、コンピュータが、2値化前の画像の画素値をもとに重みを予め定めるため、画素値重みを算出する処理を行う(ステップS1000a)<画素値重み算出処理ステップ>。   In the image processing method according to the present embodiment, first, the computer performs a process of calculating the pixel value weight in order to predetermine the weight based on the pixel value of the image before binarization (step S1000a) <pixel Value weight calculation processing step>.

次に、コンピュータが、画素値に基づいて、検出対象である直線や曲線の候補となる領域とそれ以外の領域の2つの領域をそれぞれ候補領域及び背景領域として、画像を2つの領域に分割する(ステップS1001)<2値化処理ステップ>。   Next, the computer divides the image into two regions based on the pixel values, with the two regions of the detection target line and curve candidates and the other regions as a candidate region and a background region, respectively. (Step S1001) <binarization processing step>.

そして、コンピュータは、前記第1の実施の形態と同様の処理手順である、ステップS1002のパラメータ算出処理を行う。   Then, the computer performs a parameter calculation process in step S1002, which is the same processing procedure as in the first embodiment.

次に、コンピュータが、パラメータ空間上にパラメータ線を描画する際、2値化前の画像の画素値をもと重みを予め定めた手段で算出して画素値重みとし、この画素値重みを考慮して描画を行う(ステップS1003)<画素値重み付きパラメータ線描画処理ステップ>。   Next, when the computer draws the parameter line in the parameter space, the pixel value weight is calculated by calculating a weight based on the pixel value of the image before binarization and taking this pixel value weight into consideration. Then, drawing is performed (step S1003) <Pixel value weighted parameter line drawing processing step>.

続いて、コンピュータは、前記第1の実施の形態と同様の処理手順である、ステップS1004の交差点検出処理を行う。   Subsequently, the computer performs an intersection detection process in step S1004, which is the same processing procedure as in the first embodiment.

さらに、前記コンピュータが、前記交差点において、パラメータ線同士が重なる回数及び前記画素値重みの合計が予め外部から与えた閾値より大きい座標であり、且つ、予め定めた近傍内で他に重なる箇所が無い座標が指し示すパラメータの組み合わせが、検出対象となる直線や曲線のパラメータ組み合わせの有力候補とする処理を行う(ステップS1005)<画素値重み付き重なり回数計量処理ステップ>。   Further, the computer has coordinates where the number of parameter lines overlap each other at the intersection and the sum of the pixel value weights is larger than a threshold given in advance from the outside, and there is no other overlapping portion within a predetermined neighborhood. A process is performed in which the combination of parameters indicated by the coordinates is a promising candidate for the parameter combination of a straight line or a curve to be detected (step S1005) <pixel value weighted overlap count measurement process step>.

次いで、コンピュータは、前記第1の実施の形態と同様の処理手順である、ステップS1006〜ステップS1007の処理を行う。   Next, the computer performs the processing of steps S1006 to S1007, which is the same processing procedure as in the first embodiment.

そして、前記コンピュータが、前記傾き重みに更に2値化前の画像の画素値を元に算出した値をかけて新たに傾き重みとする処理を行う(ステップS1008)<画素値重み付き重み算出処理ステップ>。   Then, the computer performs processing for newly obtaining a gradient weight by multiplying the gradient weight by a value calculated based on the pixel value of the image before binarization (step S1008) <pixel value weighted weight calculation processing Step>.

次いで、コンピュータは、前記第1の実施の形態と同様の処理手順である、ステップS1009〜ステップS1011の処理を行う。   Next, the computer performs the processing from step S1009 to step S1011 which is the same processing procedure as in the first embodiment.

ここで、本実施の形態のステップS1000aは、「画素値重み算出ステップ」ということもできる。また、本実施の形態のステップS1008とステップS1009とにより、「候補線識別指標算出ステップ」ということもできる。さらに、本実施の形態のステップS1002とステップS1003とにより、「パラメータ空間部描画ステップ」ということもできる。また、本実施の形態のステップS1004とステップS1005とにより、「選別ステップ」ということもできる。   Here, step S1000a of the present embodiment can also be referred to as a “pixel value weight calculation step”. Moreover, it can also be called "candidate line identification parameter | index calculation step" by step S1008 and step S1009 of this Embodiment. Furthermore, it can also be referred to as a “parameter space drawing step” by steps S1002 and S1003 of the present embodiment. Moreover, it can also be called "selection step" by step S1004 and step S1005 of this Embodiment.

画素値重み算出ステップでは、前記候補領域を抽出する前の前記画像の画素値に基づいて特定の画素値重みを算出する。この場合、前記候補線識別指標算出ステップでは、前記画素値重みと前記傾き重みとに基づいて画素値重み付き傾き重みを前記通過画素毎に算出し、各々の前記候補線について前記画素値重み付き傾き重みの合計値を算出することができる。   In the pixel value weight calculation step, a specific pixel value weight is calculated based on the pixel value of the image before extracting the candidate area. In this case, in the candidate line identification index calculation step, an inclination weight with a pixel value weight is calculated for each passing pixel based on the pixel value weight and the inclination weight, and the pixel value weight is added to each candidate line. The total value of the inclination weight can be calculated.

前記パラメータ空間部描画ステップでは、前記画素に対応する前記パラメータ空間図形要素を前記パラメータ空間部に描画する際に、前記画素に対応する前記画素値重みを、前記パラメータ空間図形要素と前記パラメータ空間部の座標が一致する要素の要素数に付与して描画することができる。
前記選別ステップでは、各々の前記パラメータ空間図形要素が交差する交差部における前記画素値重みの合計数と、予め設定された画素値重み合計数閾値とに基づいて、前記パラメータ空間部の交差部及び前記交差部周辺領域のパラメータ空間の有力候補領域を選別することができる。
In the parameter space portion drawing step, when the parameter space graphic element corresponding to the pixel is drawn in the parameter space portion, the pixel value weight corresponding to the pixel is set to the parameter space graphic element and the parameter space portion. It is possible to draw by assigning to the number of elements having the same coordinates.
In the selection step, based on the total number of pixel value weights at the intersection where each of the parameter space graphic elements intersects and a preset pixel value weight total number threshold, It is possible to select potential candidate areas in the parameter space around the intersection.

前記画素値重み算出ステップでは、前記画素値を対数変換することで画素値重みを算出することができる。この場合、前記候補線識別指標算出ステップでは、各々の前記候補線について対数変換された前記画素値重み付き傾き重みの合計値を算出することができる。   In the pixel value weight calculation step, the pixel value weight can be calculated by logarithmically converting the pixel value. In this case, in the candidate line identification index calculating step, a total value of the pixel value weighted inclination weights logarithmically converted for each of the candidate lines can be calculated.

以上のように本実施の形態によれば、前記第1の実施の形態と同様の作用効果を奏しながらも、画素値重みを使うことにより、はっきりとは映っているが長さの短い線を検出することができる。   As described above, according to the present embodiment, the same effect as the first embodiment can be obtained, but by using the pixel value weight, a line that is clearly visible but has a short length is displayed. Can be detected.

その他の構成およびその他のステップ並びにその作用効果については、前述した第1の実施の形態の場合と同一となっている。また、前記の説明において、上述した各ステップの動作内容及び各部の構成要素をプログラム化し、コンピュータに実行させてもよい。   Other configurations, other steps, and operational effects thereof are the same as those in the first embodiment described above. In the above description, the operation content of each step described above and the components of each unit may be programmed and executed by a computer.

本実施の形態では、簡単のために、第1の実施の形態の画像処理装置で画素値重みを考慮した場合の構成例(画素値重み付きパラメータ線描画部、画素値重み付き重なり回数計量部、画素値重み付き重み算出部を構成した例)を説明したが、前記第2の実施の形態の画像処理装置で画素値重みを考慮した場合(画素値重み付きパラメータ線描画部、画素値重み付き重なり回数計量部、画素値重み付き重み算出部を構成した場合)、前記第3の実施の形態の第1、第2の画像処理装置の各々で画素値重みを考慮した場合(画素値重み付きパラメータ線描画部、画素値重み付き重なり回数計量部、画素値重み付き重み算出部を構成した場合)、前記第4の実施の形態の画像処理装置で画素値重みを考慮した場合(画素値重み付きパラメータ線描画部、画素値重み付き重なり回数計量部、画素値重み付き重み算出部を構成した場合)、前記第5の実施の形態の画像処理装置で画素値重みを考慮した場合(画素値重み付きパラメータ線描画部、画素値重み付き重なり回数計量部、画素値重み付き重み算出部を構成した場合)、前記第6の実施の形態の画像処理装置で画素値重みを考慮した場合(画素値重み付きパラメータ線描画部、画素値重み付き重なり回数計量部、画素値重み付き重み算出部を構成した場合)、前記第7の実施の形態の画像処理装置で画素値重みを考慮した場合(画素値重み付きパラメータ線描画部、画素値重み付き重なり回数計量部、画素値重み付き重み算出部を構成した場合)であってもよい。   In this embodiment, for the sake of simplicity, a configuration example in which the pixel value weight is considered in the image processing apparatus according to the first embodiment (a pixel value weighted parameter line drawing unit, a pixel value weighted overlap count measuring unit) An example in which the pixel value weighted weight calculation unit is configured) has been described, but when the pixel value weight is considered in the image processing apparatus of the second embodiment (a pixel value weighted parameter line drawing unit, pixel value weight) In the case where an appending overlap count measurement unit and a pixel value weighted weight calculation unit are configured), in the case where each of the first and second image processing apparatuses of the third embodiment considers a pixel value weight (pixel value weight) A parameter line drawing unit, a pixel value weighted overlap count measurement unit, and a pixel value weighted weight calculation unit), when the pixel value weight is considered in the image processing apparatus of the fourth embodiment (pixel value) Weighted parameter line drawing When the pixel value weighted overlap count measuring unit and the pixel value weighted weight calculating unit are configured), when the pixel value weight is considered in the image processing apparatus according to the fifth embodiment (pixel value weighted parameter line drawing) A pixel value weighted overlap count measuring unit, and a pixel value weighted weight calculating unit), and a pixel value weighted parameter line in the image processing apparatus according to the sixth embodiment (pixel value weighted parameter line) When a drawing unit, a pixel value weighted overlap count measurement unit, and a pixel value weighted weight calculation unit are configured), when the pixel value weight is considered in the image processing apparatus according to the seventh embodiment (pixel value weighted parameter) A line drawing unit, a pixel value weighted overlap count measuring unit, and a pixel value weighted weight calculating unit).

(第8の実施の形態の第1変形例)
(構成について)
図33は、前記第2の実施の形態の画像処理装置で画素値重みを考慮した場合(画素値重み付き重み算出部を構成した場合)の構成例を示すブロック図である。
(First Modification of Eighth Embodiment)
(About configuration)
FIG. 33 is a block diagram illustrating a configuration example when pixel value weights are considered in the image processing apparatus according to the second embodiment (when a pixel value weighted weight calculation unit is configured).

図33に示すように、画像処理システムにおける画像処理装置1040は、前記第2の実施の形態と異なり、重み算出部の代わりに画素値重み付き重み算出部1044を設けた構成としている。   As shown in FIG. 33, the image processing apparatus 1040 in the image processing system has a configuration in which a pixel value weighted weight calculation unit 1044 is provided instead of the weight calculation unit, unlike the second embodiment.

画素値重みつき重み算出部1044は、注目画素における候補線の接線を求め、接線とx軸と成す角度の余弦(cosθ)の逆数の絶対値を求める。この絶対値が2の平方根以下の場合は、この角度の余弦の逆数の絶対値を傾き重みとし、それ以外は、正弦(sinθ)の逆数の絶対値を傾き重みとする。
傾き重みは、候補線が通過する画素毎に算出する。また、傾き重みは、全ての候補線について算出し、例えばパラメータ空間記憶部122に保持する。
そして、画素値重みつき重み算出部1044は、前記傾き重みに更に2値化前の画像の画素値を元に算出した値をかけて新たに傾き重み(画素値重み付き傾き重み)とする。
The pixel value weighted weight calculation unit 1044 obtains the tangent of the candidate line at the target pixel, and obtains the absolute value of the reciprocal of the cosine (cos θ) of the angle formed between the tangent and the x axis. If this absolute value is less than or equal to the square root of 2, the absolute value of the reciprocal of the cosine of this angle is the slope weight, and otherwise, the absolute value of the reciprocal of sine (sin θ) is the slope weight.
The inclination weight is calculated for each pixel through which the candidate line passes. In addition, the inclination weight is calculated for all candidate lines and is held in, for example, the parameter space storage unit 122.
Then, the pixel value weighted weight calculation unit 1044 multiplies the inclination weight by a value calculated based on the pixel value of the image before binarization to obtain a new inclination weight (pixel value weighted inclination weight).

その他、画像処理装置1040は、前記第2の実施の形態と同様の構成である、2値化処理部1041と、通過判定部1044と、重み算出部1045と、個数計量部1046と、実在線判定部1047と、実在線画像生成部1048と、を含む構成としている。   In addition, the image processing apparatus 1040 has the same configuration as that of the second embodiment, a binarization processing unit 1041, a passage determination unit 1044, a weight calculation unit 1045, a number measuring unit 1046, a real line A determination unit 1047 and a real line image generation unit 1048 are included.

(処理手順について)
次に、上述のような構成を有する画像処理システムにおける各部の処理は、方法としても実現可能であり、画像処理方法としての各種の処理手順について、図34を参照しつつ説明する。
(About processing procedure)
Next, the processing of each unit in the image processing system having the above-described configuration can be realized as a method, and various processing procedures as the image processing method will be described with reference to FIG.

この画像処理方法では、先ず、コンピュータが、画素値に基づいて、検出対象である直線や曲線の候補となる領域とそれ以外の領域の2つの領域をそれぞれ候補領域及び背景領域として、画像を2つの領域に分割する(ステップS1101)<2値化処理ステップ>。   In this image processing method, first, based on pixel values, a computer uses two regions, a candidate region for a straight line and a curve to be detected, and another region as a candidate region and a background region, respectively. Divide into two areas (step S1101) <binarization processing step>.

次に、コンピュータは、前記第2の実施の形態と同様の処理手順である、ステップS1002〜ステップS1103の処理を行う。   Next, the computer performs the processing from step S1002 to step S1103, which is the same processing procedure as in the second embodiment.

続いて、コンピュータが、注目画素における候補線の接線を求め、接線とx軸と成す角度の余弦(cosθ)の逆数の絶対値を求める。この絶対値が2の平方根以下の場合は、この角度の余弦の逆数の絶対値を傾き重みとし、それ以外は、正弦(sinθ)の逆数の絶対値を傾き重みとする。
傾き重みは、候補線が通過する画素毎に算出する。また、傾き重みは、全ての候補線について算出する。
そして、コンピュータが、前記傾き重みに更に2値化前の画像の画素値を元に算出した値をかけて新たに傾き重み(画素値重み付き傾き重み)とする(ステップS1104)<画素値重み付き重み算出処理ステップ>。
Subsequently, the computer obtains the tangent of the candidate line at the target pixel, and obtains the absolute value of the reciprocal of the cosine (cos θ) of the angle formed by the tangent and the x axis. If this absolute value is less than or equal to the square root of 2, the absolute value of the reciprocal of the cosine of this angle is the slope weight, and otherwise, the absolute value of the reciprocal of sine (sin θ) is the slope weight.
The inclination weight is calculated for each pixel through which the candidate line passes. In addition, the inclination weight is calculated for all candidate lines.
Then, the computer further multiplies the inclination weight by a value calculated based on the pixel value of the image before binarization to obtain a new inclination weight (inclination weight with pixel value weight) (step S1104) <pixel value weight Added weight calculation processing step>.

このような実施の形態の第1変形例によれば、前記第2の実施の形態と同様の作用効果を奏しながらも、画素値重みを使うことにより、はっきりとは映っているが長さの短い線を検出することができる。   According to the first modified example of the embodiment, although the same effect as that of the second embodiment is achieved, the pixel value weight is clearly used, but the length is clearly shown. Short lines can be detected.

(第8の実施の形態の第2変形例)
(構成について)
図35は、前記第3の実施の形態の切替制御装置で画素値重みを考慮した場合(画素値重み付きパラメータ線描画計算量推定部、画素値重み付き重なり回数計量計算量推定部、画素値重み付き重み算出計算量推定部、全画素値重み付き重み算出計算量推定部を構成した場合)の構成例を示すブロック図である。
(Second Modification of Eighth Embodiment)
(About configuration)
FIG. 35 shows a case where a pixel value weight is considered in the switching control device of the third embodiment (a pixel value weighted parameter line drawing calculation amount estimation unit, a pixel value weighted overlap count metric calculation amount estimation unit, a pixel value, It is a block diagram showing a configuration example of a weighted weight calculation calculation amount estimation unit and an all pixel value weighted weight calculation calculation amount estimation unit).

図35に示すように、画像処理システムにおける切替制御装置1170は、前記第3の実施の形態との違いは、パラメータ線描画計算量推定部の代わりに画素値重み付きパラメータ線描画計算量推定部1173を設け、重なり回数計量計算量推定部の代わりに画素値重み付き重なり回数計量計算量推定部1175を設け、重み算出計算量推定部の代わりに画素値重み付き重み算出計算量推定部1178を設け、全重み算出計算量推定部の代わりに全画素値重み付き重み算出計算量推定部1184を設けた構成例を開示している。   As shown in FIG. 35, the switching control device 1170 in the image processing system is different from the third embodiment in that a parameter line drawing calculation amount estimation unit with a pixel value weight is used instead of the parameter line drawing calculation amount estimation unit. 1173, a pixel value weighted overlap count metric calculation amount estimation unit 1175 is provided instead of the overlap count metric calculation amount estimation unit, and a pixel value weighted weight calculation calculation amount estimation unit 1178 is provided instead of the weight calculation calculation amount estimation unit. A configuration example is disclosed in which an all-pixel value weighted weight calculation calculation amount estimation unit 1184 is provided instead of the total weight calculation calculation amount estimation unit.

切替制御装置1170は、図35に示すように、画素値重み付きパラメータ線描画計算量推定部1173と、画素値重み付き重なり回数計量計算量推定部1175と、画素値重み付き重み算出計算量推定部1178と、全画素値重み付き重み算出計算量推定部1184と、を含む構成としている。   As shown in FIG. 35, the switching control device 1170 includes a pixel value weighted parameter line drawing calculation amount estimation unit 1173, a pixel value weighted overlap count metric calculation amount estimation unit 1175, and a pixel value weighted weight calculation calculation amount estimation. Unit 1178 and an all-pixel-value-weighted weight calculation calculation amount estimation unit 1184.

さらに、切替制御装置1170は、図35に示すように、前記第3の実施の形態と同様の構成である、2値化処理部1171と、パラメータ算出計算量推定部1172と、交差点検出計算量推定部1274と、有力候補線描画計算量推定部1176と、通過判定計算量推定部1177と、個数計量計算量推定部1179と、実在線判定計算量推定部1186と、全候補線描画計算量推定部1182と、全通過判定計算量推定部1183と、全個数計量計算量推定部1185と、全実在線判定計算量推定部1186と、手法選択部1187と、これら各部の実行手順を制御するモジュール制御部1188と、を含む構成としている。   Furthermore, as shown in FIG. 35, the switching control device 1170 has the same configuration as that of the third embodiment, a binarization processing unit 1171, a parameter calculation calculation amount estimation unit 1172, and an intersection detection calculation amount. Estimator 1274, leading candidate line drawing calculation amount estimation unit 1176, passage determination calculation amount estimation unit 1177, number metric calculation amount estimation unit 1179, real line determination calculation amount estimation unit 1186, and all candidate line drawing calculation amounts An estimation unit 1182, an all-pass determination calculation amount estimation unit 1183, a total piece count calculation amount estimation unit 1185, an all real line determination calculation amount estimation unit 1186, a method selection unit 1187, and the execution procedure of these units are controlled. A module control unit 1188.

画素値重み付きパラメータ線描画計算量推定部1173は、画素値重み付きパラメータ線描画部の実行に要する計算量を推定する。   The pixel value weighted parameter line drawing calculation amount estimation unit 1173 estimates the calculation amount required for the execution of the pixel value weighted parameter line drawing unit.

画素値重み付き重なり回数計量計算量推定部1175は、前記画素値重み付き重なり回数計量部の実行に要する計算量を推定する。   The pixel value weighted overlap count metric calculation amount estimation unit 1175 estimates the calculation amount required for the pixel value weighted overlap count metric calculation unit.

画素値重み付き重み算出計算量推定部1178は、前記画素値重み付き重み算出部の実行に要する計算量を推定する。   The pixel value weighted weight calculation calculation amount estimation unit 1178 estimates the calculation amount required to execute the pixel value weighted weight calculation unit.

全画素値重み付き重み算出計算量推定部1184は、全画素値重み付き重み算出部の実行に要する計算量を推定する。
すなわち、全画素値重み付き重み算出計算量推定部1184は、全ての候補線の接線の傾きに従って接線が画像上のx軸と成す角度の余弦の逆数の絶対値が2の平方根以下の場合はこの角度の余弦の逆数の絶対値を傾き重みとし、それ以外は正弦の逆数の絶対値を傾き重みとし、有力候補線の通過画素毎に傾き重みを求めるために要する計算量を推定し、全重み算出計算量とする。
The all pixel value weighted weight calculation calculation amount estimation unit 1184 estimates the calculation amount required for the execution of the all pixel value weighted weight calculation unit.
That is, the all-pixel-value-weighted weight calculation calculation amount estimation unit 1184 determines that the absolute value of the reciprocal of the cosine of the angle formed by the tangent line and the x axis on the image is less than the square root of 2 according to the tangent slope of all candidate lines. The absolute value of the reciprocal of the cosine of this angle is used as the inclination weight, and the absolute value of the reciprocal of the sine is used as the inclination weight, and the amount of calculation required to obtain the inclination weight for each passing candidate line is estimated. The weight calculation calculation amount.

(処理手順について)
次に、上述のような構成を有する画像処理システムの切替制御装置における各部の処理は、方法としても実現可能であり、画像処理方法としての各種の処理手順について、図36を参照しつつ説明する。
(About processing procedure)
Next, the processing of each unit in the switching control device of the image processing system having the above-described configuration can be realized as a method, and various processing procedures as the image processing method will be described with reference to FIG. .

この画像処理方法では、先ず、前記第8の実施の形態と同様の処理である、図32に示すステップS1001〜S1011を行う。次に、前記第8の実施の形態の第1変形例と同様の処理である、図34に示すステップS1101〜S1107を行う。   In this image processing method, first, steps S1001 to S1011 shown in FIG. 32, which are the same processes as those in the eighth embodiment, are performed. Next, steps S1101 to S1107 shown in FIG. 34, which are the same processes as those of the first modification of the eighth embodiment, are performed.

ここで、特に、ステップ1003では、コンピュータが、パラメータ空間上にパラメータ線を描画する際、2値化前の画像の画素値を元に重みを予め定めた処理(画素値重み算出処理)で算出して画素値重みとし、この画素値重みを考慮して描画を行う<画素値重み付きパラメータ線描画処理ステップ>。   Here, in particular, in step 1003, when the computer draws the parameter line in the parameter space, the computer calculates the weight based on the pixel value of the image before binarization (pixel value weight calculation processing). Then, pixel value weighting is performed and drawing is performed in consideration of the pixel value weighting <parameter value weighted parameter line drawing processing step>.

また、ステップ1005では、前記コンピュータが、前記交差点において、パラメータ線同士が重なる回数及び前記画素値重みの合計が予め外部から与えた閾値より大きい座標であり且つ予め定めた近傍内で他に前記重なる回数を上回る箇所が無い座標が指し示すパラメータの組み合わせを、検出対象となる直線や曲線のパラメータ組み合わせの有力候補とする<画素値重み付き重なり回数計量処理ステップ>。   Further, in step 1005, the computer is such that the number of overlapping parameter lines and the sum of the pixel value weights at the intersection are coordinates larger than a threshold given from the outside in advance, and the other overlaps within a predetermined neighborhood. <Pixel value weighted overlap count measurement processing step> A combination of parameters indicated by coordinates having no portion exceeding the number of times is set as a potential candidate for a parameter combination of a straight line or a curve to be detected.

さらに、ステップ1008では、前記コンピュータが、有力候補線について前記傾き重みに更に2値化前の画像の画素値を元に算出した値をかけて新たに傾き重みとする<第1の画素値重み付き重み算出処理ステップ>。   Furthermore, in step 1008, the computer sets a new inclination weight by multiplying the inclination weight for the leading candidate line by a value calculated based on the pixel value of the image before binarization <first pixel value weight Added weight calculation processing step>.

さらにまた、ステップ1104では、候補線について前記傾き重みに更に2値化前の画像の画素値を元に算出した値をかけて新たに傾き重みとする<第2の画素値重み付き重み算出処理ステップ>。   Furthermore, in step 1104, the slope weight for the candidate line is further multiplied by a value calculated based on the pixel value of the image before binarization to obtain a new slope weight <second pixel value weighted weight calculation process Step>.

次に、図32に示すステップS1001〜S1011の処理、図34に示すステップS1101〜S1107の処理の後、コンピュータが、画素値に基づいて、検出対象である直線や曲線の候補となる領域とそれ以外の領域の2つの領域をそれぞれ候補領域及び背景領域として、画像を2つの領域に分割し、2値化された画像上の候補領域の比率を求め、パラメータ空間の各軸に離散化幅を与えて各々の処理の計算量を推定する(ステップS1201)<2値化処理ステップ>。   Next, after the processing in steps S1001 to S1011 shown in FIG. 32 and the processing in steps S1101 to S1107 shown in FIG. 34, the computer determines areas and candidates for straight lines or curves that are detection targets based on the pixel values. The two regions other than the region are the candidate region and the background region, respectively, and the image is divided into two regions, the ratio of the candidate regions on the binarized image is obtained, and the discretization width is set for each axis of the parameter space. The amount of calculation for each process is estimated (step S1201) <binarization process step>.

続いて、コンピュータは、前記第3の実施の形態と同様の処理手順である、ステップS1202のパラメータ算出計算量推定処理を行う。   Subsequently, the computer performs a parameter calculation calculation amount estimation process in step S1202, which is the same processing procedure as in the third embodiment.

そして、前記コンピュータが、ステップ1003の画素値重み付きパラメータ線描画処理の実行に要する計算量を推定する(ステップS1203)<画素値重み付きパラメータ線描画計算量推定処理ステップ>。   Then, the computer estimates the amount of calculation required to execute the pixel value weighted parameter line drawing process in step 1003 (step S1203) <pixel value weighted parameter line drawing calculation amount estimation processing step>.

続いて、コンピュータは、前記第3の実施の形態と同様の処理手順である、ステップS1202の交差点検出計算量推定処理を行う。   Subsequently, the computer performs an intersection detection calculation amount estimation process in step S1202, which is the same processing procedure as in the third embodiment.

さらに、前記コンピュータが、ステップ1005の画素値重み付き重なり回数計量処理の実行に要する計算量を推定する(ステップS1205)<画素値重み付き重なり回数計量計算量推定処理ステップ>。   Further, the computer estimates the amount of calculation required to execute the pixel value weighted overlap count metric processing in step 1005 (step S1205) <pixel value weighted overlap count metric calculation amount estimation processing step>.

そして、コンピュータは、前記第3の実施の形態と同様の処理手順である、ステップS1206〜S1207の計算量推定処理を行う。   Then, the computer performs a calculation amount estimation process in steps S1206 to S1207, which is the same processing procedure as in the third embodiment.

また、前記コンピュータが、有力候補線についてのステップ1008の第1の画素値重み付き重み算出処理の実行に要する計算量を推定する(ステップS1205)<画素値重み付き重み算出計算量推定処理ステップ>。   Further, the computer estimates the amount of calculation required to execute the first pixel value weighted weight calculation processing of step 1008 for the probable candidate line (step S1205) <pixel value weighted weight calculation calculation amount estimation processing step> .

次に、コンピュータは、前記第3の実施の形態と同様の処理手順である、ステップS1209〜S1212の計算量推定処理を行う。   Next, the computer performs a calculation amount estimation process in steps S1209 to S1212 which is the same processing procedure as that of the third embodiment.

続いて、前記コンピュータが、候補線についてのステップ1104の第2の画素値重み付き重み算出処理の実行に要する計算量を推定する(ステップS1213)<全画素値重み付き重み算出計算量推定処理ステップ>。   Subsequently, the computer estimates a calculation amount required to execute the second pixel value weighted weight calculation process of step 1104 for the candidate line (step S1213) <all pixel value weighted weight calculation calculation amount estimation processing step. >.

さらに、コンピュータは、前記第3の実施の形態と同様の処理手順である、ステップS1214〜S1215の計算量推定処理を行う。   Furthermore, the computer performs a calculation amount estimation process in steps S1214 to S1215, which is the same processing procedure as in the third embodiment.

そして、コンピュータは、前記パラメータ算出計算量と画素値重み付きパラメータ線描画計算量と交差点検出計算量と画素値重み付き重なり回数計量計算量と有力候補線描画計算量と通過判定計算量と画素値重み付き重み算出計算量と個数計量計算量と実在線判定計算量の合計を画素値重み付きパラメータ空間計算量(第1の計算量)とする。
加えて、前記コンピュータが、全候補線描画計算量と全通過判定計算量と全画素値重み付き重み算出計算量と全個数計量計算量と全実在線判定計算量の合計を画素値重み付き画像空間計算量(第2の計算量)とする。
さらに加えて、前記コンピュータが、前記パラメータ空間計算量と前記画像空間計算量を比較し、画素値重み付きパラメータ空間計算量の方が画素値重み付き画像空間計算量より小さい場合は、前記第8の実施の形態のステップS1001〜S1011の処理手順による実在線画像を生成する。
一方、画素値重み付き画像空間計算量の方が画素値重み付きパラメータ空間計算量より小さい場合は、前記コンピュータは、前記第8の実施の形態の第1変形例のステップS1101〜S1107の処理手順による実在線画像を生成する。
他方、画素値重み付き画像空間計算量と画素値重み付きパラメータ空間計算量とが等しい場合は、予め定めたルールに基づいていずれか一方の処理手順により実在線画像を生成する(ステップS1216)<手法選択処理ステップ>。
Then, the computer calculates the parameter calculation calculation amount, the pixel value weighted parameter line drawing calculation amount, the intersection detection calculation amount, the pixel value weighted overlap count metric calculation amount, the leading candidate line drawing calculation amount, the passage determination calculation amount, and the pixel value. The sum of the weighted weight calculation amount, the number metric calculation amount, and the actual line determination calculation amount is defined as a pixel value weighted parameter space calculation amount (first calculation amount).
In addition, the computer calculates the sum of all candidate line drawing calculation amount, all pass determination calculation amount, all pixel value weighted weight calculation calculation amount, all number metric calculation amount, and all real line determination calculation amount as a pixel value weighted image. Let it be a spatial calculation amount (second calculation amount).
In addition, the computer compares the parameter space calculation amount with the image space calculation amount, and if the pixel value weighted parameter space calculation amount is smaller than the pixel value weighted image space calculation amount, A real line image is generated by the processing procedure of steps S1001 to S1011 of the embodiment.
On the other hand, when the pixel value weighted image space calculation amount is smaller than the pixel value weighted parameter space calculation amount, the computer performs the processing procedure of steps S1101 to S1107 of the first modification of the eighth embodiment. The real line image by is generated.
On the other hand, when the pixel value weighted image space calculation amount is equal to the pixel value weighted parameter space calculation amount, a real line image is generated by one of the processing procedures based on a predetermined rule (step S1216) < Method selection processing step>.

このような実施の形態の第2変形例によれば、前記第3の実施の形態と同様の作用効果を奏しながらも、画素値重みを使うことにより、はっきりとは映っているが長さの短い線を検出することができる。   According to the second modified example of such an embodiment, although the same effect as that of the third embodiment is achieved, the pixel value weight is clearly used, but the length is clearly shown. Short lines can be detected.

[各種変形例]
また、本発明にかかる装置及び方法は、そのいくつかの特定の実施の形態に従って説明してきたが、本発明の主旨および範囲から逸脱することなく本発明の本文に記述した実施の形態に対して種々の変形が可能である。
例えば、第1〜第8の各実施の形態の各画像処理装置と、各画像処理装置を切替制御する切替制御装置とを含む画像処理システムを構成してもよい。
[Various modifications]
Also, although the apparatus and method according to the present invention have been described according to some specific embodiments thereof, the embodiments described in the text of the present invention can be used without departing from the spirit and scope of the present invention. Various modifications are possible.
For example, an image processing system including the image processing apparatuses according to the first to eighth embodiments and a switching control apparatus that controls the switching of the image processing apparatuses may be configured.

また、前記構成部材の数、位置、形状等は前記実施の形態に限定されず、本発明を実施する上で好適な数、位置、形状等にすることができる。すなわち、前記第3の実施の形態では、画像処理装置が2個、入力装置が1個、出力装置が1個、記憶装置が1個の場合を示したが、本発明は、これらの個数を制限するものではない。   Further, the number, position, shape, and the like of the constituent members are not limited to the above-described embodiment, and can be set to a number, position, shape, and the like that are suitable for implementing the present invention. That is, in the third embodiment, the case where there are two image processing devices, one input device, one output device, and one storage device is shown. It is not limited.

さらに、ハフ変換として、2次元直交座標系の図形要素(点)を、パラメータ空間の一例であるρ―θの2次元の極座標系上の図形要素(パラメータ線)に変換する例を挙げたが、他の種々のパラメータ空間に変換する場合であってもよい。
例えば、2次元直交座標系にて中心座標(a,b)半径rの円上の点の座標を(x,y)として、この画素を通り得る全ての円はa,b,rを軸とするパラメータ空間で(a−x+(b−y=rという円で表される。2次元直交座標系における点を、パラメータ空間の一例であるa、b、rの3次元の座標系上の図形要素に変換する場合であってもよい。この場合、2次元直交座標系における点は、a、b、rの3次元の座標系上(パラメータ空間)上では1つの面に対応する。点が多数ある場合には、パラメータ空間には多数の曲面が得られる。これらの各曲面が共有する点を検出する。
Furthermore, as an example of the Hough transform, an example is given in which a graphic element (point) in a two-dimensional orthogonal coordinate system is converted into a graphic element (parameter line) on a two-dimensional polar coordinate system of ρ-θ, which is an example of a parameter space. , It may be converted into other various parameter spaces.
For example, assuming that the coordinates of a point on a circle having a center coordinate (a, b) radius r in the two-dimensional orthogonal coordinate system are (x i , y i ), all circles that can pass through this pixel have a, b, r as It is represented by a circle of (ax i ) 2 + (b−y i ) 2 = r 2 in the parameter space as an axis. The point in the two-dimensional orthogonal coordinate system may be converted into a graphic element on a three-dimensional coordinate system of a, b, and r, which is an example of a parameter space. In this case, a point in the two-dimensional orthogonal coordinate system corresponds to one surface on the three-dimensional coordinate system (parameter space) of a, b, and r. When there are a large number of points, a large number of curved surfaces are obtained in the parameter space. A point shared by each of these curved surfaces is detected.

さらに、画素を通り得る円の場合に限らず、楕円の場合であってもよい。   Furthermore, it is not limited to a circle that can pass through pixels, but may be an ellipse.

また、ハフ変換で検出対象となる線は、一般的に直線や円などのように関数が予め分かっているものであるが、ハフ変換の拡張である一般化ハフ変換のように、関数の分からない任意形状の図形を検出対象とする場合であっても、本発明を適用できる。
また、パラメータ空間として、ρ―θパラメータ平面を任意に歪ませて(パラメータ線と位相同型にある)拡張パラメータ線を生成する場合であってもよい。
さらに、画素を通り得る線y=ax+bのa、bのパラメータ空間を利用する場合であってもよい。
The lines to be detected by the Hough transform are generally known in advance, such as straight lines and circles. However, from the function part as in the generalized Hough transform, which is an extension of the Hough transform. The present invention can be applied even when a figure having an arbitrary shape is not detected.
Further, as the parameter space, an extended parameter line may be generated by arbitrarily distorting the ρ-θ parameter plane (in the same phase as the parameter line).
Further, a parameter space of a and b of a line y = ax + b that can pass through the pixel may be used.

このように、直交座標系で表現された対象図形上の各画素の座標をパラメータ空間での座標系に変換し、パラメータ空間の座標上での形状により画像上の線図形を認識可能な画像処理装置全般、画像空間中の特徴点が与えられたとき、その点を含むすべての図形要素の存在を仮定して、図形要素を表すパラメータ空間中の点に投票を行い、パラメータ空間中の各点が何個の特徴点から投票を受けたかを調べることによって、各点が表す図形要素が存在するか否かを決定する画像処理装置全般、検出したい線を表現する方程式の係数をパラメータとして、画像の各点において、その点を通り得る全ての線について、パラメータの組み合わせ全てを求め、このパラメータを軸としたパラメータ空間において、パラメータの組み合わせ全てをプロットしてパラメータ線とし、画像の点毎にパラメータ線を描き、複数のパラメータ線が多く重なる点が、検出すべき線のパラメータの組み合わせとする画像処理装置全般に適用可能である。   In this way, image processing that converts the coordinates of each pixel on the target figure expressed in the Cartesian coordinate system to a coordinate system in the parameter space, and recognizes the line figure on the image by the shape on the coordinates in the parameter space When a feature point in the image space is given for the entire device, it is assumed that all the graphic elements including the point exist, and the points in the parameter space representing the graphic element are voted, and each point in the parameter space is In general, image processing devices that determine whether or not there is a graphic element represented by each point by examining how many feature points received the vote, and using the coefficient of the equation representing the line to be detected as a parameter For each line, find all the parameter combinations for all the lines that can pass through that point, and plot all the parameter combinations in the parameter space with this parameter as the axis. And a parameter line draw parameter line for each point in the image, a point that overlaps many more parameters lines are applicable to an image processing device which is a combination of parameters to be detected lines.

またさらに、個数計量部にて注目画素の傾き重みの合計値を出すようにしてもよい。この場合、注目画素の傾き重みの合計値からは、各画素からなる有力候補線についてのユークリッド距離を算出することもできる。   Further, the total number of inclination weights of the target pixel may be output by the number measuring unit. In this case, the Euclidean distance for the leading candidate line composed of each pixel can also be calculated from the total value of the inclination weights of the target pixel.

さらに、不定形図形の輪郭線上の数点について、その点の基準点、基準方向からの変位と接線方向を定義した任意形状の図形のテンプレートを構成し、図形空間上のある点のエッジ強度とエッジ方向を検出し、その点がエッジ上にあるとみなされる場合、テンプレートがある相似変換(平行移動・変倍・回転)によってその点を通過していると考える。この際に、パラメータ空間を相似変換パラメータ(平行移動の2つのスカラ、回転のスカラ、変倍のスカラによる4次元のパラメータ空間)で表すようにする場合であってもよい。   In addition, for several points on the outline of an irregular figure, a template of an arbitrarily shaped figure that defines the reference point of the point, the displacement from the reference direction and the tangential direction is constructed, and the edge strength of a point in the figure space If the edge direction is detected and the point is considered to be on the edge, it is considered that the template passes through the point by a similar transformation (translation, scaling, rotation). At this time, the parameter space may be represented by a similarity transformation parameter (a two-dimensional translation space, a rotation scalar, and a four-dimensional parameter space using a scaling scalar).

さらに、画像処理装置40は、プログラム制御により動作するものであり、ネットワーク関連の機能を有していれば、デスクトップ、ラップトップコンピュータその他無線・有線通信機能を有する情報機器、またはこれに類するコンピュータなどいかなるコンピュータでもよく、移動式・固定式を問わない。   Further, the image processing apparatus 40 operates by program control, and if it has a network-related function, the information processing apparatus having a wireless / wired communication function or a similar computer, etc. Any computer can be used, mobile or fixed.

(プログラム)
また、前述した実施形態の機能を実現する本発明のソフトウエアのプログラムは、前述した各実施の形態における各種ブロック図などに示された処理部(処理手段)、機能などに対応したプログラムや、フローチャートなどに示された処理手順、処理手段、機能などに対応したプログラムやなどにおいて各々処理される各処理プログラム、本明細書で全般的に記述される方法(ステップ)、説明された処理、データの全体もしくは各部を含む。
(program)
Further, the software program of the present invention that realizes the functions of the above-described embodiments is a program corresponding to the processing unit (processing means), functions, etc. shown in the various block diagrams in each of the above-described embodiments, Each processing program processed in a program corresponding to a processing procedure, processing means, function, etc. shown in a flowchart etc., a method (step) generally described in this specification, processing explained, data The whole or each part is included.

具体的には、本発明のプログラムは、画像内の画素を通り得る線を特定のパラメータを含む方程式で表し、この方程式の前記パラメータを座標軸とするパラメータ空間部を利用して前記画像内から線を抽出する処理をコンピュータが実行可能なものを対象とするものである。   Specifically, the program of the present invention represents a line that can pass through a pixel in an image by an equation including a specific parameter, and uses a parameter space portion having the parameter of the equation as a coordinate axis to make a line from the image. This is intended for a computer executable process.

このプログラムは、前記パラメータ空間部の前記パラメータの組み合わせがとる座標値に基づいて、前記座標値に対応する前記画像内の各候補線を描画する制御を行う候補線描画制御機能(例えば図1に示す符号40aに相当する機能など)を含むことができる。   This program is a candidate line drawing control function (for example, in FIG. 1) that performs control for drawing each candidate line in the image corresponding to the coordinate value based on the coordinate value taken by the combination of the parameters in the parameter space portion. The function corresponding to the reference numeral 40a shown) can be included.

また、このプログラムは、前記候補線及び該候補線の周辺の候補線周辺領域が通過する通過画素を、各々の前記候補線について決定する候補線周辺領域決定機能(例えば図1に示す符号47に相当する機能など)を含むことができる。さらに、このプログラムは、前記候補線を識別する指標であって前記候補線の接線の傾きを示す傾き重みを前記通過画素毎に算出し、各々の前記候補線について前記傾き重みの合計値を算出する候補線識別指標算出機能(例えば図1に示す符号40dに相当する機能など)を含むことができる。   This program also has a candidate line peripheral area determination function (for example, the reference numeral 47 shown in FIG. 1) that determines the candidate pixels and passing pixels through which the candidate line peripheral areas around the candidate lines pass. Corresponding functions). Further, the program calculates an inclination weight that is an index for identifying the candidate line and indicates an inclination of a tangent line of the candidate line for each passing pixel, and calculates a total value of the inclination weights for each candidate line. A candidate line identification index calculation function (for example, a function corresponding to the reference numeral 40d shown in FIG. 1) can be included.

さらにまた、このプログラムは、前記候補線識別指標算出機能にて算出された各々の前記候補線の各々の前記合計値に基づいて、一の前記候補線に対応する前記パラメータ空間部での一の前記パラメータの組み合わせの座標値の周辺のパラメータ値周辺領域内に、一の前記候補線の前記合計値を上回る他の前記候補線に対応する他の前記パラメータの組み合わせの座標値の有無を探索し、前記パラメータ値周辺領域内にて一の前記候補線の前記合計値を上回る他の前記候補線の前記合計値がない場合には、一の前記候補線を実在線として決定する制御を行う実在線決定制御機能(例えば図1に示す符号51に相当する機能など)を含むことができる。   Furthermore, the program is configured so that one parameter space unit corresponding to one candidate line is based on the total value of each candidate line calculated by the candidate line identification index calculation function. In the parameter value peripheral area around the coordinate value of the parameter combination, search for the presence or absence of coordinate values of another parameter combination corresponding to the other candidate line that exceeds the total value of the one candidate line. When there is no total value of the other candidate lines that exceeds the total value of the one candidate line in the parameter value peripheral region, control is performed to determine one candidate line as a real line. A line determination control function (for example, a function corresponding to reference numeral 51 shown in FIG. 1 or the like) can be included.

さらに、前記候補線描画制御機能は、前記パラメータ空間部に、前記画素に対応するパラメータ空間図形要素を各々の各前記画素について描画するパラメータ空間部描画機能と、各々の前記パラメータ空間図形要素が交差する交差部における交差回数と、前記交差部の周辺の交差部周辺領域の他の交差部の交差回数と、予め設定された交差回数閾値とに基づいて、前記画像内の候補線に対応する前記パラメータ空間部の前記パラメータの組み合わせの座標値の有力候補を選別する選別機能と、前記選別機能にて選別された前記有力候補の前記座標値の周辺の有力候補領域内の各座標値について、前記画像内に対応する候補線を描画する候補線描画機能と、を含む機能をコンピュータに実行させることができる。   Further, the candidate line drawing control function intersects the parameter space drawing element with a parameter space drawing function that draws a parameter space drawing element corresponding to the pixel for each pixel, and the parameter space drawing element. The intersection corresponding to the candidate line in the image based on the number of intersections in the intersection, the number of intersections in the other intersections around the intersection, and a preset intersection count threshold. A selection function for selecting potential candidates for coordinate values of the parameter combinations in the parameter space portion, and for each coordinate value in the potential candidate area around the coordinate values of the potential candidates selected by the selection function, And a candidate line drawing function for drawing a corresponding candidate line in the image.

また、前記プログラムでは、前記画像を縮小する処理を行う画像縮小処理機能と、前記画像縮小処理手段にて前記画像を第1の倍率で縮小した第1の縮小画像にて前記実在線を決定した後に、この決定された実在線を新たな新候補線とし、この新候補線の周辺の新候補線周辺領域について新たに探索を行い、前記第1の倍率より高い第2の倍率にて縮小した第2の縮小画像にて前記パラメータ空間を利用して新たに新実在線を決定し、前記縮小及び前記新実在線の決定を段階的に繰り返し行い、前記実在線の決定の調整制御を行う第1の調整制御機能と、をさらに有することができる。   In the program, the real line is determined by an image reduction processing function for reducing the image and a first reduced image obtained by reducing the image at a first magnification by the image reduction processing unit. Later, the determined actual line is used as a new new candidate line, and a new search is performed for the area around the new candidate line around the new candidate line, and reduced at a second magnification higher than the first magnification. A new real line is newly determined using the parameter space in the second reduced image, the reduction and the new real line are repeatedly determined in stages, and adjustment control for determining the real line is performed. 1 adjustment control function.

またさらに、前記プログラムでは、前記パラメータ空間部の各座標軸の離散化幅を調整する離散化幅調整機能と、前記離散化幅調整手段にて前記離散化幅を大きくした第1の離散化幅の前記パラメータ空間部を利用して前記実在線を決定した後に、この決定された実在線を新たな新候補線とし、この新候補線の周辺の新候補線周辺領域について新たに探索を行い、前記第1の離散化幅より小さい第2の離散化幅の前記パラメータ空間を利用して新たに新実在線を決定し、前記離散化幅の変更及び前記新実在線の決定を段階的に繰り返し行い、前記実在線の決定の調整制御を行う第2の調整制御機能と、をさらに有することができる。   Still further, in the program, a discretization width adjustment function for adjusting a discretization width of each coordinate axis of the parameter space portion and a first discretization width obtained by increasing the discretization width by the discretization width adjustment means. After determining the real line using the parameter space portion, the determined real line is set as a new new candidate line, and a new search is performed for a new candidate line peripheral region around the new candidate line, A new real line is newly determined using the parameter space having a second discretization width smaller than the first discretization width, and the change of the discretization width and the determination of the new real line are repeated stepwise. And a second adjustment control function for performing adjustment control for determining the real line.

さらに、前記プログラムでは、前記候補領域を抽出する前の前記画像の画素値に基づいて特定の画素値重みを算出する画素値重み算出機能をさらに有することができる。この場合、前記候補線識別指標算出機能では、前記画素値重みと前記傾き重みとに基づいて画素値重み付き傾き重みを前記通過画素毎に算出し、各々の前記候補線について前記画素値重み付き傾き重みの合計値を算出することができる。   Further, the program may further include a pixel value weight calculation function for calculating a specific pixel value weight based on a pixel value of the image before extracting the candidate area. In this case, the candidate line identification index calculation function calculates a pixel value weighted inclination weight for each passing pixel based on the pixel value weight and the inclination weight, and the pixel value weighted for each candidate line. The total value of the inclination weight can be calculated.

また、前記パラメータ空間部描画機能では、前記画素に対応する前記パラメータ空間図形要素を前記パラメータ空間部に描画する際に、前記画素に対応する前記画素値重みを、前記パラメータ空間図形要素と前記パラメータ空間部の座標が一致する要素の要素数に付与して描画することができる。この場合、前記選別機能では、各々の前記パラメータ空間図形要素が交差する交差部における前記画素値重みの合計数と、予め設定された画素値重み合計数閾値とに基づいて、前記パラメータ空間部の交差部及び前記交差部周辺領域のパラメータ空間の有力候補領域を選別することができる。   In the parameter space drawing function, when the parameter space graphic element corresponding to the pixel is drawn in the parameter space part, the pixel value weight corresponding to the pixel is set to the parameter space graphic element and the parameter. It is possible to draw by assigning to the number of elements having the same coordinate in the space portion. In this case, in the selection function, based on the total number of the pixel value weights at the intersection where each of the parameter space graphic elements intersects and a preset pixel value weight total number threshold value, Possible candidate areas in the parameter space of the intersection and the surrounding area of the intersection can be selected.

さらに、前記画素値重み算出機能では、前記画素値を対数変換することで画素値重みを算出することができる。この場合、前記候補線識別指標算出機能では、各々の前記候補線について前記画素値重み付き傾き重みの合計値を算出することができる。   Further, the pixel value weight calculation function can calculate a pixel value weight by logarithmically converting the pixel value. In this case, the candidate line identification index calculation function can calculate the total value of the gradient weights with the pixel value weights for each of the candidate lines.

また、前記プログラムでは、前記パラメータ空間部描画機能による前記パラメータ空間部への描画処理、及び前記候補線描画手段による前記画像内の選別された各々の前記候補線の描画処理を行う場合の第1の計算パターンによる第1の計算量と、前記画像内の各々の前記候補線の描画処理のみを行う場合の第2の計算パターンによる第2の計算量とに基づいて、計算量の少ない方の計算パターンを選択する制御を行う計算パターン選択制御機能をさらに有することができる。   Further, in the program, a first process in the case of performing drawing processing in the parameter space portion by the parameter space portion drawing function and drawing processing of each selected candidate line in the image by the candidate line drawing means. Based on the first calculation amount based on the calculation pattern and the second calculation amount based on the second calculation pattern when only drawing processing of each candidate line in the image is performed. A calculation pattern selection control function for performing control to select a calculation pattern can be further provided.

さらに、前記プログラムでは、前記線を抽出可能な候補領域を前記画像内から抽出する候補領域抽出機能をさらに有することができる。この場合、前記候補線描画制御機能では、前記候補領域内の各々の前記候補線を描画することができる。また、前記実在線決定制御機能では、前記候補領域内の各々の前記候補線の中から実在線を決定することができる。   Further, the program may further include a candidate area extracting function for extracting a candidate area from which the line can be extracted from the image. In this case, the candidate line drawing control function can draw each candidate line in the candidate area. In the real line determination control function, a real line can be determined from each of the candidate lines in the candidate area.

また、前記プログラムでは、前記候補領域を膨張及び収縮する処理のいずれか一方又は双方を特定回数行う膨張収縮処理機能をさらに有することができる。この場合、前記候補線描画制御機能では、前記膨張収縮処理機能にて処理された前記候補領域の画像をもとに、前記候補線を描画することができる。   The program may further include an expansion / contraction process function for performing one or both of the processes for expanding and contracting the candidate area a specific number of times. In this case, the candidate line drawing control function can draw the candidate line based on the image of the candidate area processed by the expansion / contraction process function.

さらに、前記プログラムでは、前記候補領域を抽出する前に、前記画像を平滑化処理する平滑化処理機能をさらに有することができる。この場合、前記候補線描画制御機能では、前記平滑化処理機能にて平滑化された前記候補領域の画像をもとに、前記候補線を描画
することができる。
Furthermore, the program can further have a smoothing processing function for smoothing the image before extracting the candidate region. In this case, the candidate line drawing control function can draw the candidate line based on the image of the candidate area smoothed by the smoothing processing function.

プログラムを供給する手法としては、電気通信回線(有線、無線を問わない)によってコンピュータと通信可能に接続された外部の機器から前記電気通信回線を通じて提供することも可能である。   As a method of supplying the program, it is also possible to provide the program from an external device that is communicably connected to the computer via an electric communication line (whether wired or wireless).

本発明のプログラムによれば、当該プログラムを格納するROM等の記憶媒体から、当該プログラムをコンピュータ(CPU)に読み込んで実行させれば、或いは、当該制御プログラムを、通信手段を介してコンピュータにダウンロードさせた後に実行させれば、上述した本発明に係る装置を比較的簡単に実現できる。発明の思想の具現化例として装置のソフトウェアとなる場合には、かかるソフトウェアを記憶した記憶媒体上においても当然に存在し、利用される。   According to the program of the present invention, if the program is read into a computer (CPU) from a storage medium such as a ROM storing the program and executed, or the control program is downloaded to the computer via communication means. If it is executed after the above, the apparatus according to the present invention described above can be realized relatively easily. When the software of the apparatus is embodied as an embodiment of the idea of the invention, it naturally exists and is used on a storage medium storing such software.

また、プログラムは、一次複製品、二次複製品などの複製段階については全く問う余地無く同等である。プログラムの供給方法として通信回線を利用して行なう場合であれば通信回線が伝送媒体となって本発明が利用されることになる。
Moreover, the program is the same without any question about the copying stage of the primary copy product, the secondary copy product, etc. If the program is supplied using a communication line, the communication line becomes a transmission medium and the present invention is used.

また、上述のプログラムを、情報記録媒体に記録した構成であってもよい。   Moreover, the structure which recorded the above-mentioned program on the information recording medium may be sufficient.

また、前記実施の形態では、クライアントサーバーシステムや、端末同士がネットワークを組み、相互にデータを送受信するピアツーピア(Peer
To Peer)通信によるシステムとして構成してもよい。
In the above-described embodiment, the client server system or peer-to-peer (Peer) in which terminals form a network and exchange data with each other.
You may comprise as a system by To Peer) communication.

さらに、上述のプログラムなどが搭載される画像処理装置としては、例えばパーソナルコンピュータに限らず、各種サーバー、EWS(エンジニアリングワークステーション)、中型コンピュータ、メインフレーム、携帯型情報端末、各種モバイル端末、PDA、携帯電話機、ウエアラブル情報端末、種々の(携帯型などの)テレビ・DVDレコーダ・各種音響機器、各種情報通信機能を搭載した家電機器、ネットワーク機能を有するゲーム機器等からも利用できる構成としても構わない。あるいは、これらの装置に表示されるアプリケーションとして改良されたものも本発明の範囲に含めることができる。   Further, the image processing apparatus on which the above-described program is mounted is not limited to a personal computer, for example, but various servers, EWS (engineering workstation), medium-sized computer, mainframe, portable information terminal, various mobile terminals, PDA, It may be configured to be usable from a mobile phone, a wearable information terminal, various TVs / DVD recorders / various audio devices (such as portable), home appliances equipped with various information communication functions, game devices having network functions, and the like. . Or what was improved as an application displayed on these apparatuses can also be included in the scope of the present invention.

また、前記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。   The program may be a program for realizing a part of the above-described functions. Further, a program that can realize the above-described functions in combination with a program already recorded in a computer system, a so-called difference file ( Difference program).

さらに、本明細書において、フローチャートに示されるステップは、記載された手順に従って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理を含むものである。また、実装では、プログラム手順(ステップ)が実行される順序を変更することができる。さらに、実装の必要に応じて、本明細書で説明した特定の手順(ステップ)を、組み合わされた手順(ステップ)として実装、除去、追加、または再配置することができる。   Further, in the present specification, the steps shown in the flowchart include processes that are executed in parallel or individually even if they are not necessarily processed in time series, as well as processes that are executed in time series according to the described procedure. It is a waste. In the implementation, the order in which the program procedures (steps) are executed can be changed. Further, certain procedures (steps) described herein can be implemented, removed, added, or rearranged as a combined procedure (step) as needed for implementation.

さらに、装置の各手段、各機能、各ステップの手順の機能などのプログラムの機能を、専用のハードウエア(例えば専用の半導体回路等)によりその機能を達成してもよく、プログラムの全機能のうち一部の機能をハードウエアで処理し、全機能のうちさらに他の機能をソフトウエアで処理するようにしてもよい。専用のハードウエアの場合、各部を集積回路例えばLSIにて形成されてもよい。これらは個別に1チップ化されても良いし、一部または全部を含むように1チップ化されても良い。また、LSIには、ストリーミングエンジンなど他の機能ブロックが含まれていても良い。また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセサで実現してもよい。さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。   Furthermore, the functions of the program such as each means of the apparatus, each function, and the procedure function of each step may be achieved by dedicated hardware (for example, a dedicated semiconductor circuit). Some of these functions may be processed by hardware, and other functions among all functions may be processed by software. In the case of dedicated hardware, each unit may be formed by an integrated circuit such as an LSI. These may be individually made into one chip, or may be made into one chip so as to include a part or all of them. Further, the LSI may include other functional blocks such as a streaming engine. Further, the method of circuit integration is not limited to LSI, and implementation with a dedicated circuit or a general-purpose processor is also possible. Further, if integrated circuit technology comes out to replace LSI's as a result of the advancement of semiconductor technology or a derivative other technology, it is naturally also possible to carry out function block integration using this technology.

また、画像処理装置と出力装置との間の通信構造、画像処理装置と入力装置との間の通信構造、画像処理装置と記憶装置との間の通信構造に際し、いずれか一方又は双方に形成されるインタフェースの種類は、例えばパラレルインタフェース、USBインタフェース、IEEE1394、LANやWAN等のネットワークやその他これに類するもの、もしくは今後開発される如何なるインタフェースであっても構わない。   In addition, the communication structure between the image processing apparatus and the output apparatus, the communication structure between the image processing apparatus and the input apparatus, and the communication structure between the image processing apparatus and the storage device are formed in one or both of them. The interface type may be, for example, a parallel interface, USB interface, IEEE 1394, a network such as a LAN or WAN, or the like, or any interface that will be developed in the future.

さらに、ハフ変換及び逆ハフ変換、又は逆ハフ変換を利用して、画像内から線を抽出する処理を行う際に、前記逆ハフ変換後に、候補線の周辺領域の通過画素について、画像内の候補線を構成する画素における接線の傾きに基づいて、前記候補線の各画素のユークリッド距離を求め、前記周辺領域内の前記候補線のうち前記ユークリッド距離が最大のものを実在線と決定する制御を行う手法は、必ずしも実体のある装置に限られる必要はなく、その方法としても機能することは容易に理解できる。このため、方法にかかる発明も、必ずしも実体のある装置に限らず、その方法としても有効であることに相違はない。この場合、方法を実現するための一例として 装置、 装置なども含めることができる。   Furthermore, when performing a process of extracting a line from the image using the Hough transform and the inverse Hough transform, or the inverse Hough transform, after the inverse Hough transform, the passing pixels in the peripheral area of the candidate line Control for determining the Euclidean distance of each pixel of the candidate line based on the inclination of the tangent line in the pixels constituting the candidate line, and determining the candidate line having the maximum Euclidean distance among the candidate lines as the actual line It is not necessarily limited to a substantial apparatus, and it can be easily understood that this technique also functions as a method. For this reason, the invention relating to the method is not necessarily limited to a substantial apparatus, and there is no difference that the method is also effective. In this case, a device, a device, or the like can be included as an example for realizing the method.

ところで、このような装置は、単独で存在する場合もあるし、ある機器(例えばプロセッサ)に組み込まれた状態で利用されることもあるなど、発明の思想としてはこれに限らず、各種の態様を含むものである。従って、ソフトウェアであったりハードウェアであったりするなど、適宜、変更可能である。発明の思想の具現化例として装置のソフトウェアとなる場合には、かかるソフトウェアを記憶した記憶媒体上においても当然に存在し、利用されるといわざるをえない。   By the way, such an apparatus may exist independently, or may be used in a state where it is incorporated in a certain device (for example, a processor). Is included. Therefore, it can be changed as appropriate, such as software or hardware. When the software of the apparatus is embodied as an embodiment of the idea of the invention, it naturally exists on the storage medium storing the software and is used.

さらに、一部がソフトウェアであって、一部がハードウェアで実現されている場合であってもよく、一部を記憶媒体上に記憶しておいて必要に応じて適宜読み込まれるような形態のものとしてあってもよい。   Furthermore, it may be a case where a part is software and a part is realized by hardware, and a part is stored on a storage medium and is read as needed. It may be as a thing.

また、発明の範囲は、図示例に限定されないものとする。さらに、上述の各実施の形態同士、あるいはそれらのいずれかと各変形例のいずれかとの組み合わせによる例をも含む。また、実施の形態に示される全構成要件から幾つかの構成要件が削除された構成による実施の形態並びにその構成に基づく技術的範囲も発明になりうる。そして、これまでの記述は具体化の例を示したものに過ぎず、例証するものであり、制限するものではなく、適宜変形及び/又は変更が可能である。   The scope of the invention is not limited to the illustrated example. Furthermore, examples include combinations of the above-described embodiments, or any of them and any of the modifications. In addition, an embodiment based on a configuration in which some of the configuration requirements are deleted from all the configuration requirements shown in the embodiment, and a technical scope based on the configuration may be an invention. The above description is merely an example of the embodiment, is illustrative, not limiting, and can be modified and / or changed as appropriate.

本発明は、画像上の線図形を認識可能な画像処理装置全般に適用可能である。   The present invention can be applied to all image processing apparatuses capable of recognizing line figures on an image.

本発明の第1の実施の形態による画像処理システムの全体構成の一例を示すブロック図である。1 is a block diagram showing an example of the overall configuration of an image processing system according to a first embodiment of the present invention. 図1の画像処理システムにおける画像処理装置にて処理される内容を説明するための説明図である。It is explanatory drawing for demonstrating the content processed with the image processing apparatus in the image processing system of FIG. 図1の画像処理システムにおける画像処理装置にて処理される内容を説明するための説明図である。It is explanatory drawing for demonstrating the content processed with the image processing apparatus in the image processing system of FIG. 図1の画像処理システムにおける画像処理装置にて処理される内容を説明するための説明図である。It is explanatory drawing for demonstrating the content processed with the image processing apparatus in the image processing system of FIG. 図1の画像処理システムにおける画像処理装置にて処理される内容を説明するための説明図である。It is explanatory drawing for demonstrating the content processed with the image processing apparatus in the image processing system of FIG. 図1の画像処理システムにおける画像処理装置にて処理される内容を説明するための説明図である。It is explanatory drawing for demonstrating the content processed with the image processing apparatus in the image processing system of FIG. 図1の画像処理システムにおける画像処理装置にて処理される内容を説明するための説明図である。It is explanatory drawing for demonstrating the content processed with the image processing apparatus in the image processing system of FIG. 図1の画像処理システムにおける画像処理装置にて処理される内容を説明するための説明図である。It is explanatory drawing for demonstrating the content processed with the image processing apparatus in the image processing system of FIG. 本発明の第1の実施の形態による画像処理システムにおける画像処理装置の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence of the image processing apparatus in the image processing system by the 1st Embodiment of this invention. 本発明の第2の実施の形態による画像処理システムの全体構成の一例を示すブロック図である。It is a block diagram which shows an example of the whole structure of the image processing system by the 2nd Embodiment of this invention. 図10の画像処理システムにおける画像処理装置にて処理される内容を説明するための説明図である。It is explanatory drawing for demonstrating the content processed with the image processing apparatus in the image processing system of FIG. 図10の画像処理システムにおける画像処理装置にて処理される内容を説明するための説明図である。It is explanatory drawing for demonstrating the content processed with the image processing apparatus in the image processing system of FIG. 本発明の第2の実施の形態による画像処理システムにおける画像処理装置の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence of the image processing apparatus in the image processing system by the 2nd Embodiment of this invention. 本発明の第3の実施の形態による画像処理システムの全体構成の一例を示すブロック図である。It is a block diagram which shows an example of the whole structure of the image processing system by the 3rd Embodiment of this invention. 本発明の第3の実施の形態による画像処理システムにおける第1の画像処理装置の詳細構成の一例を示すブロック図である。It is a block diagram which shows an example of a detailed structure of the 1st image processing apparatus in the image processing system by the 3rd Embodiment of this invention. 本発明の第3の実施の形態による画像処理システムにおける第2の画像処理装置の詳細構成の一例を示すブロック図である。It is a block diagram which shows an example of a detailed structure of the 2nd image processing apparatus in the image processing system by the 3rd Embodiment of this invention. 本発明の第3の実施の形態による画像処理システムにおける切替制御装置の詳細構成の一例を示すブロック図である。It is a block diagram which shows an example of a detailed structure of the switching control apparatus in the image processing system by the 3rd Embodiment of this invention. 本発明の第3の実施の形態による画像処理システムにおける切替制御装置の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence of the switching control apparatus in the image processing system by the 3rd Embodiment of this invention. 本発明の第4の実施の形態による画像処理システムにおける画像処理装置の詳細構成の一例を示すブロック図である。It is a block diagram which shows an example of a detailed structure of the image processing apparatus in the image processing system by the 4th Embodiment of this invention. 本発明の第4の実施の形態による画像処理システムにおける画像処理装置の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence of the image processing apparatus in the image processing system by the 4th Embodiment of this invention. 本発明の第5の実施の形態による画像処理システムにおける画像処理装置の詳細構成の一例を示すブロック図である。It is a block diagram which shows an example of a detailed structure of the image processing apparatus in the image processing system by the 5th Embodiment of this invention. 本発明の第5の実施の形態による画像処理システムにおける画像処理装置の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence of the image processing apparatus in the image processing system by the 5th Embodiment of this invention. 本発明の第6の実施の形態による画像処理システムにおける画像処理装置の詳細構成の一例を示すブロック図である。It is a block diagram which shows an example of a detailed structure of the image processing apparatus in the image processing system by the 6th Embodiment of this invention. 本発明の第6の実施の形態による画像処理システムにおける画像処理装置の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence of the image processing apparatus in the image processing system by the 6th Embodiment of this invention. 本発明の第6の実施の形態の変形例による画像処理システムにおける画像処理装置の詳細構成の一例を示すブロック図である。It is a block diagram which shows an example of a detailed structure of the image processing apparatus in the image processing system by the modification of the 6th Embodiment of this invention. 本発明の第6の実施の形態の変形例による画像処理システムにおける画像処理装置の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence of the image processing apparatus in the image processing system by the modification of the 6th Embodiment of this invention. 本発明の第7の実施の形態による画像処理システムにおける画像処理装置の詳細構成の一例を示すブロック図である。It is a block diagram which shows an example of a detailed structure of the image processing apparatus in the image processing system by the 7th Embodiment of this invention. 本発明の第7の実施の形態による画像処理システムにおける画像処理装置の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence of the image processing apparatus in the image processing system by the 7th Embodiment of this invention. 本発明の第7の実施の形態の変形例による画像処理システムにおける画像処理装置の詳細構成の一例を示すブロック図である。It is a block diagram which shows an example of a detailed structure of the image processing apparatus in the image processing system by the modification of the 7th Embodiment of this invention. 本発明の第7の実施の形態の変形例による画像処理システムにおける画像処理装置の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence of the image processing apparatus in the image processing system by the modification of the 7th Embodiment of this invention. 本発明の第8の実施の形態による画像処理システムにおける画像処理装置の詳細構成の一例を示すブロック図である。It is a block diagram which shows an example of a detailed structure of the image processing apparatus in the image processing system by the 8th Embodiment of this invention. 本発明の第8の実施の形態による画像処理システムにおける画像処理装置の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence of the image processing apparatus in the image processing system by the 8th Embodiment of this invention. 本発明の第8の実施の形態の変形例による画像処理システムにおける画像処理装置の詳細構成の一例を示すブロック図である。It is a block diagram which shows an example of a detailed structure of the image processing apparatus in the image processing system by the modification of the 8th Embodiment of this invention. 本発明の第8の実施の形態の変形例による画像処理システムにおける画像処理装置の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence of the image processing apparatus in the image processing system by the modification of the 8th Embodiment of this invention. 本発明の第8の実施の形態の他の変形例による画像処理システムにおける切替制御装置の詳細構成の一例を示すブロック図である。It is a block diagram which shows an example of the detailed structure of the switching control apparatus in the image processing system by the other modification of the 8th Embodiment of this invention. 本発明の第8の実施の形態の他の変形例による画像処理システムにおける切替制御装置の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence of the switching control apparatus in the image processing system by the other modification of the 8th Embodiment of this invention. 直交座標系のx−y平面にて3点が検出された例であって、ハフ変換における極座標系のρ−θ平面にて前記3点に対応する各パラメータ線が異なる座標で交差する例におけるx−y平面を示す説明図である。In an example in which three points are detected on the xy plane of the orthogonal coordinate system, and the parameter lines corresponding to the three points intersect at different coordinates on the ρ-θ plane of the polar coordinate system in the Hough transform. It is explanatory drawing which shows a xy plane. 直交座標系のx−y平面にて3点が検出された例であって、ハフ変換における極座標系のρ−θ平面にて前記3点に対応する各パラメータ線が異なる座標で交差する例におけるρ−θ平面を示す説明図である。In an example in which three points are detected on the xy plane of the orthogonal coordinate system, and the parameter lines corresponding to the three points intersect at different coordinates on the ρ-θ plane of the polar coordinate system in the Hough transform. It is explanatory drawing which shows (rho) -theta plane. 直交座標系のx−y平面にて3点が検出された例であって、ハフ変換における極座標系のρ−θ平面にて前記3点に対応する各パラメータ線が同一の座標で交差する例におけるx−y平面を示す説明図である。An example in which three points are detected on the xy plane of the orthogonal coordinate system, and the parameter lines corresponding to the three points intersect at the same coordinates on the ρ-θ plane of the polar coordinate system in the Hough transform It is explanatory drawing which shows xy plane in. 直交座標系のx−y平面にて3点が検出された例であって、ハフ変換における極座標系のρ−θ平面にて前記3点に対応する各パラメータ線が同一の座標で交差する例におけるρ−θ平面を示す説明図である。An example in which three points are detected on the xy plane of the orthogonal coordinate system, and the parameter lines corresponding to the three points intersect at the same coordinates on the ρ-θ plane of the polar coordinate system in the Hough transform It is explanatory drawing which shows (rho) -theta plane. 画素単位の線の長さが傾きによって異なる例を示した説明図である。It is explanatory drawing which showed the example from which the length of the line of a pixel unit changes with inclination. 関連技術の画像処理装置にて処理される内容を説明するための説明図である。It is explanatory drawing for demonstrating the content processed with the image processing apparatus of related technology. 関連技術の画像処理装置にて輪郭線が抽出される場合の例を示す説明図である。It is explanatory drawing which shows the example in case a contour line is extracted in the image processing apparatus of related technology.

符号の説明Explanation of symbols

1、100、200 画像処理システム
10 入力装置
11 画像入力部
12 文字入力部
20 記憶装置
21 閾値記憶部
22 パラメータ空間記憶部
23 画像記憶部
30 出力装置
31 画像出力部
32 表示制御部
40 画像処理装置
40a 候補線描画制御手段
40b パラメータ空間部描画手段
40c 選別手段
40d 候補線識別指標算出手段
41 2値化処理部
42 パラメータ算出部
43 パラメータ線描画部
44 交差点検出部
45 重なり回数計量部
46 有力候補線描画部
47 通過判定部(候補線周辺領域決定手段)
48 重み算出部
49 個数計量部
51 実在線判定部(実在線決定制御手段)
52 実在線画像生成部
53 モジュール制御部
142 全候補線描画部(候補線描画制御手段)
240 第1の画像処理装置
260 第2の画像処理装置
270 切替制御装置
270a 第1の計算量推定手段
270b 第2の計算量推定手段
271 2値化処理部
272 パラメータ算出計算量推定部
273 パラメータ線描画計算量推定部
274 交差点検出計算量推定部
275 重なり回数計量計算量推定部
276 有力候補線描画計算量推定部
277 通過判定計算量推定部
278 重み算出計算量推定部
279 個数計量計算量推定部
281 実在線判定計算量推定部
282 全候補線描画計算量推定部
283 全通過判定計算量推定部
284 全重み算出計算量推定部
285 全個数計量計算量推定部
286 実在線判定計算量推定部
287 手法選択部(計算パターン選択手段)
341 平滑化処理部
442 膨張収縮処理部
541 画像縮小処理部
554 パラメータ微調整制御部
643 全候補線有力候補線描画部
742 パラメータ空間粗視化処理部
943 画素値重み付きパラメータ線描画部
945 画素値重み付き重なり回数計量部
948、1044 画素値重み付き重み算出部
1173 画素値重み付きパラメータ線描画計算量推定部
1175 画素値重み付き重なり回数計量計算量推定部
1178 画素値重み付き重み算出計算量推定部
1184 全画素値重み付き重み算出計算量推定部


1, 100, 200 Image processing system 10 Input device
11 Image Input Unit 12 Character Input Unit 20 Storage Device 21 Threshold Storage Unit
22 Parameter space storage unit 23 Image storage unit
30 Output Device 31 Image Output Unit
32 Display control unit 40 Image processing device 40a Candidate line drawing control means 40b Parameter space drawing means 40c Sorting means
40d Candidate line identification index calculation means 41 Binarization processing unit 42 Parameter calculation unit
43 parameter line drawing unit 44 intersection detection unit 45 overlap count measurement unit 46 leading candidate line drawing unit 47 passage determination unit (candidate line surrounding area determining means)
48 Weight calculation unit 49 Number measurement unit 51 Real line determination unit (real line determination control means)
52 Real line image generator
53 Module Control Unit 142 All Candidate Line Drawing Unit (Candidate Line Drawing Control Unit)
240 first image processing device 260 second image processing device 270 switching control device 270a first calculation amount estimation unit 270b second calculation amount estimation unit 271 binarization processing unit 272 parameter calculation calculation amount estimation unit
273 Parameter line drawing calculation amount estimation unit 274 Intersection detection calculation amount estimation unit 275 Overlap count calculation amount calculation unit 276 Possible candidate line drawing calculation amount estimation unit 277 Passage determination calculation amount estimation unit 278 Weight calculation calculation amount estimation unit 279 Number measurement calculation Quantity estimation unit 281 Real line determination calculation amount estimation unit 282 All candidate line drawing calculation amount estimation unit 283 All passage determination calculation amount estimation unit
284 Total weight calculation calculation amount estimation unit
285 Total number weighing calculation amount estimation unit 286 Real line determination calculation amount estimation unit
287 Method selection unit (calculation pattern selection means)
341 Smoothing processing unit 442 Expansion / contraction processing unit 541 Image reduction processing unit 554 Parameter fine adjustment control unit 643 All candidate line leading candidate line drawing unit 742 Parameter space coarse-graining processing unit 943 Pixel value weighted parameter line drawing unit 945 Pixel value Weighted overlap number metric unit 948, 1044 Pixel value weighted weight calculation unit 1173 Pixel value weighted parameter line drawing calculation amount estimation unit 1175 Pixel value weighted overlap number metric calculation amount estimation unit 1178 Pixel value weighted weight calculation calculation amount estimation 1184 All pixel value weighted weight calculation calculation amount estimation unit


Claims (22)

画像内の画素を通り得る線を特定のパラメータを含む方程式で表し、この方程式の前記パラメータを座標軸とするパラメータ空間部を利用して前記画像内から線を抽出する処理を行う画像処理装置であって、
前記パラメータ空間部の前記パラメータの組み合わせがとる座標値に基づいて、前記座標値に対応する前記画像内の各候補線を描画する制御を行う候補線描画制御手段と、
前記候補線及び該候補線の周辺の候補線周辺領域が通過する通過画素を、各々の前記候補線について決定する候補線周辺領域決定手段と、
前記候補線を識別する指標であって前記候補線の接線の傾きを示す傾き重みを前記通過画素毎に算出し、各々の前記候補線について前記傾き重みの合計値を算出する候補線識別指標算出手段と、
前記候補線識別指標算出手段にて算出された各々の前記候補線の各々の前記合計値に基づいて、一の前記候補線に対応する前記パラメータ空間部での一の前記パラメータの組み合わせの座標値の周辺のパラメータ値周辺領域内に、一の前記候補線の前記合計値を上回る他の前記候補線に対応する他の前記パラメータの組み合わせの座標値の有無を探索し、前記パラメータ値周辺領域内にて一の前記候補線の前記合計値を上回る他の前記候補線の前記合計値がない場合には、一の前記候補線を実在線として決定する制御を行う実在線決定制御手段と、
を含むことを特徴とする画像処理装置。
An image processing apparatus that represents a line that can pass through pixels in an image by an equation including a specific parameter, and that performs a process of extracting a line from the image using a parameter space portion having the parameter of the equation as a coordinate axis. And
Candidate line drawing control means for performing control for drawing each candidate line in the image corresponding to the coordinate value based on the coordinate value taken by the combination of the parameters in the parameter space portion;
Candidate line peripheral region determining means for determining, for each of the candidate lines, a passing pixel through which the candidate line and a candidate line peripheral region around the candidate line pass;
Candidate line identification index calculation for calculating an inclination weight indicating an inclination of a tangent line of the candidate line for each passing pixel and calculating a total value of the inclination weights for each of the candidate lines. Means,
Based on the total value of each of the candidate lines calculated by the candidate line identification index calculating means, the coordinate value of one parameter combination in the parameter space corresponding to one candidate line Search for the presence or absence of coordinate values of other parameter combinations corresponding to the other candidate lines that exceed the total value of the one candidate line in the parameter value peripheral area around In the case where the total value of the other candidate lines exceeding the total value of the one candidate line is not present, real line determination control means for performing control for determining the one candidate line as a real line;
An image processing apparatus comprising:
請求項1に記載の画像処理装置において、
前記候補線描画制御手段は、
前記パラメータ空間部に、前記画素に対応するパラメータ空間図形要素を各々の各前記画素について描画するパラメータ空間部描画手段と、
各々の前記パラメータ空間図形要素が交差する交差部における交差回数と、前記交差部の周辺の交差部周辺領域の他の交差部の交差回数と、予め設定された交差回数閾値とに基づいて、前記画像内の候補線に対応する前記パラメータ空間部の前記パラメータの組み合わせの座標値の有力候補を選別する選別手段と、
前記選別手段にて選別された前記有力候補の前記座標値の周辺の有力候補領域内の各座標値について、前記画像内に対応する候補線を描画する候補線描画手段と、
を含むことを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The candidate line drawing control means includes:
A parameter space drawing means for drawing a parameter space graphic element corresponding to the pixel for each of the pixels in the parameter space;
Based on the number of intersections at the intersection where each of the parameter space graphic elements intersects, the number of intersections of other intersections around the intersection, and the preset number of intersection thresholds, Screening means for selecting potential candidates for coordinate values of the parameter combinations in the parameter space corresponding to candidate lines in the image;
Candidate line drawing means for drawing a candidate line corresponding to within the image for each coordinate value in the potential candidate area around the coordinate value of the potential candidate selected by the selection means;
An image processing apparatus comprising:
請求項2に記載の画像処理装置において、
前記画像を縮小する処理を行う画像縮小処理手段と、
前記画像縮小処理手段にて前記画像を第1の倍率で縮小した第1の縮小画像にて前記実在線を決定した後に、この決定された実在線を新たな新候補線とし、この新候補線の周辺の新候補線周辺領域について新たに探索を行い、前記第1の倍率より高い第2の倍率にて縮小した第2の縮小画像にて前記パラメータ空間を利用して新たに新実在線を決定し、前記縮小及び前記新実在線の決定を段階的に繰り返し行い、前記実在線の決定の調整制御を行う第1の調整制御手段と、
をさらに有することを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
Image reduction processing means for performing processing for reducing the image;
After the real line is determined by the first reduced image obtained by reducing the image at the first magnification by the image reduction processing means, the determined real line is set as a new new candidate line, and the new candidate line is determined. A new search is performed for the area around the new candidate line around the area, and a new real line is newly generated using the parameter space in the second reduced image reduced at the second magnification higher than the first magnification. A first adjustment control unit that performs determination, repeatedly performs the reduction and the determination of the new real line in a stepwise manner, and performs adjustment control of the determination of the real line;
An image processing apparatus further comprising:
請求項3に記載の画像処理装置において、
前記パラメータ空間部の各座標軸の離散化幅を調整する離散化幅調整手段と、
前記離散化幅調整手段にて前記離散化幅を大きくした第1の離散化幅の前記パラメータ空間部を利用して前記実在線を決定した後に、この決定された実在線を新たな新候補線とし、この新候補線の周辺の新候補線周辺領域について新たに探索を行い、前記第1の離散化幅より小さい第2の離散化幅の前記パラメータ空間を利用して新たに新実在線を決定し、前記離散化幅の変更及び前記新実在線の決定を段階的に繰り返し行い、前記実在線の決定の調整制御を行う第2の調整制御手段と、
をさらに有することを特徴とする画像処理装置。
The image processing apparatus according to claim 3.
A discretization width adjusting means for adjusting a discretization width of each coordinate axis of the parameter space portion;
After the actual line is determined using the parameter space portion having the first discretization width in which the discretization width is increased by the discretization width adjusting unit, the determined real line is used as a new new candidate line. A new search is performed for the area around the new candidate line around the new candidate line, and a new real line is newly generated using the parameter space having a second discretization width smaller than the first discretization width. Determining, changing the discretization width and determining the new real line in a stepwise manner, second adjustment control means for performing adjustment control of the determination of the real line;
An image processing apparatus further comprising:
請求項4に記載の画像処理装置において、
前記候補領域を抽出する前の前記画像の画素値に基づいて特定の画素値重みを算出する画素値重み算出手段をさらに有し、
前記候補線識別指標算出手段は、
前記画素値重みと前記傾き重みとに基づいて画素値重み付き傾き重みを前記通過画素毎に算出し、各々の前記候補線について前記画素値重み付き傾き重みの合計値を算出するものであることを特徴とする画像処理装置。
The image processing apparatus according to claim 4.
Pixel value weight calculating means for calculating a specific pixel value weight based on the pixel value of the image before extracting the candidate area;
The candidate line identification index calculating means includes:
A pixel value weighted gradient weight is calculated for each passing pixel based on the pixel value weight and the gradient weight, and a total value of the pixel value weighted gradient weights is calculated for each candidate line. An image processing apparatus.
請求項5に記載の画像処理装置において、
前記パラメータ空間部描画手段は、
前記画素に対応する前記パラメータ空間図形要素を前記パラメータ空間部に描画する際に、前記画素に対応する前記画素値重みを、前記パラメータ空間図形要素と前記パラメータ空間部の座標が一致する要素の要素数に付与して描画し、
前記選別手段は、
各々の前記パラメータ空間図形要素が交差する交差部における前記画素値重みの合計数と、予め設定された画素値重み合計数閾値とに基づいて、前記パラメータ空間部の交差部及び前記交差部周辺領域のパラメータ空間の有力候補領域を選別することを特徴とする画像処理装置。
The image processing apparatus according to claim 5.
The parameter space drawing means is
When drawing the parameter space graphic element corresponding to the pixel in the parameter space part, the pixel value weight corresponding to the pixel is the element of the element whose coordinates of the parameter space graphic element and the parameter space part match Give it to a number and draw
The selecting means includes
Based on the total number of the pixel value weights at the intersection where each of the parameter space graphic elements intersects and a preset pixel value weight total number threshold value, the intersection of the parameter space part and the surrounding area of the intersection An image processing apparatus characterized by selecting a promising candidate area in the parameter space.
請求項6に記載の画像処理装置において、
前記画素値重み算出手段は、
前記画素値を関数変換することで画素値重みを算出するものであり、
前記候補線識別指標算出手段は、
各々の前記候補線について前記画素値重み付き傾き重みの合計値を算出するものであることを特徴とする画像処理装置。
The image processing apparatus according to claim 6.
The pixel value weight calculation means includes:
A pixel value weight is calculated by functionally converting the pixel value;
The candidate line identification index calculating means includes:
An image processing apparatus that calculates a total value of the inclination weights with pixel value weights for each of the candidate lines.
請求項7に記載の画像処理装置において、
前記パラメータ空間部描画手段による前記パラメータ空間部への描画処理、及び前記候補線描画手段による前記画像内の選別された各々の前記候補線の描画処理を行う場合の第1の計算パターンによる第1の計算量と、前記画像内の各々の前記候補線の描画処理のみを行う場合の第2の計算パターンによる第2の計算量とに基づいて、計算量の少ない方の計算パターンを選択する制御を行う計算パターン選択制御手段をさらに有することを特徴とする画像処理装置。
The image processing apparatus according to claim 7.
A first calculation pattern according to a first calculation pattern when performing drawing processing on the parameter space portion by the parameter space portion drawing means and drawing processing of each selected candidate line in the image by the candidate line drawing means. Of selecting the calculation pattern with the smaller calculation amount based on the calculation amount of the second calculation amount and the second calculation amount based on the second calculation pattern when only the drawing processing of each candidate line in the image is performed An image processing apparatus further comprising calculation pattern selection control means for performing the above.
請求項8に記載の画像処理装置において、
前記線を抽出可能な候補領域を前記画像内から抽出する候補領域抽出手段をさらに有し、
前記候補線描画制御手段は、前記候補領域内の各々の前記候補線を描画し、
前記実在線決定制御手段は、前記候補領域内の各々の前記候補線の中から実在線を決定することを特徴とする画像処理装置。
The image processing apparatus according to claim 8.
Candidate area extraction means for extracting candidate areas from which the line can be extracted from the image,
The candidate line drawing control means draws each candidate line in the candidate area,
The real line determination control means determines a real line from each of the candidate lines in the candidate area.
請求項9に記載の画像処理装置において、
前記候補領域を膨張及び収縮する処理のいずれか一方又は双方を特定回数行う膨張収縮処理手段をさらに有し、
前記候補線描画制御手段は、
前記膨張収縮処理手段にて処理された前記候補領域の画像をもとに、前記候補線を描画
することを特徴とする画像処理装置。
The image processing apparatus according to claim 9.
Expansion and contraction processing means for performing a specific number of times one or both of the processes for expanding and contracting the candidate region,
The candidate line drawing control means includes:
An image processing apparatus, wherein the candidate line is drawn based on the image of the candidate area processed by the expansion / contraction processing means.
請求項10に記載の画像処理装置において、
前記候補領域を抽出する前に、前記画像を平滑化処理する平滑化処理手段をさらに有し、
前記候補線描画制御手段は、
前記平滑化処理手段にて平滑化された前記候補領域の画像をもとに、前記候補線を描画
することを特徴とする画像処理装置。
The image processing apparatus according to claim 10.
Before extracting the candidate area, further comprising a smoothing processing means for smoothing the image;
The candidate line drawing control means includes:
An image processing apparatus, wherein the candidate line is drawn based on the image of the candidate area smoothed by the smoothing processing means.
入力された画像内から第1の処理にて線を抽出する第1の画像処理装置と、
前記画像内から第1の処理と異なる第2の処理にて線を抽出する第2の画像処理装置と、
前記第1の画像処理装置と前記第2の画像処理装置とを切替制御する切替制御装置と、
前記切替制御装置にて切替制御された前記第1及び第2の画像処理装置のうちいずれか一方又は双方の画像処理結果を出力する出力装置と、
を含み、
前記第2の画像処理装置は、
画像内の画素を通り得る線を特定のパラメータを含む方程式で表し、この方程式の前記パラメータを座標軸とするパラメータ空間部の前記パラメータの組み合わせがとる座標値に基づいて、前記座標値に対応する前記画像内の各候補線を描画する制御を行う候補線描画制御手段と、
前記候補線及び該候補線の周辺の候補線周辺領域が通過する通過画素を、各々の前記候補線について決定する候補線周辺領域決定手段と、
前記候補線を識別する指標であって前記候補線の接線の傾きを示す傾き重みを前記通過画素毎に算出し、各々の前記候補線について前記傾き重みの合計値を算出する候補線識別指標算出手段と、
前記候補線識別指標算出手段にて算出された各々の前記候補線の各々の前記合計値に基づいて、一の前記候補線に対応する前記パラメータ空間部での一の前記パラメータの組み合わせの座標値の周辺のパラメータ値周辺領域内に、一の前記候補線の前記合計値を上回る他の前記候補線に対応する他の前記パラメータの組み合わせの座標値の有無を探索し、前記パラメータ値周辺領域内にて一の前記候補線の前記合計値を上回る他の前記候補線の前記合計値がない場合には、一の前記候補線を実在線として決定する制御を行う実在線決定制御手段と、
を含むことを特徴とする画像処理システム。
A first image processing apparatus for extracting lines from the input image by a first process;
A second image processing device for extracting lines from the image by a second process different from the first process;
A switching control device that performs switching control between the first image processing device and the second image processing device;
An output device that outputs an image processing result of one or both of the first and second image processing devices that are switch-controlled by the switching control device;
Including
The second image processing apparatus includes:
A line that passes through a pixel in the image is represented by an equation including a specific parameter, and the coordinate corresponding to the coordinate value is based on a coordinate value taken by a combination of the parameters in the parameter space portion with the parameter of the equation as a coordinate axis. Candidate line drawing control means for performing control for drawing each candidate line in the image;
Candidate line peripheral region determining means for determining, for each of the candidate lines, a passing pixel through which the candidate line and a candidate line peripheral region around the candidate line pass;
Candidate line identification index calculation for calculating an inclination weight indicating an inclination of a tangent line of the candidate line for each passing pixel and calculating a total value of the inclination weights for each of the candidate lines. Means,
Based on the total value of each of the candidate lines calculated by the candidate line identification index calculating means, the coordinate value of one parameter combination in the parameter space corresponding to one candidate line Search for the presence or absence of coordinate values of other parameter combinations corresponding to the other candidate lines that exceed the total value of the one candidate line in the parameter value peripheral area around In the case where the total value of the other candidate lines exceeding the total value of the one candidate line is not present, real line determination control means for performing control for determining the one candidate line as a real line;
An image processing system comprising:
請求項12に記載の画像処理システムにおいて、
前記第1の画像処理装置は、
画像内の画素を通り得る線を特定のパラメータを含む方程式で表し、この方程式の前記パラメータを座標軸とするパラメータ空間部に、前記画素に対応するパラメータ空間図形要素を各々の各前記画素について描画するパラメータ空間部描画手段と、
各々の前記パラメータ空間図形要素が交差する交差部における交差回数と、前記交差部の周辺の交差部周辺領域の他の交差部の交差回数と、予め設定された交差回数閾値とに基づいて、前記画像内の候補線に対応する前記パラメータ空間部の前記パラメータの組み合わせの座標値の有力候補を選別する選別手段と、
前記選別手段にて選別された前記有力候補の前記座標値の周辺の有力候補領域内の各座標値について、前記画像内に対応する候補線を描画する候補線描画手段と、
前記候補線及び該候補線の周辺の候補線周辺領域が通過する通過画素を、各々の前記候補線について決定する候補線周辺領域決定手段と、
前記候補線を識別する指標であって前記候補線の接線の傾きを示す傾き重みを前記通過画素毎に算出し、各々の前記候補線について前記傾き重みの合計値を算出する候補線識別指標算出手段と、
前記候補線識別指標算出手段にて算出された各々の前記候補線の各々の前記合計値に基づいて、一の前記候補線に対応する前記パラメータ空間部での一の前記パラメータの組み合わせの座標値の周辺のパラメータ値周辺領域内に、一の前記候補線の前記合計値を上回る他の前記候補線に対応する他の前記パラメータの組み合わせの座標値の有無を探索し、前記パラメータ値周辺領域内にて一の前記候補線の前記合計値を上回る他の前記候補線の前記合計値がない場合には、一の前記候補線を実在線として決定する制御を行う実在線決定制御手段と、
を含むことを特徴とする画像処理システム。
The image processing system according to claim 12.
The first image processing apparatus includes:
A line passing through a pixel in the image is represented by an equation including a specific parameter, and a parameter space graphic element corresponding to the pixel is drawn for each of the pixels in a parameter space portion having the parameter of the equation as a coordinate axis. Parameter space drawing means;
Based on the number of intersections at the intersection where each of the parameter space graphic elements intersects, the number of intersections of other intersections around the intersection, and the preset number of intersection thresholds, Screening means for selecting potential candidates for coordinate values of the parameter combinations in the parameter space corresponding to candidate lines in the image;
Candidate line drawing means for drawing a candidate line corresponding to within the image for each coordinate value in the potential candidate area around the coordinate value of the potential candidate selected by the selection means;
Candidate line peripheral region determining means for determining, for each of the candidate lines, a passing pixel through which the candidate line and a candidate line peripheral region around the candidate line pass;
Candidate line identification index calculation for calculating an inclination weight indicating an inclination of a tangent line of the candidate line for each passing pixel and calculating a total value of the inclination weights for each of the candidate lines. Means,
Based on the total value of each of the candidate lines calculated by the candidate line identification index calculating means, the coordinate value of one parameter combination in the parameter space corresponding to one candidate line Search for the presence or absence of coordinate values of other parameter combinations corresponding to the other candidate lines that exceed the total value of the one candidate line in the parameter value peripheral area around In the case where the total value of the other candidate lines exceeding the total value of the one candidate line is not present, real line determination control means for performing control for determining the one candidate line as a real line;
An image processing system comprising:
請求項13に記載の画像処理システムにおいて、
前記切替制御装置は、
前記第1の画像処理装置の前記パラメータ空間部描画手段による前記パラメータ空間部への描画処理、及び前記候補線描画手段による前記画像内の選別された各々の前記候補線の描画処理を行う場合の第1の計算パターンによる第1の計算量を推定する第1の計算量推定手段と、
前記画像内の各々の前記候補線の描画処理のみを行う場合の第2の計算パターンによる第2の計算量を推定する第2の計算量推定手段と、
前記第1の計算量推定手段での前記第1の計算量と、前記第2の計算量推定手段での前記第2の計算量とを比較し、計算量の少ない方の計算パターンを選択する計算パターン選択手段と、
を含むことを特徴とする画像処理システム。
The image processing system according to claim 13.
The switching control device includes:
In the case where the drawing process in the parameter space part by the parameter space part drawing unit of the first image processing apparatus and the drawing process of each selected candidate line in the image by the candidate line drawing unit are performed. First calculation amount estimation means for estimating a first calculation amount according to the first calculation pattern;
Second calculation amount estimation means for estimating a second calculation amount based on a second calculation pattern when only drawing processing of each candidate line in the image is performed;
The first calculation amount in the first calculation amount estimation means and the second calculation amount in the second calculation amount estimation means are compared, and the calculation pattern with the smaller calculation amount is selected. A calculation pattern selection means;
An image processing system comprising:
画像内の画素を通り得る線を特定のパラメータを含む方程式で表し、この方程式の前記パラメータを座標軸とするパラメータ空間部を利用してコンピュータが前記画像内から線を抽出する処理を行う画像処理方法であって、
前記コンピュータが、前記パラメータ空間部の前記パラメータの組み合わせがとる座標値に基づいて、前記座標値に対応する前記画像内の各候補線を描画する制御を行う候補線描画制御ステップと、
前記コンピュータが、前記候補線及び該候補線の周辺の候補線周辺領域が通過する通過画素を、各々の前記候補線について決定する候補線周辺領域決定ステップと、
前記コンピュータが、前記候補線を識別する指標であって前記候補線の接線の傾きを示す傾き重みを前記通過画素毎に算出し、各々の前記候補線について前記傾き重みの合計値を算出する候補線識別指標算出ステップと、
前記コンピュータが、前記候補線識別指標算出ステップにて算出された各々の前記候補線の各々の前記合計値に基づいて、一の前記候補線に対応する前記パラメータ空間部での一の前記パラメータの組み合わせの座標値の周辺のパラメータ値周辺領域内に、一の前記候補線の前記合計値を上回る他の前記候補線に対応する他の前記パラメータの組み合わせの座標値の有無を探索し、前記パラメータ値周辺領域内にて一の前記候補線の前記合計値を上回る他の前記候補線の前記合計値がない場合には、一の前記候補線を実在線として決定する制御を行う実在線決定制御ステップと、
を含むことを特徴とする画像処理方法。
An image processing method in which a line that passes through pixels in an image is represented by an equation including a specific parameter, and a computer extracts a line from the image by using a parameter space section having the parameter of the equation as a coordinate axis Because
A candidate line drawing control step for performing control for drawing each candidate line in the image corresponding to the coordinate value, based on the coordinate value taken by the combination of the parameters in the parameter space unit,
A candidate line peripheral region determining step in which the computer determines, for each of the candidate lines, a passing pixel through which the candidate line and a candidate line peripheral region around the candidate line pass;
A candidate for calculating an inclination weight indicating an inclination of a tangent line of the candidate line for each passing pixel, and calculating a total value of the inclination weights for each of the candidate lines, wherein the computer is an index for identifying the candidate line. A line identification index calculating step;
Based on the total value of each of the candidate lines calculated in the candidate line identification index calculating step, the computer sets one parameter in the parameter space portion corresponding to one candidate line. The parameter value surrounding the coordinate value of the combination is searched for the presence or absence of the coordinate value of the other parameter combination corresponding to the other candidate line that exceeds the total value of the one candidate line, and the parameter Real line determination control for performing control to determine one candidate line as a real line when there is no total value of the other candidate lines that exceeds the total value of one candidate line in a value peripheral region Steps,
An image processing method comprising:
請求項15に記載の画像処理方法において、
前記候補線描画制御ステップでは、
前記パラメータ空間部に、前記画素に対応するパラメータ空間図形要素を各々の各前記画素について描画するパラメータ空間部描画ステップと、
各々の前記パラメータ空間図形要素が交差する交差部における交差回数と、前記交差部の周辺の交差部周辺領域の他の交差部の交差回数と、予め設定された交差回数閾値とに基づいて、前記画像内の候補線に対応する前記パラメータ空間部の前記パラメータの組み合わせの座標値の有力候補を選別する選別ステップと、
前記選別ステップにて選別された前記有力候補の前記座標値の周辺の有力候補領域内の各座標値について、前記画像内に対応する候補線を描画する候補線描画ステップと、
を行うことを特徴とする画像処理方法。
The image processing method according to claim 15, wherein
In the candidate line drawing control step,
A parameter space drawing step for drawing a parameter space graphic element corresponding to the pixel for each of the pixels in the parameter space;
Based on the number of intersections at the intersection where each of the parameter space graphic elements intersects, the number of intersections of other intersections around the intersection, and the preset number of intersection thresholds, A selection step of selecting potential candidates for coordinate values of the parameter combinations of the parameter space portion corresponding to candidate lines in the image;
A candidate line drawing step for drawing a candidate line corresponding to the inside of the image for each coordinate value in the potential candidate area around the coordinate value of the potential candidate selected in the selection step;
And an image processing method.
請求項16に記載の画像処理方法において、
前記コンピュータが、前記画像を縮小する処理を行う画像縮小処理ステップと、
前記コンピュータが、前記画像縮小処理ステップにて前記画像を第1の倍率で縮小した第1の縮小画像にて前記実在線を決定した後に、この決定された実在線を新たな新候補線とし、この新候補線の周辺の新候補線周辺領域について新たに探索を行い、前記第1の倍率より高い第2の倍率にて縮小した第2の縮小画像にて前記パラメータ空間を利用して新たに新実在線を決定し、前記縮小及び前記新実在線の決定を段階的に繰り返し行い、前記実在線の決定の調整制御を行う第1の調整制御ステップと、
をさらに有することを特徴とする画像処理方法。
The image processing method according to claim 16.
An image reduction processing step in which the computer performs a process of reducing the image;
After the computer determines the real line in the first reduced image obtained by reducing the image at the first magnification in the image reduction processing step, the determined real line is set as a new new candidate line, A new search is performed for the area around the new candidate line around the new candidate line, and a new reduced image reduced at a second magnification higher than the first magnification is newly used using the parameter space. A first adjustment control step of determining a new real line, repeatedly performing the reduction and the determination of the new real line in a stepwise manner, and performing adjustment control of the determination of the real line;
An image processing method characterized by further comprising:
請求項17に記載の画像処理方法において、
前記コンピュータが、前記パラメータ空間部の各座標軸の離散化幅を調整する離散化幅調整ステップと、
前記コンピュータが、前記離散化幅調整ステップにて前記離散化幅を大きくした第1の離散化幅の前記パラメータ空間部を利用して前記実在線を決定した後に、この決定された実在線を新たな新候補線とし、この新候補線の周辺の新候補線周辺領域について新たに探索を行い、前記第1の離散化幅より小さい第2の離散化幅の前記パラメータ空間を利用して新たに新実在線を決定し、前記離散化幅の変更及び前記新実在線の決定を段階的に繰り返し行い、前記実在線の決定の調整制御を行う第2の調整制御ステップと、
をさらに有することを特徴とする画像処理方法。
The image processing method according to claim 17,
The computer adjusts the discretization width of each coordinate axis of the parameter space portion to adjust the discretization width;
After the computer determines the real line using the parameter space portion of the first discretization width that has been increased in the discretization width adjustment step, the determined real line is newly determined. A new candidate line, a new search is performed for a region around the new candidate line around the new candidate line, and a new one is newly created using the parameter space having a second discretization width smaller than the first discretization width. A second adjustment control step for determining a new real line, repeatedly performing the change of the discretization width and the determination of the new real line in a stepwise manner, and performing adjustment control of the determination of the real line;
An image processing method characterized by further comprising:
画像内の画素を通り得る線を特定のパラメータを含む方程式で表し、この方程式の前記パラメータを座標軸とするパラメータ空間部を利用して前記画像内から線を抽出する処理をコンピュータが実行可能なプログラムであって、
前記パラメータ空間部の前記パラメータの組み合わせがとる座標値に基づいて、前記座標値に対応する前記画像内の各候補線を描画する制御を行う候補線描画制御機能と、
前記候補線及び該候補線の周辺の候補線周辺領域が通過する通過画素を、各々の前記候補線について決定する候補線周辺領域決定機能と、
前記候補線を識別する指標であって前記候補線の接線の傾きを示す傾き重みを前記通過画素毎に算出し、各々の前記候補線について前記傾き重みの合計値を算出する候補線識別指標算出機能と、
前記候補線識別指標算出機能にて算出された各々の前記候補線の各々の前記合計値に基づいて、一の前記候補線に対応する前記パラメータ空間部での一の前記パラメータの組み合わせの座標値の周辺のパラメータ値周辺領域内に、一の前記候補線の前記合計値を上回る他の前記候補線に対応する他の前記パラメータの組み合わせの座標値の有無を探索し、前記パラメータ値周辺領域内にて一の前記候補線の前記合計値を上回る他の前記候補線の前記合計値がない場合には、一の前記候補線を実在線として決定する制御を行う実在線決定制御機能と、
を含む機能をコンピュータに実行させることを特徴とするプログラム。
A program that allows a computer to execute a process of extracting a line from the image by using a parameter space portion that uses the parameter of the equation as a coordinate axis, and represents a line that can pass through a pixel in the image as a specific parameter. Because
A candidate line drawing control function for performing control for drawing each candidate line in the image corresponding to the coordinate value based on the coordinate value taken by the combination of the parameters in the parameter space part;
A candidate line peripheral region determination function for determining, for each of the candidate lines, a passing pixel through which the candidate line and a candidate line peripheral region around the candidate line pass;
Candidate line identification index calculation for calculating an inclination weight indicating an inclination of a tangent line of the candidate line for each passing pixel and calculating a total value of the inclination weights for each of the candidate lines. Function and
Based on the total value of each of the candidate lines calculated by the candidate line identification index calculation function, the coordinate value of one parameter combination in the parameter space portion corresponding to one candidate line Search for the presence or absence of coordinate values of other parameter combinations corresponding to the other candidate lines that exceed the total value of the one candidate line in the parameter value peripheral area around In the case where there is no total value of the other candidate lines exceeding the total value of the one candidate line, a real line determination control function for performing control to determine one candidate line as a real line;
A program for causing a computer to execute a function including:
請求項19に記載のプログラムにおいて、
前記候補線描画制御機能は、
前記パラメータ空間部に、前記画素に対応するパラメータ空間図形要素を各々の各前記画素について描画するパラメータ空間部描画機能と、
各々の前記パラメータ空間図形要素が交差する交差部における交差回数と、前記交差部の周辺の交差部周辺領域の他の交差部の交差回数と、予め設定された交差回数閾値とに基づいて、前記画像内の候補線に対応する前記パラメータ空間部の前記パラメータの組み合わせの座標値の有力候補を選別する選別機能と、
前記選別機能にて選別された前記有力候補の前記座標値の周辺の有力候補領域内の各座標値について、前記画像内に対応する候補線を描画する候補線描画機能と、
を含む機能をコンピュータに実行させることを特徴とするプログラム。
The program according to claim 19, wherein
The candidate line drawing control function is:
A parameter space drawing function for drawing a parameter space graphic element corresponding to the pixel for each of the pixels in the parameter space;
Based on the number of intersections at the intersection where each of the parameter space graphic elements intersects, the number of intersections of other intersections around the intersection, and the preset number of intersection thresholds, A selection function for selecting potential candidates for coordinate values of the parameter combinations in the parameter space corresponding to candidate lines in the image;
A candidate line drawing function that draws a candidate line corresponding to within the image for each coordinate value in a potential candidate area around the coordinate value of the potential candidate selected by the selection function;
A program for causing a computer to execute a function including:
請求項20に記載のプログラムにおいて、
前記画像を縮小する処理を行う画像縮小処理機能と、
前記画像縮小処理機能にて前記画像を第1の倍率で縮小した第1の縮小画像にて前記実在線を決定した後に、この決定された実在線を新たな新候補線とし、この新候補線の周辺の新候補線周辺領域について新たに探索を行い、前記第1の倍率より高い第2の倍率にて縮小した第2の縮小画像にて前記パラメータ空間を利用して新たに新実在線を決定し、前記縮小及び前記新実在線の決定を段階的に繰り返し行い、前記実在線の決定の調整制御を行う第1の調整制御機能と、
をさらにコンピュータに実行させることを特徴とするプログラム。
The program according to claim 20,
An image reduction processing function for performing processing for reducing the image;
After the real line is determined by the first reduced image obtained by reducing the image at the first magnification by the image reduction processing function, the determined real line is set as a new new candidate line. A new search is performed for the area around the new candidate line around the area, and a new real line is newly generated using the parameter space in the second reduced image reduced at the second magnification higher than the first magnification. A first adjustment control function for determining, performing the reduction and the determination of the new real line in a stepwise manner, and performing adjustment control of the determination of the real line;
Is further executed by a computer.
請求項21に記載のプログラムにおいて、
前記パラメータ空間部の各座標軸の離散化幅を調整する離散化幅調整機能と、
前記離散化幅調整機能にて前記離散化幅を大きくした第1の離散化幅の前記パラメータ空間部を利用して前記実在線を決定した後に、この決定された実在線を新たな新候補線とし、この新候補線の周辺の新候補線周辺領域について新たに探索を行い、前記第1の離散化幅より小さい第2の離散化幅の前記パラメータ空間を利用して新たに新実在線を決定し、前記離散化幅の変更及び前記新実在線の決定を段階的に繰り返し行い、前記実在線の決定の調整制御を行う第2の調整制御機能と、
をさらにコンピュータに実行させることを特徴とするプログラム。
The program according to claim 21, wherein
A discretization width adjustment function for adjusting the discretization width of each coordinate axis of the parameter space portion;
After the actual line is determined using the parameter space portion of the first discretized width obtained by increasing the discretized width by the discretized width adjusting function, the determined real line is used as a new new candidate line. A new search is performed for the area around the new candidate line around the new candidate line, and a new real line is newly generated using the parameter space having a second discretization width smaller than the first discretization width. Determining, changing the discretization width and determining the new real line in a stepwise manner, and a second adjustment control function for performing adjustment control of the determination of the real line;
Is further executed by a computer.
JP2008007396A 2008-01-16 2008-01-16 Image processing apparatus, image processing system, image processing method, and program Active JP4946882B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008007396A JP4946882B2 (en) 2008-01-16 2008-01-16 Image processing apparatus, image processing system, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008007396A JP4946882B2 (en) 2008-01-16 2008-01-16 Image processing apparatus, image processing system, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2009169696A JP2009169696A (en) 2009-07-30
JP4946882B2 true JP4946882B2 (en) 2012-06-06

Family

ID=40970784

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008007396A Active JP4946882B2 (en) 2008-01-16 2008-01-16 Image processing apparatus, image processing system, image processing method, and program

Country Status (1)

Country Link
JP (1) JP4946882B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5304553B2 (en) * 2009-09-09 2013-10-02 富士ゼロックス株式会社 Image processing apparatus and image processing program
JP5816459B2 (en) * 2011-05-16 2015-11-18 Hoya株式会社 Electronic endoscope system, operation method of electronic endoscope system, and software

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006293522A (en) * 2005-04-07 2006-10-26 Fuji Photo Film Co Ltd Straight line detection device, straight line detection method, and program for the same

Also Published As

Publication number Publication date
JP2009169696A (en) 2009-07-30

Similar Documents

Publication Publication Date Title
Zeng et al. 3D point cloud denoising using graph Laplacian regularization of a low dimensional manifold model
CN112446327B (en) Remote sensing image target detection method based on non-anchor frame
Park et al. Hybrid line simplification for cartographic generalization
CN111310821A (en) Multi-view feature fusion method, system, computer device and storage medium
Zhao et al. Fractal dimension estimation of RGB color images using maximum color distance
Bartolo et al. Scribbles to vectors: preparation of scribble drawings for CAD interpretation
CN113658203A (en) Method and device for extracting three-dimensional outline of building and training neural network
Kang et al. An efficient planar feature fitting method using point cloud simplification and threshold-independent BaySAC
CN108122202A (en) A kind of map Linear element multi-scale information derived method based on Shape context
JP4946882B2 (en) Image processing apparatus, image processing system, image processing method, and program
CN113436223A (en) Point cloud data segmentation method and device, computer equipment and storage medium
JP2001243500A (en) Three-dimensional dot group data processor
JP2011227696A (en) Object detection device, object detection method, object detection program and robot
Reinhold et al. Appearance-based recognition of 3-d objects by cluttered background and occlusions
Chen et al. Normalized-cut algorithm for hierarchical vector field data segmentation
CN115018710A (en) Point cloud super-resolution method based on FPFH (field programmable gate array) features and deep neural network
Lindblad et al. Exact linear time euclidean distance transforms of grid line sampled shapes
Gong et al. Fine feature sensitive marching squares
CN106056599B (en) A kind of object recognition algorithm and device based on Object Depth data
Fu et al. Feature line extraction from point clouds based on geometric structure of point space
Yeh et al. Detecting symmetries and curvilinear arrangements in vector art
Zhu et al. Accurate disparity estimation in light field using ground control points
JP4394926B2 (en) Image processing method and apparatus, program, and recording medium
Hu et al. GMC_FM: a grid and multi-density-based method for matching ancient Chinese architectural images
Woo et al. Stereo line matching based on the combination of geometric and intensity data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120207

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120220

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150316

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4946882

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150