JP2925707B2 - Edge feature measurement method - Google Patents
Edge feature measurement methodInfo
- Publication number
- JP2925707B2 JP2925707B2 JP2291769A JP29176990A JP2925707B2 JP 2925707 B2 JP2925707 B2 JP 2925707B2 JP 2291769 A JP2291769 A JP 2291769A JP 29176990 A JP29176990 A JP 29176990A JP 2925707 B2 JP2925707 B2 JP 2925707B2
- Authority
- JP
- Japan
- Prior art keywords
- edge
- density
- pixel
- image
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Description
【発明の詳細な説明】 (産業上の利用分野) 本発明は、ディジタル画像におけるエッジ特徴の計測
方法に関するものであり、画像処理を用いて物体を認識
したり計測したりする際に用いられる。Description: TECHNICAL FIELD The present invention relates to a method for measuring an edge feature in a digital image, and is used for recognizing and measuring an object using image processing.
(従来の技術) 物体の明るさが変化したりあるいは面の向きが変化す
る部分すなわち物体の境界部分を撮像すると、物体の境
界部分は画像中ではステップ状に濃度が変化する部分と
なる。つまり、物体面の性状の変化(反射率と面の向
き)に起因して画像中の濃度が変化する部分がエッジで
ある。このエッジ特徴の抽出は各種の画像処理の中でも
最も基本的な処理である。エッジ特徴に関する情報は、
画像中の物体の位置を計測したり物体を認識したりする
際に不可欠なものである。(Prior Art) When an image of a portion where the brightness of an object changes or the direction of a surface changes, that is, a boundary portion of an object is captured, the boundary portion of the object becomes a portion where the density changes stepwise in the image. In other words, a portion where the density in the image changes due to a change in the property of the object surface (reflectance and orientation of the surface) is an edge. The extraction of the edge feature is the most basic processing among various types of image processing. Information about edge features
It is indispensable when measuring the position of an object in an image or recognizing the object.
エッジはその位置と方向を用いて第1図に示すように
特徴付けられる。第1図では画素の中心位置、すなわち
標本点の位置を原点Oにとり、この原点Oを通る水平線
をx軸、垂直線をy軸としている。原点Oからエッジe
に垂線を下ろし、このエッジeとの交点をPとする。こ
の垂線OPの長さをρ(エッジ位置)、垂線OPとx軸との
なす方向をθ(エッジ方向)として、 ρ=xcosθ+ysinθ ……(1) によって、ステップエッジを表す。このステップエッジ
によって2分されるそれぞれの領域を濃度をf1,f2で表
し、f1<f2とする。なお、第1図の破線で示す部分が画
素の境界である。An edge is characterized using its position and orientation as shown in FIG. In FIG. 1, the center position of the pixel, that is, the position of the sample point is taken as the origin O, and the horizontal line passing through the origin O is taken as the x-axis and the vertical line is taken as the y-axis. Edge e from origin O
And a point of intersection with the edge e is defined as P. Assuming that the length of the perpendicular OP is ρ (edge position) and the direction between the perpendicular OP and the x axis is θ (edge direction), a step edge is represented by ρ = xcos θ + ysin θ (1). Each area divided by the step edge is represented by a density f 1 and f 2 , and f 1 <f 2 . The portion shown by the broken line in FIG. 1 is the boundary between pixels.
これまでにエッジ特徴計測方法には数多くのアルゴリ
ズムが提案されている。ここでは従来技術として、これ
らの中からHueckelの提案したモデルフィット型のエッ
ジ特徴計測方法とテーブル参照によるエッジ特徴計測方
法とを取り上げる。Many algorithms have been proposed for the edge feature measurement method. Here, as a conventional technique, a model fitting type edge feature measuring method proposed by Hueckel and an edge feature measuring method by referring to a table are taken from among them.
Hueckelの方法は本発明と同様な範疇に属するモデル
フィット型の代表的エッジ特徴計測方法であり、またテ
ーブル参照によるエッジ特徴計測方法は画像入力時の影
響を取り除くために予め実験によって補正テーブルを作
成しておくというものである。Hueckel's method is a model fitting type representative edge feature measurement method that belongs to the same category as the present invention, and the edge feature measurement method by referring to a table creates a correction table in advance by experiment in order to remove the effect at the time of image input It is to keep.
まず、ディジタル画素の入力方法とこのときに画像が
受ける影響について説明し、次に上述の2つの従来技術
とその間題点について説明する。First, the method of inputting digital pixels and the effect on the image at this time will be described, and then the above-described two conventional techniques and their interim points will be described.
(発明が解決しようとする課題) 物体を撮像すると物体からの反射光はカメラのレンズ
によって光電変換素子上に結像され、ここで水平走査を
繰り返しながら時系列的に並んだ1次元の映像信号に変
換される。そして、カメラから出力されたこの映像信号
はA/D変換器でディジタル化、すなわち標本化と量子化
が行われ、2次元の画像として計算機のメモリに入力さ
れる。このようにして画像が計算機に入力される場合、
画像はレンズ系や光電変換時の各種の原因により劣化す
る。(Problems to be Solved by the Invention) When an object is imaged, reflected light from the object is imaged on a photoelectric conversion element by a lens of a camera, and here, one-dimensional video signals arranged in a time series while repeating horizontal scanning. Is converted to Then, this video signal output from the camera is digitized by an A / D converter, that is, sampled and quantized, and input to a computer memory as a two-dimensional image. When an image is input to the calculator in this way,
The image deteriorates due to various causes at the time of a lens system or photoelectric conversion.
その主な原因は、レンズで結像する際に加えられるぼ
け、ディジタル化する際に垂直走査方向には生じないが
水平走査方向には生じる残像、さらに最近多用される固
体撮像素子カメラにおいて、水平方向と垂直方向で光電
変換素子の形状やピッチが違うために生じる方向による
感度差などである。これらの理由により、物体の境界部
分を撮像しても計算機に入力される画像は理想的なステ
ップエッジにはならない。The main causes are the blur added when forming an image with a lens, the afterimage that does not occur in the vertical scanning direction but occurs in the horizontal scanning direction when digitizing, and in a solid-state imaging device camera that has been frequently used recently, the horizontal This is a sensitivity difference due to a direction caused by a difference in shape and pitch of the photoelectric conversion element between the direction and the vertical direction. For these reasons, the image input to the computer does not become an ideal step edge even if the boundary portion of the object is imaged.
Hueckelの考えをステップエッジにあてはめた場合の
エッジモデルを第2図に破線で示す (森 俊二、板倉栂子:“画像認識の基板(II)”、p
p.127−134、オーム社、1990)。この第2図に示すよう
に、Hueckelの使用したエッジモデルは理想的なステッ
プエッジモデルemである。エッジ特徴の算出に用いる計
算領域をDとし、Dの中心Oを原点としたときの座標
(x,y)における入力画像の濃度をg(x,y)とする。こ
こで、そこでの濃度をm(x,y,ρ)とするエッジモデル
を考える。ただし、ρはエッジ位置、方向、コントラス
トを示すパラメータ、即ちエッジ特徴である。ここで両
者の差として、 [∫D{g(x,y)−m(x,y,ρ)}2dxdy]1/2 ……(2) を考え、第3図に示す9つの正規直交関数Hi(i=0〜
8)を用いて解析的に式(2)を最小にするエッジ特徴
を計算している。すなわち、評価関数 E=(e2cosθ+e3sinθ)2+e4cosθ+e5sinθ ……(3) を最小にする条件からエッジ方向θを求め、この結果を
用いてエッジ位置ρなどを求めている。ただし、 e1=(1/3)1/2a1 ……(4) e2=(1/3)1/2a4 ……(5) e3=(2/3)1/2a5 ……(6) e4=2e1e2+{a2 2+a6 2(a3 2+a7 2)}/2 ……(7) e5=2e1e3+e2e3+e6e7 ……(8) であり、 ai=∫DHi(x,y)g(x,y)dxdy,i=0〜8 ……(9)である。The edge model when Hueckel's idea is applied to the step edge is shown by the broken line in Fig. 2 (Shunji Mori, Tsugako Itakura: "Image recognition board (II)", p.
p.127-134, Ohmsha, 1990). As shown in FIG. 2, the edge model used by Hueckel is an ideal step edge model em. Let D be the calculation area used for calculating the edge feature, and let g (x, y) be the density of the input image at coordinates (x, y) when the center O of D is the origin. Here, an edge model in which the density there is m (x, y, ρ) is considered. Here, ρ is a parameter indicating the edge position, direction, and contrast, that is, an edge feature. As the difference between them wherein, [∫ D {g (x , y) -m (x, y, ρ)} 2 dxdy] 1/2 ...... consider (2), nine orthonormal shown in Figure 3 Function H i (i = 0 to
The edge feature that minimizes the equation (2) is calculated analytically using 8). That is, the edge direction θ is determined from the condition that minimizes the evaluation function E = (e 2 cos θ + e 3 sin θ) 2 + e 4 cos θ + e 5 sin θ, and the edge position ρ and the like are determined using the result. However, e 1 = (1/3) 1/2 a 1 ... (4) e 2 = (1/3) 1/2 a 4 ... (5) e 3 = (2/3) 1/2 a 5 ...... (6) e 4 = 2e 1 e 2 + {a 2 2 + a 6 2 (a 3 2 + a 7 2)} / 2 ...... (7) e 5 = 2e 1 e 3 + e 2 e 3 + e 6 e 7 is a ... (8), is a i = ∫ D H i ( x, y) g (x, y) dxdy, i = 0~8 ...... (9).
しかし、入力画像のエッジ濃度パターンは第2図の破
線で示したような理想的なステップエッジモデルemには
ならず、前述の画像劣化のために実線で表すような滑ら
かな濃度パターンの実エッジモデルem′を示す。その結
果、実際の入力画像のエッジ濃度パターンとは一致しな
いエッジモデルに、エッジ近傍画素の濃度パターンをあ
てはめることになる。また、式(9)を計算する際、Hi
(x,y)を実現するために計算領域Dとして直径8〜9
画素程度の円形領域すなわち50〜60画素が用いられるた
めに局所的なエッジ特徴を計測することが困難である。However, the edge density pattern of the input image does not become the ideal step edge model em as shown by the broken line in FIG. 2, and the real edge of the smooth density pattern as shown by the solid line due to the image deterioration described above. Model em 'is shown. As a result, the density pattern of the pixels near the edge is applied to an edge model that does not match the edge density pattern of the actual input image. Also, when calculating equation (9), Hi
In order to realize (x, y), the calculation area D is 8 to 9 in diameter.
It is difficult to measure a local edge feature because a circular area of about a pixel, that is, 50 to 60 pixels is used.
一方、テーブル参照型としては、特願平2−47247号
(井手 他2名:“ディジタル画像に対するエッジ方向
の計測方法”)がある。この方法は、所望の精度を与え
る間隔でエッジ位置とエッジ方向と異なる多数の画像を
入力し、この画像から得られたエッジ位置とエッジ方向
と、入力に用いた実際のエッジ位置とエッジ方向との差
を予め補正値として求めておく。このようにして計測さ
れたエッジ位置とエッジ方向から真のエッジ位置とエッ
ジ方向を求めるための補正テーブルを作成する。この補
正テーブルの一例を第4図に示す。On the other hand, as a table reference type, there is Japanese Patent Application No. 2-47247 (Ide et al .: "Method for Measuring Edge Direction of Digital Image"). In this method, a large number of images having different edge positions and edge directions are input at intervals that provide desired accuracy, and the edge positions and edge directions obtained from the images, and the actual edge positions and edge directions used for input are determined. Is determined in advance as a correction value. A correction table for obtaining a true edge position and an edge direction from the edge position and the edge direction thus measured is created. FIG. 4 shows an example of this correction table.
第4図において、横軸、縦軸はそれぞれ計測されたエ
ッジ位置とエッジ方向であり、補正値が等高線表示され
ている。この方法では、例えばエッジ方向のテーブルを
1゜の精度で得るためには角度について360種類の正確
な計測を予め行なわなければならない。In FIG. 4, the horizontal axis and the vertical axis represent the measured edge position and edge direction, respectively, and the correction values are displayed as contour lines. In this method, for example, in order to obtain an edge direction table with an accuracy of 1 °, 360 accurate measurements of angles must be performed in advance.
また、各エッジ方向毎に、種々のエッジ位置について
補正テーブルを求める必要があることから、効率的に参
照用補正テーブルを作成することが困難である。さら
に、従来の方法はいずれも並列処理が困難なアルゴリズ
ムであるために、1つのエッジ画素に着目してエッジ特
徴を求め、次々に着目エッジ画素を移動していくという
処理を繰り返していた。その結果、長い処理時間を要す
るという問題があった。Further, since it is necessary to obtain correction tables for various edge positions for each edge direction, it is difficult to efficiently create a reference correction table. Further, since all of the conventional methods are algorithms that are difficult to perform in parallel processing, a process of obtaining an edge feature by focusing on one edge pixel and moving the focused edge pixel one after another has been repeated. As a result, there is a problem that a long processing time is required.
(発明の目的) 本発明の目的は、ディジタル画像中のエッジ近傍画素
の濃度パターンから精度良くエッジ特徴を計測する方法
を提供することにある。(Object of the Invention) It is an object of the present invention to provide a method for accurately measuring an edge feature from a density pattern of pixels near an edge in a digital image.
(課題を解決するための手段) 本発明は上記課題を解決し目的を達成するためディジ
タル画像におけるエッジ近傍画素の濃度を用いてエッジ
位置および方向を計測するエッジ特徴計測方法におい
て、複数のエッジ位置および複数のエッジ方向の組み合
わせに対し、ディジタル画像を入力する際の点ひろがり
関数を考慮してエッジ近傍画素の濃度パターンへの写像
を得る第1工程と、前記第1工程で算出された複数のエ
ッジ近傍画素の濃度パターンからエッジ位置およびエッ
ジ方向への逆写像を、濃度を入力としてエッジ位置およ
びエッジ方向を出力とする誤差逆伝搬型ニューラルネッ
トを用いて決定する第2工程と、前記第2工程で決定さ
れた逆写像を用いて、実際に入力した任意の画像におい
てエッジ近傍画素の濃度パターンからエッジ位置および
エッジ方向を算出する第3工程と、から成ることを特徴
とする。(Means for Solving the Problems) In order to solve the above problems and achieve the object, the present invention provides an edge feature measuring method for measuring an edge position and a direction using the density of pixels near an edge in a digital image. And a first step of obtaining a mapping of a pixel near an edge onto a density pattern in consideration of a point spread function at the time of inputting a digital image with respect to a combination of a plurality of edge directions, and a plurality of steps calculated in the first step. A second step of determining a reverse mapping from the density pattern of the pixel near the edge to the edge position and the edge direction using an error back-propagation type neural network having the density as an input and the edge position and the edge direction as an output; Using the inverse mapping determined in the process, the edge position is determined from the density pattern of the pixels near the edge in the actually input arbitrary image. And a third step of calculating the position and the edge direction.
(作 用) 本発明では、エッジ特徴として従来よりパラメータと
して用いられてきたエッジ位置とエッジ方向だけではな
く、画像入力時の画像劣化を表す関数として、走査線方
向およびそれと直交する方向の点ひろがり関数を考慮に
いれてステップエッジのモデル化を行う。これにより第
2図の実線で示すように、理想的なステップエッジにぼ
けを加えたより実際的なエッジモデルを用いることがで
きる。以下では、このエッジモデルを実エッジモデルe
m′と呼ぶ。なお、第2図の破線は従来のステップエッ
ジモデルemである。このエッジモデルを用いて次のよう
にエッジ特徴を求める。(Operation) In the present invention, not only the edge position and the edge direction which have been conventionally used as parameters as the edge feature, but also the point spread in the scanning line direction and the direction orthogonal to the scanning line direction as a function representing the image deterioration at the time of image input. Step edges are modeled taking into account the function. As a result, as shown by the solid line in FIG. 2, it is possible to use a more practical edge model in which an ideal step edge is blurred. In the following, this edge model is referred to as a real edge model e
Call it m '. The broken line in FIG. 2 is a conventional step edge model em. Using this edge model, an edge feature is obtained as follows.
今、エッジ位置とエッジ方向を2次元ベクトルq、エ
ッジ近傍の複数画素の濃度をg(x,y)とし、qからg
(x,y)への写像をA′とし、A′の逆写像、即ちg
(x,y)からqへの写像をとすると、q,g(x,y)、Aの
関係は、 q=A(g(x1,y1),g(x2,y2),…,g(xi,yi),…), (xi,yi)∈D ……(10) と表せる。したがって、qとg(x,y)との関係を求め
たことにより写像Aを決定することができる。Now, let the edge position and the edge direction be a two-dimensional vector q, and let the density of a plurality of pixels near the edge be g (x, y).
The mapping to (x, y) is A ', and the inverse mapping of A', that is, g
(X, y), the mapping from the q, q, g (x, y), the relationship of A, q = A (g (x 1, y 1), g (x 2, y 2), .., G (x i , y i ),...), (X i , y i ) ∈D (10) Therefore, the mapping A can be determined by obtaining the relationship between q and g (x, y).
一般に、qからg(x,y)への写像を求める問題は性
質の良い問題と呼ばれているが、今回のようにその逆問
題は性質の悪い問題に属し、通常、この問題を解くこと
は困難である。上述したように理想的なステップエッジ
についてHueckelによって正規直交関数を用いて近似的
に解かれたが、ぼけなど各種の劣化が加わった実際の入
力画像に対して、エッジ近傍の複数画素の濃度パターン
からエッジ位置とエッジ方向とを得る写像Aを解析的に
求めることは困難である。In general, the problem of finding a mapping from q to g (x, y) is called a problem with good properties, but the inverse problem belongs to a problem with poor properties as in this case. It is difficult. As described above, the ideal step edge was approximately solved by Hueckel using an orthonormal function, but the density pattern of a plurality of pixels near the edge was compared to the actual input image to which various degradations such as blurring were added. It is difficult to analytically obtain a mapping A that obtains the edge position and the edge direction from the image.
そこで、本発明では次のようにして写像Aを求める。
この写像Aを決定するに際し、直接入力画像の濃度g
(x,y)を取り扱う代わりに、実エッジモデルem′より
計算される第2図の実線で示した濃度m(x,y,σx,σy,
q)を用いる。ここで、σx,σyは、それぞれ水平およ
び垂直方向の点ひろがり関数のひろがりである。Therefore, in the present invention, the mapping A is obtained as follows.
In determining the mapping A, the density g of the directly input image
Instead of handling (x, y), the density m (x, y, σ x , σ y ,
Use q). Here, σ x and σ y are the spreads of the point spread functions in the horizontal and vertical directions, respectively.
今、t番目のエッジ特徴を添字tで表し、評価関数et
として、 et={qt−A(m(x,y,σx,σy,qt))}2 ……(11) を考える。qのすべての要素に対してetの和の評価関数
Eは、 を最小にする写像Aを決定する。ここで、式(11)およ
び式(12)の評価関数に最小平均2乗誤差法が適用でき
ることに注目し、式(10)に示したエッジ近傍画素の濃
度パターンからエッジ特徴を求める写像Aを、誤差逆伝
搬型ニューラルネットを用いて決定する。このようにし
て決定された写像Aを用いて、実際の入力画像について
g(x,y)すなわちエッジ近傍画素の濃度パターンの写
像を求めることによって、エッジ特徴の計測を行う。Now, the t-th edge feature is represented by a subscript t, and the evaluation function e t
Let e t = {q t −A (m (x, y, σ x , σ y , q t ))} 2 (11) the evaluation function E of the sum of e t for all of the elements of q, Is determined to minimize. Here, noting that the least mean square error method can be applied to the evaluation functions of Expressions (11) and (12), the mapping A for obtaining the edge feature from the density pattern of the pixel near the edge shown in Expression (10) is expressed as , Using a back propagation type neural network. Using the mapping A determined in this way, g (x, y), that is, the mapping of the density pattern of the pixels near the edge is obtained for the actual input image, thereby measuring the edge feature.
このように本発明は、画像入力時の点ひろがり関数を
考慮することによって、実際の入力画像のエッジ濃度パ
ターンに一致する実エッジモデルを考え、さらに、エッ
ジ近傍画素の濃度パターンからエッジ特徴への写像をニ
ューラルネットを用いて得るものである。これにより、
一般的には解析的に解くことのできない実エッジモデル
em′を用いてこの写像Aを求めることができる。As described above, the present invention considers a point spread function at the time of image input, considers an actual edge model that matches the edge density pattern of the actual input image, and further converts the density pattern of pixels near the edge to the edge feature. The mapping is obtained using a neural network. This allows
In general, real edge models that cannot be solved analytically
This mapping A can be obtained using em '.
(実施例) 以下、本発明の実施例をエッジ特徴計測原理、この原
理による計測例の順に第5図ないし第13図及び前記各図
を用いて説明する。(Embodiment) Hereinafter, an embodiment of the present invention will be described with reference to FIGS. 5 to 13 and each of the drawings in the order of the principle of measuring edge features and a measurement example based on this principle.
(ア)エッジ特徴計測原理 エッジ特徴計測原理について、エッジのモデル化方法
とエッジ特徴からエッジ近傍画素の濃度パターンへの写
像(A′)の求め方、この逆写像、即ちエッジ近傍画素
の濃度パターンからエッジ特徴への写像Aの求め方の順
に説明する。(A) Principle of Edge Feature Measurement Regarding the principle of edge feature measurement, a method of modeling an edge and a method of obtaining a mapping (A ′) from an edge feature to a density pattern of a pixel near an edge, and its inverse mapping, that is, a density pattern of a pixel near an edge Will be described in the order of how to obtain the mapping A from to the edge feature.
(a)エッジのモデル化方法とエッジ特徴からエッジ近
傍画素の濃度パターンへの写像A′の求め方 ステップエッジのモデルとして前述の第1図を用い
る。だだし、エッジ位置ρには、濃度の低い方から高い
方への向き原点Oから点Pへの向きと同じ場合に正、逆
に反対の場合は負となるような符号を与える。一方、エ
ッジ方向θはx軸正方向からの左まわりの角度を正にと
り、0゜から360゜までとする。(A) Method of Modeling Edge and Method of Determining Mapping A 'to Density Pattern of Pixels Near Edge from Edge Features The above-described FIG. 1 is used as a model of a step edge. However, a sign is given to the edge position ρ such that the direction from the lower density to the higher density is the same as the direction from the origin O to the point P, and conversely, the opposite is negative. On the other hand, the edge direction θ takes a positive angle counterclockwise from the positive direction of the x-axis and ranges from 0 ° to 360 °.
ここで、計算の基準とする画像として、エッジがx軸
あるいはy軸のいずれか一方と必ず交差する画素をエッ
ジ画素として定義する。すなわち、画素内を通過するエ
ッジが、 y=0で−1/2x<1/2、 またはx=0で−1/2y<1/2 ……(13) の条件を満たす場合にその画素はエッジ画素である。し
たがって、式(1)と不等式(13)より、エッジ画素で
あるためには、エッジ位置ρ、エッジ方向θは min{−1/2|cosθ|,−1/2|sinθ|}ρ <max{1/2|cosθ|,1/2sinθ|},0゜θ<360゜ ……(14) の条件を満たす必要がある。このρ,θの範囲を第5図
にハッチングにより領域として示す。Here, a pixel whose edge always crosses one of the x-axis and the y-axis is defined as an edge pixel as an image to be a reference for calculation. That is, if the edge passing through the pixel satisfies the condition of -1 / 2x <1/2 at y = 0, or -1 / 2y <1/2 at x = 0, the pixel becomes It is an edge pixel. Therefore, from equation (1) and inequality (13), in order to be an edge pixel, the edge position ρ and the edge direction θ must be min {−1/2 | cosθ |, −1/2 | sinθ |} ρ <max {1/2 | cosθ |, 1 / 2sinθ |}, 0 ゜ θ <360 ゜ (14) The range of ρ and θ is shown as a region by hatching in FIG.
このようなステップエッジである場合のエッジ近傍の
画素の濃度g(xs,ys)は、 で計算することができる。ただし、添字sは標本化され
た画素の中心座標を示しており、ステップエッジ濃度関
数f(x,y)は で表される。The density g (x s , y s ) of the pixel near the edge in the case of such a step edge is Can be calculated by Here, the subscript s indicates the center coordinates of the sampled pixel, and the step edge density function f (x, y) is It is represented by
今、レンズのぼけや残像などを含めた画像入力時の点
ひろがり関数をh(x,y)とすると、入力画像における
エッジ近傍の画素の濃度g(xs,ys)は、式(16)のス
テップエッジ濃度関数f(x,y)と下記でのべる式(1
8)の点ひろがり関数h(x,y)とのたたみ込み計算とし
て得られるので、実エッジモデルの濃度g(xs,ys)は で求めることができる。ただし、α,βの積分は点ひろ
がり関数h(x,y)が影響を及ぼす範囲について行うも
のとする。この点ひろがり関数は使用する画像入力シス
テムによって異なる。しかし、通常、レンズのぼけの点
ひろがり関数は正規分布に近似できること、また、光電
変換は水平、垂直方向で独立で互いに影響を与えないこ
とから、本発明では点ひろがり関数h(x,y)を h(x,y)=1/(2πσxσy)・exp−{−1/2・(x2/σx 2+y2/σy 2)} ……(18) で近似する。式(18)において、σx,σyはそれぞれ水
平、垂直方向のひろがりの標準偏差である。ステップエ
ッジ濃度関数f(x,y)である式(16)と点ひろがり関
数h(x,y)を示す式(18)を式(17)の実エッジモデ
ルの濃度g(xs,ys)に代入し、水平,垂直それぞれの
方向について、x−3σxからx+3σxまで、あるい
はy−3σyからy+3σyまでの範囲について積分す
ることにより実エッジモデルの各画素の濃度を求める。Now, when the lens blur and afterimages point spread function at the time of image input, including such as the h (x, y), the concentration g (x s, y s) of pixels near an edge in the input image, Equation (16 ) And the step edge density function f (x, y) and the following equation (1
The density g (x s , y s ) of the real edge model is obtained as convolution calculation with the point spread function h (x, y) in 8). Can be obtained by However, the integration of α and β is performed in a range where the point spread function h (x, y) has an influence. The spread function differs depending on the image input system used. However, in general, the point spread function h (x, y) is used in the present invention because the point spread function of the lens blur can be approximated to a normal distribution, and the photoelectric conversion is independent in the horizontal and vertical directions and does not affect each other. approximated by - {- 1/2 · (x 2 / σ x 2 + y 2 / σ y 2)} ...... (18) the h (x, y) = 1 / (2πσ x σ y) · exp. In Expression (18), σ x and σ y are the standard deviations of the horizontal and vertical spreads, respectively. Equation (16), which is the step edge density function f (x, y), and equation (18), which indicates the point spread function h (x, y), are converted into the density g (x s , y s of the real edge model of equation (17). substituted in), horizontal, for vertical each direction to determine the density of each pixel of the actual edge model by integrating the range from x-3 [sigma] x to x + 3 [sigma] x, or from y-3 [sigma] y to y + 3 [sigma] y.
このσx,σyは次の関係に注目して計測する。線光源
の線ひろがり関数は、その線に平行なステップエッジの
像の1次微分に等しいという関係が成り立つ(長尾真監
訳:“ディジタル画像処理”、pp.212〜216、近代科学
社)。したがって、垂直方向すなわちθ=0゜と水平方
向すなわちθ=90゜のステップエッジを撮像し、計算機
に入力する。そして、このエッジに直交する方向につい
て1次微分を計算し、画素の座標とそこにおける1次微
分値を正規分布に回帰することによって、この分布の標
準偏差としてσx,σyを求める。The σ x and σ y are measured by focusing on the following relationship. There is a relationship that the line spreading function of the line light source is equal to the first derivative of the image of the step edge parallel to the line (translated by Shin Nagao: "Digital Image Processing", pp. 212-216, Modern Science Co., Ltd.). Therefore, the step edges in the vertical direction, ie, θ = 0 ° and in the horizontal direction, ie, θ = 90 °, are imaged and input to the computer. Then, the first derivative is calculated in the direction orthogonal to the edge, and the coordinates of the pixel and the first derivative there are regressed to a normal distribution, thereby obtaining σ x , σ y as the standard deviation of this distribution.
(b)エッジ近傍画素の濃度パターンからエッジ特徴へ
の写像Aの求め方 エッジ近傍画素の濃度パターンからエッジ特徴への写
像Aの求め方を第6図に示す。前述したように、式(1
1)および(12)の評価関数に最小平均2乗誤差法が適
用できることに注目し、式(11)に示した実エッジモデ
ルの濃度パターンからエッジ特徴を求める写像Aを、3
層からなる誤差逆伝搬型ニューラルネットを用いて決定
する。(B) How to Determine Mapping A from Density Pattern of Pixels Near Edge to Edge Feature A method of obtaining mapping A from density pattern of pixels near edge to edge feature is shown in FIG. As mentioned earlier, the expression (1
Noting that the least mean square error method can be applied to the evaluation functions 1) and (12), the mapping A for obtaining the edge feature from the density pattern of the real edge model shown in Expression (11) is expressed as 3
It is determined using an error back propagation type neural network composed of layers.
第6図に示すように、このニューラルネットの入力層
INには実エッジモデルから計算されるエッジ近傍の複数
画素の濃度m(xs,ys,σx,σy,q)が入力される。とこ
ろで、エッジ特徴としてエッジ位置とエッジ方向の他
に、エッジコントラストすなわちエッジの濃度について
の情報もある。しかし、この濃度情報までを含めてモデ
ル化を行うと学習すべき濃度パターンが膨大な数にのぼ
る。したがって、エッジのコントラストの変化に対応す
るために、各濃度パターンにおいて最小濃度が0、最大
濃度が1になるように正規化した正規化濃度を用い、エ
ッジ画素を中心にそのまわりの8画素すなわち3×3の
9画素の正規化濃度を入力層INに入力する。なお、入力
する画素の数は9に限るものではなく、入力する画素の
数だけ入力層のユニットを用意すればよい。今回使用す
るニューラルネットでは中間層Hのユニット数は入力層
INのユニット数と同数で、各入力層ユニットは全ての中
間層ユニットと結合している。出力層OUTからの出力
は、エッジ位置ρとエッジ方向θである。As shown in FIG. 6, the input layer of this neural network
The IN concentration m of a plurality of pixels near an edge, which is calculated from the actual edge model (x s, y s, σ x, σ y, q) is input. Incidentally, in addition to the edge position and the edge direction, there is also information on the edge contrast, that is, the density of the edge as the edge feature. However, if modeling is performed including this density information, the number of density patterns to be learned is enormous. Therefore, in order to cope with a change in edge contrast, a normalized density normalized so that the minimum density is 0 and the maximum density is 1 in each density pattern is used, and eight pixels around the edge pixel, that is, The normalized density of 9 pixels of 3 × 3 is input to the input layer IN. Note that the number of input pixels is not limited to nine, and the input layer units may be prepared by the number of input pixels. In the neural network used this time, the number of units in the middle layer H is the input layer
As many as the number of IN units, each input layer unit is connected to all intermediate layer units. The output from the output layer OUT is an edge position ρ and an edge direction θ.
今、入力層IN,中間層H,出力層OUTをそれぞれ添字I,H,
Oを用いて表し、さらに、入力層の第iユニットからの
出力をvi I、中間層の第jユニットへの入力をuj H、両ユ
ニット間の結合の重みwij IH、中間層の第jユニットに
おけるオフセット値をrj Hとすると、これらの関係は次
のように表せる。Now, the input layer IN, the intermediate layer H, and the output layer OUT are denoted by subscripts I, H,
O, the output from the i-th unit in the input layer is v i I , the input to the j-th unit in the hidden layer is u j H , the weight of the connection between both units w ij IH , Assuming that the offset value in the j-th unit is r j H , these relationships can be expressed as follows.
vj I=s(uj H) ……(20) s(uj H)=1/{1+exp(−2uj H/c) ……(21) ここで、cは定数である。また、出力層との間の関係も
同様に、 ただし、rk oは出力層の第Kユニットにおけるオフセッ
ト値 vk o=s(uk o) ……(23) と表せる。このようなニューラルネットの重み、オフセ
ット値を、次のように修正する。 v j I = s (u j H ) (20) s (u j H ) = 1 / {1 + exp (−2 u j H / c) (21) where c is a constant. Similarly, the relationship between the output layer and Here, r k o can be expressed as an offset value v k o = s (u k o ) in the K-th unit of the output layer (23). The weights and offset values of such a neural network are modified as follows.
wjk HO→wjk HO+εwδk ovj H ……(24) wij IH→Wij IH+εwδj Hvi I ……(25) rk o→rk o+εrδk o ……(26) rj H→rj H+εrδj H ……(27) ただし、εw,εrは学習速度を決めるための定数であ
る。また、tkを教師信号とすると、修正量δk o,δ
j Hは、 δk o=(tk−vk o)∂s(uk o)/∂uk o ……(28) で計算される。w jk HO → w jk HO + ε w δ k o v j H …… (24) w ij IH → W ij IH + ε w δ j H v i I …… (25) r k o → r k o + ε r δ k o (26) r j H → r j H + ε r δ j H (27) where ε w and ε r are constants for determining the learning speed. When t k is a teacher signal, the correction amounts δ k o , δ
j H is δ k o = (t k −v k o ) ∂s (u k o ) / ∂u k o (28) Is calculated.
式(21)の値域は0から1までなので、エッジ位置ρ
は−0.5から0.5を0から1に、またエッジ方向θも0か
ら360を0から1になるように線形変換した値を用い
る。ニューラルネットの学習には、エッジ位置ρの刻み
をΔρ画素、エッジ方向θの刻みをΔθ゜として計算し
た濃度パターンを用いる。この場合、ニューラルネット
に入力するエッジ特徴の分割数はエッジ位置ρとエッジ
方向θで異なるので、式(29)による修正ではエッジ位
置ρ、エッジ方向θを同時に効率的な学習を進めること
ができない。そこで、学習速度を速めるためにここでは
修正量として、エッジ位置ρとエッジ方向θの修正量に
それぞれの分割数に比例した重みをかけて学習を行う。
すなわち、式(29)の代わりに を用いる。ただし、k=0,1がそれぞれエッジ位置ρと
エッジ方向θに対応しているとすると、 α0=(1/Δρ)/(360/Δθ+1/Δρ) α1=1−α0 となる。Since the value range of equation (21) is from 0 to 1, the edge position ρ
Uses a value obtained by linearly converting -0.5 to 0.5 from 0 to 1 and an edge direction θ from 0 to 360 from 0 to 1. For learning of the neural network, a density pattern calculated using Δρ pixels as the increment of the edge position ρ and Δθ ゜ as the increment of the edge direction θ is used. In this case, since the number of divisions of the edge feature input to the neural network differs between the edge position ρ and the edge direction θ, efficient correction cannot be simultaneously performed on the edge position ρ and the edge direction θ by the correction using the equation (29). . Therefore, in order to increase the learning speed, learning is performed by weighting the correction amount of the edge position ρ and the edge direction θ in proportion to the number of divisions as the correction amount.
That is, instead of equation (29) Is used. However, if k = 0 and 1 correspond to the edge position ρ and the edge direction θ, respectively, α 0 = (1 / Δρ) / (360 / Δθ + 1 / Δρ) α 1 = 1−α 0 .
(イ)具体例 以上(ア)でのべたエッジ特徴計測原理に基いて、具
体的なエッジ特徴計測方法を説明する。(A) Specific Example A specific edge feature measuring method will be described based on the principle of edge feature measurement described in (A) above.
(a)装置 本エッジ特徴計測方法を実施するための装置の概略を
第7図に示す。CCD固定撮像素子でなるカメラ1から出
力されるアナログ映像信号は、A/D変換器(図略)で256
階調に量子化されるとともに、水平、垂直方向に256、2
40画素に標本化されて計算機のメモリ(図略)に入力さ
れる。なお、今回使用した実験装置では撮像素子とメモ
リの画素とは1対1に対応している。(A) Apparatus FIG. 7 shows an outline of an apparatus for carrying out the present edge feature measuring method. An analog video signal output from the camera 1 composed of a CCD fixed image pickup device is converted into an A / D converter (not shown) by 256
256 and 2 in the horizontal and vertical directions
The data is sampled into 40 pixels and input to a computer memory (not shown). In the experimental apparatus used this time, the image sensor and the pixel of the memory correspond one to one.
反射率の異なる紙を平板上に貼り付けることにより明
るさがステップ状に変化する物体2を作成し、この物体
2を撮像してエッジ画像を入力した。この物体2は移動
ステージ3上に載せてベース4に固定されており、カメ
ラ1の光軸に直交したまま水平方向に移動する。これに
より、第1図に示した画像中でのエッジ位置ρを変える
ことができる。次に、画像中において約20画素離れた2
箇所でエッジ位置を0.1画素の精度で計測する(特願昭6
3−196007号、野村 他3名:“エッジ位置の計測方
法”)とともに、2つのエッジ位置ρの実空間での間隔
をマイクロメータ5で0.001mmの精度で実測した。An object 2 whose brightness changes stepwise was created by attaching papers having different reflectances on a flat plate, and an image of the object 2 was taken and an edge image was input. The object 2 is mounted on a moving stage 3 and fixed to a base 4, and moves in a horizontal direction while being orthogonal to the optical axis of the camera 1. Thus, the edge position ρ in the image shown in FIG. 1 can be changed. Next, in the image, 2 pixels separated by about 20 pixels
Measure the edge position at a location with an accuracy of 0.1 pixel (Japanese Patent Application No. Sho 6
No. 3-196007, Nomura et al .: "Measurement method of edge position"), the distance between two edge positions ρ in real space was actually measured with a micrometer 5 with an accuracy of 0.001 mm.
その結果、実空間寸法と画素寸法との比率は、水平、
垂直両方向とも1.062mm/画素であることがわかった。一
方、カメラ1は回転ステージ6を介してベースに取付け
られており、光軸のまわりに0.1゜の精度で回転が行え
る。これにより、第1図で示したエッジ方向θを変える
ことができる。これらの移動、回転機構により、任意の
エッジ特徴を得ることができる。なお、すべての計測は
画像歪の小さい画像の中央付近で行った。As a result, the ratio between the real space size and the pixel size is horizontal,
It was found that both directions were 1.062 mm / pixel. On the other hand, the camera 1 is mounted on a base via a rotary stage 6, and can rotate around the optical axis with an accuracy of 0.1 °. Thereby, the edge direction θ shown in FIG. 1 can be changed. By these movement and rotation mechanisms, any edge feature can be obtained. Note that all measurements were performed near the center of an image with small image distortion.
(b)計測例 具体的なエッジ特徴計測例を説明する。計測は、第1
工程から第3工程までの3工程から成っている。(B) Measurement Example A specific example of edge feature measurement will be described. Measurement is the first
It consists of three steps from a step to a third step.
第1工程 第1工程は、複数のエッジ位置ρおよび複数のエッジ
方向θの組み合わせに対し、ディジタル画像を入力する
際の点ひろがり関数を考慮してエッジ近傍画素の濃度パ
ターンへの写像A′を得る工程である。そこで、まず式
(18)で示された点ひろがり関数h(x,y)のひろがり
を求める。垂直方向すなわちθ=0゜のステップエッジ
を撮像し、エッジ近傍の水平方向の濃度変化を計測した
結果を第8図に黒丸印●で示す。また、水平方向すなわ
ちθ=90゜のステップエッジを用いて垂直方向の濃度方
向の濃度変化を計測した結果を同じく第8図に白丸印○
で示す。ここで第8図の横軸は、水平あるいは垂直方向
の画素の座標であり、相対値で示している。式(18)の
点ひろがり関数の標準偏差σx,σyを求めるために、第
8図は1次微分を計算し、それを正規分布に回帰した結
果を第9図に示す。ここでは、水平、垂直方向の1次微
分を dg(xs+0.5,ys)/dx =g(xs+1,ys)−g(xs,ys) ……(31) dg(xs,ys+0.5)/dy =g(xs,ys+1)−g(xs,ys) ……(32) より算出した。第9図の黒丸印●および白丸印○はそれ
ぞれ垂直方向、水平方向エッジについて計算された1次
微分の値である。式(17)のたたみ込み計算において、
分布の周辺部分に比べ中心付近に大きな重みがかかり点
ひろがり関数の影響が大きく現れることから、1次微分
が最大となる画素の中心にその前後1画素つまり3画素
について回帰計算を行った。First Step In the first step, for a combination of a plurality of edge positions ρ and a plurality of edge directions θ, a mapping A ′ of a pixel near an edge onto a density pattern is considered in consideration of a point spread function when a digital image is input. This is the step of obtaining. Therefore, first, the spread of the point spread function h (x, y) shown in Expression (18) is obtained. The result of imaging the step edge in the vertical direction, that is, θ = 0 °, and measuring the change in density in the horizontal direction near the edge is indicated by a black circle in FIG. Also, the result of measuring the density change in the density direction in the vertical direction using the step edge of the horizontal direction, that is, θ = 90 °, is shown in FIG.
Indicated by Here, the horizontal axis in FIG. 8 is the coordinate of the pixel in the horizontal or vertical direction, and is indicated by a relative value. In order to obtain the standard deviations σ x and σ y of the point spread function of the equation (18), FIG. 8 shows the result of calculating the first derivative and regressing it to a normal distribution. Here, horizontal, vertical first derivative of dg (x s + 0.5, y s) / dx = g (x s + 1, y s) -g (x s, y s) ...... (31) dg (x s, y s +0.5) / dy = g (x s, y s +1) -g (x s, y s) was calculated from the ... (32). The black circles and white circles in FIG. 9 are the values of the first derivative calculated for the vertical and horizontal edges, respectively. In the convolution calculation of equation (17),
Since a larger weight is applied to the vicinity of the center than the peripheral portion of the distribution and the influence of the point spread function appears greatly, regression calculation was performed for one pixel before and after the center of the pixel at which the first derivative is maximum, that is, three pixels.
第9図に示す実線および破線はそれぞれ黒丸印●、白
丸印○にあてはめられた正規分布曲線である。σx,σy
の値はエッジ画素内でのエッジ位置ρによって平均値を
中心に約5%変化するので、水平、垂直方向それぞれに
ついてエッジ位置ρを0.1画素ずつ1画素分変化させて
σx,σyを計測し、その平均値である1.03画素、0.77画
素を用いることとした。The solid and broken lines shown in FIG. 9 are the normal distribution curves applied to the black circles and the white circles, respectively. σ x , σ y
Is about 5% centered on the average value depending on the edge position ρ in the edge pixel, so that σ x and σ y are measured by changing the edge position ρ by one pixel in each of the horizontal and vertical directions by 0.1 pixel. Then, the average values of 1.03 pixels and 0.77 pixels were used.
このようにして得られた点ひろがり関数とエッジ特徴
からそれに対応するエッジ近傍画素の濃度パターンが計
算できる。エッジ位置ρを0.1画素刻みで、またエッジ
方向θを1゜刻みで変えながら濃度パターンを求める。
だだし、式(17)の積分計算は、ここでは1画素を水
平、垂直方向それぞれについて11分割してすなわち1画
素を121個の部分領域に分割して行った。なお、濃度は
正規化された値が用いられるので第1図のf1,f2はいく
つでもよくf1を0、f2を1として計算した。エッジ近傍
画素の濃度パターンの計算結果の1例として、ρ=0で
θ=0、ρ=0.2でθ=30゜の場合を第10図を示す。こ
の第10図において中央の画素がエッジ画素であり、画素
内に書かれている数値は正規化濃度である。From the point spread function and the edge feature obtained in this way, the density pattern of the corresponding pixel near the edge can be calculated. The density pattern is obtained while changing the edge position ρ by 0.1 pixel and the edge direction θ by 1 °.
However, the integral calculation of equation (17) was performed here by dividing one pixel into 11 parts in each of the horizontal and vertical directions, that is, dividing one pixel into 121 partial areas. Since a normalized value is used as the concentration, any number of f 1 and f 2 in FIG. 1 may be used, and the calculation is performed with f 1 being 0 and f 2 being 1. As an example of the calculation result of the density pattern of the pixel near the edge, FIG. 10 shows a case where θ = 0 when ρ = 0 and θ = 30 ° when ρ = 0.2. In FIG. 10, the central pixel is an edge pixel, and the numerical value written in the pixel is the normalized density.
第2工程 第2工程は、第1工程で算出された写像A′の逆写
像、即ち、複数のエッジ近傍画素の濃度パターンからエ
ッジ位置およびエッジ方向への写像Aを、濃度を入力と
しエッジ位置ρおよびエッジ方向θを出力とする誤差逆
伝搬型ニューラルネットを用いて決定する工程である。
エッジ位置ρは−0.5から0.4画素まで、またエッジ方向
θは0から90゜までについて、エッジ位置ρの刻みΔρ
を0.1画素、エッジ方向θの刻みΔθを1゜として900種
類の正規化濃度パターンを入力として50000回学習を行
った。Second Step The second step is a reverse mapping of the mapping A 'calculated in the first step, that is, a mapping A in the edge position and the edge direction from the density pattern of the plurality of pixels near the edge is input to the density and This is a step of determining using an error back propagation type neural network that outputs ρ and the edge direction θ.
The edge position ρ is from −0.5 to 0.4 pixels, and the edge direction θ is from 0 to 90 °.
Were learned 50,000 times by inputting 900 kinds of normalized density patterns, with 0.1 as a pixel and a step Δθ in the edge direction θ of 1 °.
学習を高速化するために、最初の20000回はエッジ方
向θは5゜おきとして、0゜,5゜,10゜,…,90゜の濃度
パターンだけを用い、次の30000回は学習回数とともに
エッジ方向θを1゜ずつずらして5回で1まわりするよ
うに、すなわち、0゜,5゜,10゜,…,1゜,6゜,11゜,
…,2゜,7゜,12゜,…,3゜,7゜,13゜,…,4゜,9゜,14
゜,…の濃度パターンを繰り返し用いて1゜刻みの学習
を行った。式(19),(22)の重みとオフセット値の初
期値は0から1までの間の乱数を発生させることにより
与えた。In order to speed up the learning, the edge direction θ is set every 5 ° for the first 20,000 times, and only the density pattern of 0 °, 5 °, 10 °,..., 90 ° is used. The edge direction θ is shifted by 1 ° so as to make one round in five times, that is, 0 °, 5 °, 10 °, ..., 1 °, 6 °, 11 °,
…, 2 ゜, 7 ゜, 12 ゜,…, 3 ゜, 7 ゜, 13 ゜,…, 4 ゜, 9 ゜, 14
Learning was performed in 1 ゜ increments by repeatedly using the density patterns of ゜,. The initial values of the weights and the offset values in Equations (19) and (22) are given by generating random numbers between 0 and 1.
また、式(21)および式(24)〜(27)のc,εw,εr
はそれぞれ1.2,0.6,0.6,とした。このような学習によ
り、教師信号とニューラルネットの出力差の2乗和すな
わち2乗誤差を計算した結果を第11図(a)に示す。ま
た、各学習回数における全パターン中の最大エッジ特徴
計測誤差の絶対値を第11図(b)に示す。第11図の横軸
はいずれも学習回数であり、第11図(a)の縦軸は1回
目に計算された結果で正規化した2乗誤差を示してい
る。第11図(a),(b)において、破線はエッジ位置
ρの結果を、また実線はエッジ方向θの結果を示してお
り、20回おきにサンプリングしたデータを図に示してい
る。第11図よりニューラルネットは収束しており、5000
0回学習後のエッジ位置ρ、エッジ方向θの誤差もそれ
ぞれ最大で0.027画素、 0.85゜と十分な学習が行われていることがわかる。この
結果、エッジ近傍画素の濃度パターンからエッジ特徴へ
の写像Aが決定されたことがわかる。In addition, c, ε w , ε r in Expression (21) and Expressions (24) to (27)
Are 1.2, 0.6, 0.6, respectively. FIG. 11 (a) shows the result of calculating the sum of squares of the output difference between the teacher signal and the neural network, that is, the square error, by such learning. FIG. 11B shows the absolute value of the maximum edge feature measurement error in all the patterns at each learning count. The horizontal axis in FIG. 11 indicates the number of times of learning, and the vertical axis in FIG. 11 (a) indicates the square error normalized by the result calculated for the first time. 11 (a) and 11 (b), the dashed line shows the result of the edge position ρ, and the solid line shows the result of the edge direction θ, and data sampled every 20 times is shown in the figure. From Fig. 11, the neural network has converged to 5000
It can be seen that the errors in the edge position ρ and the edge direction θ after the 0-time learning are 0.027 pixels and 0.85 ° at maximum, respectively, indicating that sufficient learning has been performed. As a result, it can be seen that the mapping A to the edge feature was determined from the density pattern of the pixel near the edge.
第3工程 第3工程は、第2工程で決定された写像Aを用いて、
実際に入力した任意の画像においてエッジ近傍画素の濃
度パターンからエッジ特徴を算出する工程である。実際
に画像を入力しエッジ特徴を計測した結果をエッジ位
置、エッジ方向の順に説明する。Third step The third step uses the mapping A determined in the second step,
This is a step of calculating an edge feature from a density pattern of pixels near the edge in an actually input arbitrary image. The result of actually inputting an image and measuring the edge characteristics will be described in the order of the edge position and the edge direction.
(i)エッジ位置ρの計測 θ=0゜すなわち垂直エッジを水平方向に画像中の0.
1画素に相当する実空間での距離として0.106mmずつ移動
しながらエッジ画像を入力し、エッジ位置ρを計測し
た。約1画素の移動に対して計測した結果を第12図
(a)に示す、第12図の横軸は移動量より計算されるエ
ッジの画素内で相対的な位置であり、縦軸は入力画像の
3×3画素の正規化濃度を学習後のニューラルネットに
入力して得られたエッジ位置ρを示している。白丸印○
は計測値では、実線は○に対して最小2乗法により傾き
1の直線を引いた結果である。計測結果のばらつきの標
準偏差は0.043画素であり、精度良くエッジ位置が計測
されていることがわかる。また、エッジ方向θ=30゜,4
5゜,90゜について、垂直エッジの場合と同様に0.1画素
ずつ約10回すなわち1画素分移動して計測した結果を第
12図(b),(c),(d)に示す。これらいずれの図
においても白丸印○は計測値、実線はあてはめられた傾
き1の直線である。それぞれの計測結果のばらつきの標
準偏差は0.016,0.018,0.051画素であり、いずれの場合
についても本方法により精度良くエッジ位置を計測でき
ることが確認された。(I) Measurement of edge position ρ θ = 0 ゜ That is, the vertical edge is set to 0 in the image in the horizontal direction.
An edge image was input while moving by 0.106 mm as a distance in a real space corresponding to one pixel, and an edge position ρ was measured. FIG. 12 (a) shows the result measured for the movement of about one pixel. The horizontal axis in FIG. 12 is the relative position within the pixel of the edge calculated from the movement amount, and the vertical axis is the input. The edge position ρ obtained by inputting the normalized density of 3 × 3 pixels of the image to the neural network after learning is shown. White circle ○
Is a measured value, and the solid line is the result of drawing a straight line with a slope of 1 by using the least squares method. The standard deviation of the variation of the measurement result is 0.043 pixel, which indicates that the edge position is measured with high accuracy. Edge direction θ = 30 °, 4
For 5 ゜ and 90 ゜, the result of moving about 10 times in 0.1 pixel increments, that is, one pixel, as in the case of the vertical edge, is the
12 (b), (c), and (d). In each of these figures, white circles ○ are measured values, and solid lines are the fitted straight lines having a slope of 1. The standard deviation of the variation of each measurement result was 0.016, 0.018, and 0.051 pixels, and it was confirmed that the edge position could be accurately measured by this method in any case.
(ii)エッジ方向θの計測 カメラを光軸のまわり回転させることにより、物体の
境界すなわちエッジ方向θを0゜から90゜まで1゜刻み
で変化させてエッジ方向計測実験を行った。その結果を
第13図に示す。この第13図の横軸は設定したエッジ方
向、縦軸は計測されたエッジ方向であり、白丸印○は計
測値である。計測結果のばらつきの標準偏差は0.69゜で
あり、最大値でも1.82゜であった。この結果、本方法に
よりエッジ方向についても精度良く計測できることが確
認された。(Ii) Measurement of Edge Direction θ An edge direction measurement experiment was performed by rotating the camera around the optical axis to change the boundary of the object, that is, the edge direction θ from 0 ° to 90 ° in steps of 1 °. The results are shown in FIG. The horizontal axis in FIG. 13 is the set edge direction, the vertical axis is the measured edge direction, and white circles ○ are the measured values. The standard deviation of the measurement results was 0.69 ゜, and the maximum was 1.82 ゜. As a result, it was confirmed that the method can measure the edge direction with high accuracy.
(発明の効果) 以上説明したように、本発明のエッジ特徴計測方法
は、エッジ特徴ととも走査線方向とそれに直交する方向
の点ひろがり関数をもパラメータとして導入することに
より、従来用いられてきた理想的なステップエッジモデ
ルに比べ、より実際の入力画像に一致して実エッジモデ
ルへのあてはめを行っている。この実エッジモデルを用
いて、エッジ特徴からエッジ近傍画素の濃度パターンへ
の写像を求め、この逆写像すなわち濃度パターンからエ
ッジ特徴への変化を、3層構造からなる誤差逆伝搬型ニ
ューラルネットを用いて決定する。そして、実際の計測
においては、この求められた逆写像に、入力画像の正規
化濃度パターンを入力してエッジ特徴への変換を行うも
のである。したがって、本方法は、従来の方法に比べ次
のような利点がある。(Effect of the Invention) As described above, the edge feature measuring method of the present invention has been conventionally used by introducing, as parameters, a point spread function in a scanning line direction and a direction orthogonal to the edge feature in addition to the edge feature. Compared to the ideal step edge model, the fitting to the real edge model is performed in accordance with the actual input image. Using this real edge model, a mapping from the edge feature to the density pattern of the pixels near the edge is obtained, and the inverse mapping, that is, the change from the density pattern to the edge feature, is performed using an error back propagation neural network having a three-layer structure. To decide. Then, in actual measurement, a normalized density pattern of the input image is input to the obtained inverse mapping to convert it into an edge feature. Therefore, the present method has the following advantages over the conventional method.
(i)誤差逆伝搬型ニューラルネットを用いることによ
り、解析的に解くことのできない実エッジモデルにあて
はめることができる。(I) By using the backpropagation type neural network, it can be applied to a real edge model that cannot be solved analytically.
(ii)入力画像のエッジ濃度パターンに一致した実エッ
ジモデルへあてはめることから、局所的な情報からでも
エッジ特徴が高精度に計測できる。実際にエッジ位置お
よびエッジ方向を変えながらエッジ特徴計測実験を行っ
た結果、エッジ位置とエッジ方向の計測結果のばらつき
の標準偏差値はそれぞれ0.016から0.051画素、0.69゜で
あり、高精度にエッジ特徴が計測できることが確認され
た。(Ii) Since it is applied to an actual edge model that matches the edge density pattern of the input image, the edge feature can be measured with high accuracy even from local information. As a result of the edge feature measurement experiment while actually changing the edge position and the edge direction, the standard deviation values of the variation of the measurement result of the edge position and the edge direction are 0.016 to 0.051 pixels and 0.69 ゜, respectively. Was measured.
(iii)従来は各エッジ画素について1画素ずつ順番に
処理するために長い処理時間が必要であったが、それに
対して本方法はニューラルネットの利点の1つである並
列処理の適用が可能なのでエッジ特徴をリアルタイムに
計測できる。(Iii) Conventionally, a long processing time was required to sequentially process each edge pixel one by one. On the other hand, the present method can apply parallel processing, which is one of the advantages of the neural network. Edge features can be measured in real time.
(iv)点ひろがり関数をも考慮してエッジをモデル化し
ているので、どのような画像入力装置に対しても画像入
力時の点ひろがり関数を求めることにより、精度良くエ
ッジ特徴を計測できる。(Iv) Since the edge is modeled in consideration of the point spread function, the edge feature can be accurately measured by obtaining the point spread function at the time of image input to any image input device.
第1図はエッジ特徴を説明するための図、第2図はエッ
ジモデルを説明するための図、第3図はHueckelが用い
た9つの正規直交関数を説明するための図、第4図は従
来技術のテーブル参照によるエッジ特徴計測方法を説明
するための図、第5図はエッジ画素であるためにエッジ
特徴が満たすべき条件を示した図、第6図はエッジ近傍
画素の濃度パターンからエッジ特徴への写像の求め方を
説明するための図、第7図は本発明を実施するための装
置例を示す図、第8図は入力画像におけるエッジ近傍で
の濃度変化を示した図、第9図は第8図の1次微分とこ
の結果から点ひろがり関数を求める方法を説明するため
の図、第10図は実エッジモデルを用いて計算されたエッ
ジ近傍画素の濃度パターンの1例を示した図、第11図は
エッジ近傍画素の濃度パターンからエッジ特徴への写像
を決定するためのニューラルネットの学習の様子を示し
た図、第12図はエッジ位置の計測結果を示した図、第13
図はエッジ方向の計測結果を示した図である。 1……カメラ、2……物体、3……移動ステージ、4…
…ベース、5……マイクロメータ、6……回転ステー
ジ。FIG. 1 is a diagram for explaining an edge feature, FIG. 2 is a diagram for explaining an edge model, FIG. 3 is a diagram for explaining nine orthonormal functions used by Hueckel, and FIG. FIG. 5 is a diagram for explaining an edge feature measuring method by referring to a table of the prior art, FIG. 5 is a diagram showing conditions to be satisfied by an edge feature because the pixel is an edge pixel, and FIG. FIG. 7 is a diagram for explaining how to obtain a mapping to a feature, FIG. 7 is a diagram showing an example of an apparatus for implementing the present invention, FIG. 8 is a diagram showing a density change near an edge in an input image; FIG. 9 is a diagram for explaining the first derivative of FIG. 8 and a method for obtaining a point spread function from the result, and FIG. 10 is an example of a density pattern of a pixel near an edge calculated using a real edge model. FIG. 11 shows the density of the pixel near the edge. Shows the state of learning of the neural network to determine the mapping from the turn to edge features, Figure 12 Figure shows the measurement result of the edge position, the 13
The figure shows the measurement results in the edge direction. 1 ... camera, 2 ... object, 3 ... moving stage, 4 ...
... Base, 5 ... Micrometer, 6 ... Rotary stage.
フロントページの続き (72)発明者 山田 孝行 東京都千代田区内幸町1丁目1番6号 日本電信電話株式会社内 (56)参考文献 特開 平3−251968(JP,A) 特開 平2−45886(JP,A) 特開 昭61−52063(JP,A) (58)調査した分野(Int.Cl.6,DB名) G06T 1/00 - 9/20 Continuation of the front page (72) Inventor Takayuki Yamada 1-1-6 Uchisaiwaicho, Chiyoda-ku, Tokyo Nippon Telegraph and Telephone Corporation (56) References JP-A-3-251968 (JP, A) JP-A-2-45886 (JP, A) JP-A-61-52063 (JP, A) (58) Fields investigated (Int. Cl. 6 , DB name) G06T 1/00-9/20
Claims (1)
濃度を用いてエッジ位置および方向を計測するエッジ特
徴計測方法において、 複数のエッジ位置および複数のエッジ方向の組み合わせ
に対し、ディジタル画像を入力する際の点ひろがり関数
を考慮してエッジ近傍画素の濃度パターンへの写像を得
る第1工程と、 前記第1工程で算出された複数のエッジ近傍画素の濃度
パターンからエッジ位置およびエッジ方向への逆写像
を、濃度を入力としてエッジ位置およびエッジ方向を出
力とする誤差逆伝搬型ニューラルネットを用いて決定す
る第2工程と、 前記第2工程で決定された逆写像を用いて、実際に入力
した任意の画像においてエッジ近傍画素の濃度パターン
からエッジ位置およびエッジ方向を算出する第3工程
と、 から成ることを特徴とするエッジ特徴計測方法。An edge feature measuring method for measuring an edge position and a direction using the density of a pixel near an edge in a digital image, the method comprising: inputting a digital image to a combination of a plurality of edge positions and a plurality of edge directions; A first step of obtaining a mapping of an edge neighboring pixel to a density pattern in consideration of a point spread function; and a reverse mapping in the edge position and the edge direction from the density pattern of the plurality of edge neighboring pixels calculated in the first step. A second step of determining using an error back-propagation type neural network with density as an input and an edge position and an edge direction as an output; and using the inverse mapping determined in the second step, any actually input A third step of calculating an edge position and an edge direction from a density pattern of pixels near the edge in the image. Edge feature measurement method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2291769A JP2925707B2 (en) | 1990-10-31 | 1990-10-31 | Edge feature measurement method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2291769A JP2925707B2 (en) | 1990-10-31 | 1990-10-31 | Edge feature measurement method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH04167081A JPH04167081A (en) | 1992-06-15 |
JP2925707B2 true JP2925707B2 (en) | 1999-07-28 |
Family
ID=17773186
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2291769A Expired - Fee Related JP2925707B2 (en) | 1990-10-31 | 1990-10-31 | Edge feature measurement method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2925707B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2818644B2 (en) * | 1995-06-29 | 1998-10-30 | アジアエレクトロニクス株式会社 | Micro shape detector |
GB2328355B (en) * | 1997-08-05 | 2002-04-17 | Canon Kk | Image processing apparatus |
-
1990
- 1990-10-31 JP JP2291769A patent/JP2925707B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH04167081A (en) | 1992-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113012234B (en) | High-precision camera calibration method based on plane transformation | |
US6768509B1 (en) | Method and apparatus for determining points of interest on an image of a camera calibration object | |
CN112651968B (en) | Wood board deformation and pit detection method based on depth information | |
CN111083365B (en) | Method and device for rapidly detecting optimal focal plane position | |
JP2002509259A (en) | Method and apparatus for three-dimensional inspection of electronic components | |
JPH0869534A (en) | Method and equipment for detection of image quality | |
WO2022126870A1 (en) | Three-dimensional imaging method and method based on light field camera and three-dimensional imaging measuring production line | |
CN113324478A (en) | Center extraction method of line structured light and three-dimensional measurement method of forge piece | |
CN110533686A (en) | Line-scan digital camera line frequency and the whether matched judgment method of speed of moving body and system | |
JP3350822B2 (en) | Edge detection method on image | |
CN113505626A (en) | Rapid three-dimensional fingerprint acquisition method and system | |
CN114998448A (en) | Method for calibrating multi-constraint binocular fisheye camera and positioning space point | |
CN115082538A (en) | System and method for three-dimensional reconstruction of surface of multi-view vision balance ring part based on line structure light projection | |
JP2925707B2 (en) | Edge feature measurement method | |
CN115115776A (en) | Single image three-dimensional human body reconstruction method and device based on shadow | |
CN113689397A (en) | Workpiece circular hole feature detection method and workpiece circular hole feature detection device | |
CN117452347A (en) | Precision testing method of depth camera, related device and storage medium | |
CN114674244B (en) | Coaxial normal incidence speckle deflection measurement method and device | |
JPH076777B2 (en) | Pattern contour detection method and length measuring apparatus using this method | |
CN116343215A (en) | Inclination correction method and system for document image | |
CN209279912U (en) | A kind of object dimensional information collecting device | |
CN115018735A (en) | Fracture width identification method and system for correcting two-dimensional code image based on Hough transform | |
CN114913241A (en) | Structured light 3D camera calibration method and device | |
CN112149578B (en) | Face skin material calculation method, device and equipment based on face three-dimensional model | |
JP7527532B1 (en) | IMAGE POINT CLOUD DATA PROCESSING APPARATUS, IMAGE POINT CLOUD DATA PROCESSING METHOD, AND IMAGE POINT CLOUD DATA PROCESSING PROGRAM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090507 Year of fee payment: 10 |
|
LAPS | Cancellation because of no payment of annual fees |