JP2000207557A - Method for measuring quantity of positional deviation - Google Patents

Method for measuring quantity of positional deviation

Info

Publication number
JP2000207557A
JP2000207557A JP11003956A JP395699A JP2000207557A JP 2000207557 A JP2000207557 A JP 2000207557A JP 11003956 A JP11003956 A JP 11003956A JP 395699 A JP395699 A JP 395699A JP 2000207557 A JP2000207557 A JP 2000207557A
Authority
JP
Japan
Prior art keywords
image
edge
point
points
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11003956A
Other languages
Japanese (ja)
Inventor
Haruhiko Yokoyama
晴彦 横山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP11003956A priority Critical patent/JP2000207557A/en
Publication of JP2000207557A publication Critical patent/JP2000207557A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce processing time by smoothing a virtually transformed image, specifying a coordinates point having a maximum count value in the smoothed virtually transformed image and defining the coordinates of the specified coordinates point as the positional deviation of a measurement object. SOLUTION: The relative coordinates between both edge points are calculated about the combinations of respective all of some tens of edge pints of an obtained reference image with respective all of some hundreds of edge points of an edge extracted image, and the calculated relative coordinates are plotted on a virtual plane 7. In such a case, the count value of coordinates points (x' and y') to be plotted is counted up by one whenever plotting to obtain a virtually transformed image. The virtually transformed image is smoothed. Scanning is performed in the smoothed virtually transformed image 9, coordinates point A having a maximum count value Fmax is specified, and the X and Y components (x'max and y'max) of the specified coordinates point A are defined as the positional deviations (x'max and y'max) of a measurement object. Thus, the positional deviation measurement of one piece of a measurement object is finished.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、回路基板やウエハ
基板などの計測対象品を、平面方向に正確に位置決めす
るために用いられる位置ずれ量計測方法に関するもので
ある。
[0001] 1. Field of the Invention [0002] The present invention relates to a method for measuring a displacement amount used for accurately positioning an object to be measured such as a circuit board or a wafer substrate in a planar direction.

【0002】[0002]

【従来の技術】表面に画像パターンが形成されている回
路基板などの計測対象品を、画像処理にて位置決めする
ために用いられる位置ずれ量計測方法として、画像処理
のテンプレートマッチング法を利用するものが従来から
知られている。この方法は、図1、図11、図12に示
すように、パターン照合の基準となる基準画像2をテン
プレート10としてメモリーに登録しておき、このテン
プレート10を計測対象品の入力画像1上でラスター走
査させながら、テンプレート10と入力画像1との照合
を行い、入力画像1中のどの位置にテンプレート10と
ほぼ合致するパターンがあるかを求めるものである。テ
ンプレート10には、手本となる基準対象品の全画像の
内で、パターンに特徴があって他の部分と区別でき位置
も特定できる部分の画像が選ばれる。
2. Description of the Related Art A method using a template matching method of image processing as a method of measuring a displacement amount used for positioning an object to be measured such as a circuit board having an image pattern formed on its surface by image processing. Is conventionally known. In this method, as shown in FIGS. 1, 11, and 12, a reference image 2 serving as a reference for pattern matching is registered in a memory as a template 10, and the template 10 is stored on an input image 1 of a measurement target product. The template 10 and the input image 1 are collated while being raster-scanned, and a position in the input image 1 where a pattern substantially matching the template 10 is found. As the template 10, an image of a part whose pattern is characteristic and which can be distinguished from other parts and whose position can be specified is selected from all the images of the reference target product serving as a model.

【0003】従来の位置ずれ量計測方法の一例は、先
ず、基準対象品の参照範囲を撮像し、例えば横32画素
×縦32画素の各画素点が持つデジタルデータ(例えば
濃度データ)で構成されるテンプレート10としてメモ
リーに登録しておく。計測時には、計測対象品の対象範
囲を撮像し、例えば横500画素×縦500画素の各画
素点が持つデジタルデータで構成される入力画像1をメ
モリーに格納する。次いで、テンプレート10を入力画
像1上でソフトウエア的にラスター走査して、1ドット
ずつずらす毎に逐一テンプレート10とこのテンプレー
ト10が重なっている部分の入力画像1との合致度合い
を下記のテンプレート残差Rで評価し、テンプレート残
差Rが最小になる走査位置をもって、計測対象品の位置
を検出する。
An example of a conventional method of measuring the amount of displacement is to first capture an image of a reference range of a reference target product, and include, for example, digital data (for example, density data) held at each pixel point of 32 pixels by 32 pixels. Is registered in the memory as a template 10 to be used. At the time of measurement, the target range of the measurement target product is imaged, and an input image 1 composed of digital data of each pixel point of, for example, 500 pixels horizontally × 500 pixels vertically is stored in a memory. Next, the template 10 is raster-scanned by software on the input image 1 and the degree of matching between the template 10 and the input image 1 in a portion where the template 10 overlaps is shifted by one dot each time by the following template residual. The position of the object to be measured is detected based on the scanning position at which the evaluation is made based on the difference R and the template residual R is minimized.

【0004】テンプレート10の基準点(i=0,j=
0)の走査位置が入力画像1上のある座標(x,y)に
あるときのテンプレート残差R(x,y)は、テンプレ
ート10の全点の値Tとそれぞれの点が重なっている入
力画像1上の画素点の値Pとの差の絶対値の合計を式
(1) にて算出する。
The reference point (i = 0, j =
When the scanning position of (0) is at a certain coordinate (x, y) on the input image 1, the template residual R (x, y) is obtained by inputting the value T of all points of the template 10 and overlapping each point. The sum of the absolute value of the difference from the value P of the pixel point on the image 1 is expressed by the following equation.
Calculate in (1).

【0005】[0005]

【数1】 (Equation 1)

【0006】ここで、(i,j)はテンプレート10上
の座標を、T(i,j)はテンプレート10上の座標
(i,j)におけるテンプレート10のデータ値を、P
(x,y)は入力画像1上の座標(x,y)における入
力画像1のデータ値を、それぞれ示す。
Here, (i, j) represents the coordinates on the template 10, T (i, j) represents the data value of the template 10 at the coordinates (i, j) on the template 10, P
(X, y) indicates the data value of the input image 1 at the coordinates (x, y) on the input image 1, respectively.

【0007】[0007]

【発明が解決しようとする課題】しかしながら、従来の
位置ずれ量計測方法では、式(1) から判るように、テン
プレート10内の全ての点のデータ値T(i,j)がそ
れぞれ対応する入力画像1上の画素点の値P(x,y)
に十分に近い値にならなければ、テンプレート残差Rは
十分に小さい値とならない。すなわち、計測対象品の全
体あるいは部分の反射率がばらついたり、照明による計
測対象品の全体あるいは部分の照度が変動したりする
と、テンプレート10がパターンの合致した走査位置に
あってもテンプレート残差Rは十分に小さい値とならな
い。すなわち、計測対象品の表面の曇りなどの汚れや照
明ムラなどがあると、それらの影響を大きく受けて、パ
ターンがほぼ合致する走査位置を検出できないこともあ
り、位置ずれ量計測の信頼性が高くないという問題があ
る。
However, in the conventional method for measuring the amount of displacement, as can be seen from equation (1), the data values T (i, j) of all points in the template 10 correspond to the corresponding input values. Pixel point value P (x, y) on image 1
If the value of the template residual R does not become sufficiently close to the value, the template residual R does not become a sufficiently small value. That is, if the reflectance of the whole or part of the measurement target varies, or if the illuminance of the whole or part of the measurement target fluctuates due to illumination, even if the template 10 is at the scanning position where the pattern matches, the template residual R Is not a sufficiently small value. In other words, if there is dirt such as fogging on the surface of the object to be measured or illumination unevenness, the scanning position where the pattern almost matches may not be detected due to such influences, and the reliability of the measurement of the displacement amount may be reduced. There is a problem that it is not high.

【0008】また、式(1) のテンプレート残差R(x,
y)の計算を、入力画像1上のほぼ全座標点毎に行うの
で、1枚の回路基板の位置ずれ量計測に膨大な計算処理
を必要とし、大きな処理時間を要するという問題があ
る。すなわち、P−Tという引き算処理だけにかぎって
も、その計算処理数は、ほぼ入力画像1の全画素数と基
準画像2の全画素数との積という膨大な数(数億)にな
る。
Further, the template residual R (x,
Since the calculation of y) is performed for almost all the coordinate points on the input image 1, there is a problem that an enormous amount of calculation processing is required for measuring the amount of displacement of one circuit board, and a long processing time is required. That is, even if only the subtraction process of PT is performed, the number of calculation processes becomes a huge number (several hundred millions) of the product of the total number of pixels of the input image 1 and the total number of pixels of the reference image 2.

【0009】本発明は、上記問題に鑑み、計測対象品の
汚れや照明ムラがあっても、それらの影響を受け難く信
頼性の高い位置ずれ量計測ができ、しかも処理時間を低
減させることができる位置ずれ量計測方法を提供するこ
とを目的とする。
SUMMARY OF THE INVENTION In view of the above problems, the present invention makes it possible to measure a position shift amount with high reliability, which is hardly affected by dirt and uneven illumination of a measurement object, and to reduce the processing time. It is an object of the present invention to provide a method for measuring a displacement amount that can be performed.

【0010】[0010]

【課題を解決するための手段】本発明は、上記目的を達
成するため、計測対象品を撮像して得た入力画像と、画
像照合および位置の基準となる基準画像とに基づいて計
測対象品の位置ずれ量を求める位置ずれ量計測方法にお
いて、基準画像から基準エッジ点を抽出し、抽出した全
ての基準エッジ点からなるマスター画像を登録してお
き、計測対象品の対象範囲を撮像し、撮像した入力画像
からエッジ点を抽出し、抽出した全てのエッジ点からな
るエッジ抽出画像を格納し、前記マスター画像の全基準
エッジ点それぞれと前記エッジ抽出画像の全エッジ点そ
れぞれとの組合せについて両エッジ点間の相対座標を求
め、求めた相対座標を仮想平面にプロットする毎に、プ
ロットされる座標点のカウント値を1ずつカウントアッ
プして仮想変換画像を得た後、この仮想変換画像を平滑
化し、平滑化した仮想変換画像内で最大のカウント値を
持つ座標点を特定し、特定した座標点の座標をもって計
測対象品の位置ずれ量とすることを特徴とする。
SUMMARY OF THE INVENTION In order to achieve the above object, the present invention provides an object to be measured based on an input image obtained by imaging the object to be measured and a reference image serving as a reference for image comparison and position. In the displacement amount measurement method for calculating the displacement amount of the reference edge point is extracted from the reference image, a master image including all the extracted reference edge points is registered, and the target range of the measurement target product is imaged. An edge point is extracted from the captured input image, an edge extraction image including all the extracted edge points is stored, and both the reference edge points of the master image and the edge points of the edge extraction image are combined. Each time the relative coordinates between the edge points are obtained and the obtained relative coordinates are plotted on the virtual plane, the count value of the plotted coordinate points is incremented by one, and the virtual converted image is obtained. After that, the virtual conversion image is smoothed, the coordinate point having the largest count value is specified in the smoothed virtual conversion image, and the coordinates of the specified coordinate point are used as the positional deviation amount of the measurement object. Features.

【0011】本発明の位置ずれ量計測方法によれば下記
の作用を営むことができる。先ず、マスター画像のある
一つの基準エッジ点とエッジ抽出画像の全エッジ点それ
ぞれとの間の相対座標を仮想平面にプロットすると、前
記一つの基準エッジ点に適合する一つのエッジ点による
プロット点を含めエッジ抽出画像の全エッジ点群による
あるプロット点群が仮想平面上に分布する(図6のプロ
ット点群8a参照)。
According to the displacement measuring method of the present invention, the following operation can be performed. First, plotting the relative coordinates between a certain reference edge point of the master image and each of all the edge points of the edge extracted image on a virtual plane, a plot point by one edge point matching the one reference edge point is obtained. A certain plot point group based on all edge point groups of the edge extraction image including the distribution is distributed on the virtual plane (see plot point group 8a in FIG. 6).

【0012】次いで、マスター画像の別の基準エッジ点
の1点毎にそれぞれ互いに異なった前記のようなプロッ
ト点群が仮想平面上に分布する(図6のプロット点群8
b、8c参照)。さて、前記の多数のそれぞれ異なった
プロット点群の中には、それぞれの基準エッジ点に適合
する一つのエッジ点によるプロット点がそれぞれ1点存
在し、それらのプロット点は全てマスター画像とエッジ
抽出画像との相対座標とほぼ同じ相対座標を示すはずで
ある(図6、図7の点A参照)。従って、マスター画像
の全基準エッジ点それぞれとエッジ抽出画像の全エッジ
点それぞれとの組合せについて両エッジ点間の相対座標
を求め、求めた相対座標を仮想平面にプロットする毎
に、プロットされる座標点のカウント値を1ずつカウン
トアップして仮想変換画像を得ると、前記の多数のそれ
ぞれ異なったプロット点群が仮想平面上に重ね合わされ
るので、マスター画像とエッジ抽出画像との相対座標点
およびその近傍のカウント値が大きな値となるかあるい
は相対座標点の近傍にプロット点が密集する(図7、図
8の点A参照)。そして、仮想変換画像を適正に平滑化
すると、マスター画像とエッジ抽出画像との相対座標点
またはその極近傍の点が最大のカウント値を示すはずで
ある(図10の点A参照)。従って、平滑化した仮想変
換画像内で最大のカウント値Fmax を持つ座標点Aを特
定し、特定した座標点Aの座標 (x'max ,y'max) をも
って計測対象品の位置ずれ量 (x'max ,y'max) とする
ことができる(図10参照)。また、マスター画像の全
基準エッジ点それぞれとエッジ抽出画像の全エッジ点そ
れぞれとの全組合せ数は、マスター画像の横また縦画素
数と入力画像の横また縦画素数との積程度の次数である
ので、従来のテンプレートマッチング法に比べて、はる
かに少ない演算処理数で位置ずれ量計測ができ、処理時
間を低減させることができる。
Next, a group of plot points different from each other are distributed on the virtual plane for each of the other reference edge points of the master image (the plot point group 8 in FIG. 6).
b, 8c). Now, in the group of many different plot points, there is one plot point by one edge point that conforms to each reference edge point, and all the plot points are the master image and the edge extracted. The coordinates should be substantially the same as the coordinates relative to the image (see point A in FIGS. 6 and 7). Therefore, for each combination of all the reference edge points of the master image and all the edge points of the edge extracted image, the relative coordinates between the two edge points are obtained, and the plotted coordinates are plotted every time the obtained relative coordinates are plotted on the virtual plane. When the count value of a point is counted up by one to obtain a virtual conversion image, a large number of different plot points are superimposed on the virtual plane, so that the relative coordinate points of the master image and the edge extraction image and The count value in the vicinity becomes a large value, or the plot points are concentrated near the relative coordinate points (see point A in FIGS. 7 and 8). Then, when the virtual conversion image is appropriately smoothed, the relative coordinate point between the master image and the edge extracted image or a point in the immediate vicinity thereof should show the maximum count value (see point A in FIG. 10). Accordingly, the coordinate point A having the maximum count value Fmax is specified in the smoothed virtual conversion image, and the coordinates (x'max, y'max) of the specified coordinate point A are used to determine the positional deviation amount (x 'max, y'max) (see FIG. 10). The total number of combinations of all the reference edge points of the master image and all the edge points of the edge extracted image is an order of the order of the product of the number of horizontal and vertical pixels of the master image and the number of horizontal and vertical pixels of the input image. As a result, compared with the conventional template matching method, the amount of displacement can be measured with a much smaller number of calculation processes, and the processing time can be reduced.

【0013】また、計測対象品の入力画像からエッジ点
を検出するので、入力画像のある点における値の絶対値
の変動の影響をほとんど受けず、計測対象品の汚れや照
明ムラがあっても、それらの影響を受け難く信頼性の高
い位置ずれ量計測ができる。
Further, since the edge point is detected from the input image of the object to be measured, it is hardly affected by a change in the absolute value of a value at a certain point of the input image. And a highly reliable displacement amount measurement that is hardly affected by the above.

【0014】マスター画像は、手本となる基準対象品の
参照範囲を撮像し、マトリクス状に分布した各画素点が
デジタルデータを持っている基準画像として取込み、前
記マトリクスの各画素点毎に前記デジタルデータを少な
くとも前記マトリクスの一方向に微分し、各画素点毎に
得られた微分値の絶対値が少なくとも一方向の両隣接画
素点の微分値の絶対値より大となる画素点を基準エッジ
点として抽出してなる全基準エッジ点からなり、エッジ
抽出画像は、計測対象品の対象範囲を撮像し、マトリク
ス状に分布した各画素点がデジタルデータを持っている
入力画像として取込み、前記マトリクスの各画素点毎に
前記デジタルデータを少なくとも前記マトリクスの一方
向に微分し、微分値の絶対値が少なくとも一方向の両隣
接画素点の微分値の絶対値より大となる画素点をエッジ
点として抽出してなる全エッジ点からなるように構成す
ると、デジタルデータを微分方向に接続した曲線の変曲
点のみを有効にエッジ点として抽出するので、抽出され
るエッジ点の数を最小に抑えることができ、より少ない
演算処理で位置ずれ量計測ができる。また、マスター画
像もエッジ抽出画像も共に対象品を撮像して得た画像を
同様に処理して得られるので、マスター画像とエッジ抽
出画像とを互いに同様の撮像条件および処理手順で得る
ことができ、マスター画像とエッジ抽出画像との対応部
分の一致度合いを高くでき、より信頼性の高い位置ずれ
量計測ができる。
The master image is obtained by capturing a reference range of a reference object as a model, taking in as a reference image in which each pixel point distributed in a matrix has digital data, and for each pixel point in the matrix. The digital data is differentiated at least in one direction of the matrix, and a pixel point whose absolute value of the differential value obtained for each pixel point is larger than the absolute value of the differential value of both adjacent pixel points in at least one direction is defined as a reference edge. An edge-extracted image is obtained by imaging the target range of the measurement target product, and each pixel point distributed in a matrix is captured as an input image having digital data. The digital data is differentiated in at least one direction of the matrix for each pixel point of the absolute value of the differential value of the differential value of both adjacent pixel points in at least one direction If the pixel points larger than the absolute value are configured as all the edge points extracted as edge points, only the inflection points of the curve connecting the digital data in the differential direction are effectively extracted as edge points. The number of edge points to be extracted can be minimized, and the amount of displacement can be measured with less computational processing. In addition, since both the master image and the edge-extracted image can be obtained by processing the image obtained by imaging the target product in the same manner, the master image and the edge-extracted image can be obtained under the same imaging conditions and processing procedures. In addition, the degree of coincidence of the corresponding portion between the master image and the edge extraction image can be increased, and more reliable measurement of the amount of displacement can be performed.

【0015】マスター画像の全基準エッジ点それぞれと
エッジ抽出画像の全エッジ点それぞれとの組合せについ
て両エッジ点間の相対座標を求め、求めた相対座標を仮
想平面にプロットする毎に、プロットされる座標点のカ
ウント値を、その座標点に対応する前記エッジ抽出画像
のエッジ点の微分値の絶対値に基づいてカウントアップ
して仮想変換画像を得るように構成すると、仮想平面に
プロットされる点のカウント値を、対応するエッジ点の
微分値の絶対値の大きさを考慮してカウントアップする
ようにできるので、くっきりしたエッジ点をより顕著に
抽出することができ、計測対象品の汚れや照明ムラの影
響をより受け難く、さらに信頼性の高い位置ずれ量計測
ができる。
For each combination of all the reference edge points of the master image and all the edge points of the edge extracted image, relative coordinates between the two edge points are obtained, and the obtained relative coordinates are plotted every time they are plotted on a virtual plane. If the count value of the coordinate point is configured to be counted up based on the absolute value of the differential value of the edge point of the edge extracted image corresponding to the coordinate point to obtain a virtual conversion image, a point plotted on a virtual plane Can be counted up in consideration of the magnitude of the absolute value of the differential value of the corresponding edge point, so that sharp edge points can be extracted more conspicuously. A more reliable measurement of the amount of displacement can be performed with less influence of illumination unevenness.

【0016】[0016]

【発明の実施の形態】本発明の実施形態を図面に基づい
て以下に説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the present invention will be described below with reference to the drawings.

【0017】本発明の位置ずれ量計測方法の一実施形態
は、図1〜図10に示すように、第1工程で計測対象品
(回路基板)を撮像した入力画像1をエッジ抽出して得
たエッジ抽出画像4と、第2工程で画像照合および位置
の基準となる基準画像2をエッジ抽出して得たマスター
画像6とを、続く第3工程〜第5工程の画像処理を経
て、最終的に計測対象品の位置ずれ量 (x'max ,y'ma
x) を求めるものである。以下にそれらの工程を説明す
る。
As shown in FIGS. 1 to 10, an embodiment of the method for measuring the amount of displacement according to the present invention is to obtain an input image 1 obtained by capturing an object to be measured (circuit board) in a first step by extracting edges. The extracted edge-extracted image 4 and the master image 6 obtained by edge-extracting the reference image 2 serving as a reference for image collation and position in the second step are subjected to image processing in the subsequent third to fifth steps to obtain a final image. (X'max, y'ma
x). The steps will be described below.

【0018】第1工程は、先ず、基準対象品(手本とな
る良好な回路基板)の参照範囲をCCDカメラで撮像
し、図1、図11に示すようなマトリクス状に分布した
各画素点(i,j)がデジタルデータT(i,j)を持
っている基準画像2として取込む。
In the first step, first, a reference range of a reference object (a good circuit board serving as a model) is imaged by a CCD camera, and each pixel point distributed in a matrix as shown in FIGS. (I, j) is captured as a reference image 2 having digital data T (i, j).

【0019】次に、マトリクスの各画素点(i,j)毎
にデジタルデータT(i,j)を、図2に示す横微分演
算子H(u,v)および図3に示す縦微分演算子V
(u,v)でそれぞれ微分する。具体的な計算手順は、
図2に示す3×3ドットの横微分演算子H(u,v)を
基準画像2上のある座標(i,j)において重ね、横微
分演算子H(u,v)の9点の各ドットと基準画像2の
対応する点のデータ値との積を横微分演算子H(u,
v)内で合計(コンボリューション演算)した微分値D
i (i,j)を求め、同様に図3に示す3×3ドットの
縦微分演算子V(u,v)でコンボリューション演算を
行った微分値Dj (i,j)を求める。
Next, for each pixel point (i, j) of the matrix, the digital data T (i, j) is divided into a horizontal differential operator H (u, v) shown in FIG. 2 and a vertical differential operation shown in FIG. Child V
Differentiate by (u, v). The specific calculation procedure is
A 3 × 3 dot horizontal differential operator H (u, v) shown in FIG. 2 is superimposed at a certain coordinate (i, j) on the reference image 2, and each of nine points of the horizontal differential operator H (u, v) is The product of the dot and the data value of the corresponding point of the reference image 2 is represented by the horizontal differential operator H (u,
The differential value D summed (convolution operation) in v)
i (i, j) is obtained, and similarly, a differential value D j (i, j) obtained by performing a convolution operation using the vertical differential operator V (u, v) of 3 × 3 dots shown in FIG. 3 is obtained.

【0020】次に、両微分値Di (i,j)、D
j (i,j)それぞれの絶対値の和S(i,j)を、S
(i,j)=|Di (i,j)|+|Dj (i,j)|
として算出する。
Next, the two differential values D i (i, j), D
j The sum S (i, j) of the absolute values of
(I, j) = | D i (i, j) | + | D j (i, j) |
Is calculated as

【0021】ここで、Here,

【0022】[0022]

【数2】 (Equation 2)

【0023】次に、S(i,j)が、横方向Xまたは縦
方向Yの両隣接点よりも、予め定めた閾値Q以上だけ大
となる点(i,j)、すなわち、 S(i,j)≧S (i−1,j)+QかつS(i,j)≧
S (i+1,j)+Q または、 S(i,j)≧S (i,j−1)+QかつS(i,j)≧
S (i,j+1)+Q となる全ての点(i,j)を基準エッジ点5として抽出
し、抽出した全ての基準エッジ点5からなるマスター画
像6を、メモリーに登録する。このマスター画像6は、
図4に示すように、基準画像2のエッジ要素である基準
エッジ点5が線状に分布してなるものである。この基準
エッジ点5の数は、基準画像2のパターンの複雑さなど
によるが、基準画像2の横画素数と縦画素数との和程度
の次数であり、本実施形態では数十個である。
Next, a point (i, j) where S (i, j) is larger than both adjacent points in the horizontal direction X or the vertical direction Y by a predetermined threshold Q or more, ie, S (i, j). j) ≧ S (i−1, j) + Q and S (i, j) ≧
S (i + 1, j) + Q or S (i, j) ≧ S (i, j−1) + Q and S (i, j) ≧
All points (i, j) satisfying S (i, j + 1) + Q are extracted as reference edge points 5, and a master image 6 including all the extracted reference edge points 5 is registered in the memory. This master image 6
As shown in FIG. 4, reference edge points 5 which are edge elements of the reference image 2 are linearly distributed. The number of the reference edge points 5 depends on the complexity of the pattern of the reference image 2 and the like, but is an order of about the sum of the number of horizontal pixels and the number of vertical pixels of the reference image 2, and is several tens in the present embodiment. .

【0024】第2工程は、先ず、一枚の計測対象品の対
象範囲を撮像し、CCDカメラで撮像し、図1に示すよ
うなマトリクス状に分布した各画素点(x,y)がデジ
タルデータP(x,y)を持っている入力画像1として
取込む。
In the second step, first, an image of the target range of one measurement target product is taken, the image is taken with a CCD camera, and each pixel point (x, y) distributed in a matrix as shown in FIG. Capture as input image 1 having data P (x, y).

【0025】次に、マトリクスの各画素点(x,y)毎
にデジタルデータP(x,y)を、上記の横微分演算子
H(u,v)および縦微分演算子V(u,v)でそれぞ
れ微分する。具体的な計算手順は、入力画像1上のある
座標(x,y)において横微分演算子H(u,v)でコ
ンボリューション演算した値Dx (x,y)を求め、同
様に縦微分演算子V(u,v)でコンボリューション演
算を行った値Dy (x,y)を求める。
Next, the digital data P (x, y) for each pixel point (x, y) of the matrix is divided into the horizontal differential operator H (u, v) and the vertical differential operator V (u, v). ) To differentiate. A specific calculation procedure is to obtain a value D x (x, y) obtained by performing a convolution operation using a horizontal differential operator H (u, v) at a certain coordinate (x, y) on the input image 1, and similarly calculate a vertical differential A value D y (x, y) obtained by performing a convolution operation with the operator V (u, v) is obtained.

【0026】次に、両微分値Dx (x,y)、D
y (x,y)それぞれの絶対値の和S(x,y)を、S
(x,y)=|Dx (x,y)|+|Dy (x,y)|
として算出する。
Next, the two differential values D x (x, y), D
y (x, y) The sum S (x, y) of the absolute values of
(X, y) = | D x (x, y) | + | D y (x, y) |
Is calculated as

【0027】ここで、Here,

【0028】[0028]

【数3】 (Equation 3)

【0029】次に、S(x,y)が、横方向Xまたは縦
方向Yの両隣接点よりも、予め定めた上記閾値Q以上だ
け大となる点(x,y)、すなわち、 S(x,y)≧S (x−1,y)+QかつS(x,y)≧
S (x+1,y)+Q または、 S(x,y)≧S (x,y−1)+QかつS(x,y)≧
S (x,y+1)+Q となる全ての点(x,y)をエッジ点として抽出し、抽
出した全てのエッジ点3からなるエッジ抽出画像4を、
メモリーに格納する。このエッジ点3の数は、入力画像
1の横画素数と縦画素数との和程度の次数であり、本実
施形態では数百個である。
Next, a point (x, y) where S (x, y) is larger than both adjacent points in the horizontal direction X or the vertical direction by the predetermined threshold Q or more, ie, S (x, y). , Y) ≧ S (x−1, y) + Q and S (x, y) ≧
S (x + 1, y) + Q or S (x, y) ≧ S (x, y−1) + Q and S (x, y) ≧
All the points (x, y) satisfying S (x, y + 1) + Q are extracted as edge points, and an edge extracted image 4 including all the extracted edge points 3 is obtained as
Store in memory. The number of the edge points 3 is an order of about the sum of the number of horizontal pixels and the number of vertical pixels of the input image 1, and is several hundred in the present embodiment.

【0030】得られたエッジ抽出画像4は、図4に示す
ように、入力画像1のエッジ要素であるエッジ点3が線
状に分布しているもので、前記のマスター画像6にほぼ
合致する部分が、図4中のベクトルGで示すように、最
終的に求めたい位置ずれ量だけマスター画像6から位置
ずれしているはずである。以下このベクトルGのXY成
分をソフトウエア的に求めていく。
As shown in FIG. 4, the obtained edge extracted image 4 has the edge points 3 which are the edge elements of the input image 1 distributed linearly, and substantially matches the master image 6 described above. The portion should be displaced from the master image 6 by the amount of displacement finally desired, as indicated by the vector G in FIG. Hereinafter, the XY components of the vector G will be obtained by software.

【0031】第3工程は、得られたマスター画像6の数
十個の全基準エッジ点5それぞれとエッジ抽出画像4の
数百個の全エッジ点3それぞれとの組合せについて両エ
ッジ点3、5間の相対座標を求め、求めた相対座標を仮
想平面7にプロットする。このとき、プロットする毎
に、プロットされる座標点 (x',y')のカウント値E
(x',y')を1ずつカウントアップして、図8に示す仮
想変換画像8を得る。この第3工程の手順を下記にさら
に詳述する。
In the third step, both edge points 3, 5 are determined for each combination of several tens of all reference edge points 5 of the obtained master image 6 and several hundreds of all edge points 3 of the edge extracted image 4. The relative coordinates between them are obtained, and the obtained relative coordinates are plotted on the virtual plane 7. At this time, every time the plotting is performed, the count value E of the coordinate point (x ′, y ′) to be plotted is calculated.
(x ′, y ′) is counted up by one to obtain a virtual conversion image 8 shown in FIG. The procedure of this third step will be described in more detail below.

【0032】先ず、図5に示すように、マスター画像6
のある一つの基準エッジ点5に対するエッジ抽出画像4
の全エッジ点3の相対座標(ベクトルK1,2,〜Km
XY成分)を仮想平面7にプロットすると、図6に示す
ように、前記一つの基準エッジ点5を原点O’として数
百個の点からなるエッジ抽出画像4と同一のプロット点
群8aがプロットされる。
First, as shown in FIG.
Extracted image 4 for one reference edge point 5 having
When the relative coordinates (XY components of the vectors K 1, K 2, to K m ) of all the edge points 3 are plotted on the virtual plane 7, as shown in FIG. The same plot point group 8a as the edge extraction image 4 consisting of several hundred points is plotted.

【0033】同様に、数十個の別の各基準エッジ点5に
ついて前記の手順を行うと、図6、図7に示すように、
各基準エッジ点5を原点O’としかつエッジ抽出画像4
と同一のプロット点群(例えば8b、8c)が、数十個
互いに少しずつずれながら仮想平面7にプロットされ
る。そして、図8に示すように、一つのプロット点群を
プロットする毎に、各座標点 (x',y')においてプロッ
トが重なる場合に、その座標点 (x',y')のカウント値
E (x',y')を1ずつカウントアップする。なお、説明
の便宜のため、図8には実際よりずっと少ない数のプロ
ット点 (x',y')と小さいカウント値E (x',y')とを
示している。
Similarly, when the above procedure is performed for several tens of other reference edge points 5, as shown in FIGS. 6 and 7,
Each reference edge point 5 is defined as the origin O 'and the edge extracted image 4
The same plot point group (for example, 8b and 8c) is plotted on the virtual plane 7 while being slightly shifted from each other. Then, as shown in FIG. 8, each time one plot point group is plotted, if the plots overlap at each coordinate point (x ′, y ′), the count value of that coordinate point (x ′, y ′) E (x ', y') is counted up by one. For convenience of explanation, FIG. 8 shows a much smaller number of plot points (x ′, y ′) and a smaller count value E (x ′, y ′) than actual.

【0034】さて、点AをベクトルGのXY成分を座標
とする点とすると、各プロット点群(例えば8a、8
b、8c)には、点A上または点Aの近傍に、各基準エ
ッジ点5に対応するそれぞれ一つのエッジ点3による点
が存在するので、全部のプロット点群をプロットする
と、図6、図7に示すように、点A上または点Aの近傍
に数十個の点が集中してプロットされる。従って、図8
参照に示すように、点A上または点Aの近傍のカウント
値Eが他の部分よりも大きくなる。
Assuming that the point A is a point having coordinates of the XY components of the vector G, each plot point group (for example, 8a, 8a
b, 8c), there is a point on the point A or in the vicinity of the point A by one edge point 3 corresponding to each reference edge point 5, so that all plot points are plotted as shown in FIG. As shown in FIG. 7, several tens of points are concentratedly plotted on or near the point A. Therefore, FIG.
As shown in the reference, the count value E on or near the point A becomes larger than the other parts.

【0035】理想的には、仮想平面7の点A上に数十個
の点が重なって点Aのカウント値Eが最大になるのであ
るが、実際には、入力画像1の基準画像2に対応する部
分のパターンが、計測対象品のパターン形状のバラツキ
や撮像時の誤差などがあるために、基準画像2のパター
ンと完全に合致することは稀であるので、点Aの近傍に
数十個の点が集中することが一般的である。この場合、
必ずしも点Aのカウント値Eが最大にならないので、局
所的な平滑化処理を行って、カウント値Eが最も大きく
集中している部分の中心点を求めて、これを点Aとする
方が精確となる。よって、点AのXY成分を確定する前
に、さらに次の第4工程を行う。
Ideally, dozens of points overlap the point A on the virtual plane 7 to maximize the count value E of the point A. In practice, however, the reference image 2 of the input image 1 Since the pattern of the corresponding portion has a variation in the pattern shape of the measurement target product and an error at the time of imaging, it is rare that the pattern completely matches the pattern of the reference image 2. It is common that individual points are concentrated. in this case,
Since the count value E of the point A does not always become the maximum, it is more accurate to perform a local smoothing process to obtain the center point of the portion where the count value E is most concentrated, and use this as the point A. Becomes Therefore, before the XY component of the point A is determined, the following fourth step is further performed.

【0036】第4工程は、この仮想変換画像8を、全て
のプロット点 (x',y')毎に、図9に示す平滑化演算子
B(u,v)で平滑化する(図10参照)。具体的な計
算手順は、仮想平面7上のプロットされた点 (x',y')
の値F (x',y')を、
In the fourth step, the virtual conversion image 8 is smoothed by a smoothing operator B (u, v) shown in FIG. 9 for every plot point (x ', y') (FIG. 10). reference). The specific calculation procedure is the plotted point (x ′, y ′) on the virtual plane 7.
The value F (x ', y') of

【0037】[0037]

【数4】 (Equation 4)

【0038】として平滑化する。このとき、平滑化する
毎に、座標点 (x',y')のカウント値F(x',y')をカ
ウントアップして、図10に示す平滑化した仮想変換画
像9を得る。これによって、仮想変換画像8の一つの各
プロット点 (x',y')のカウント値E (x',y')が中心
点 (x',y')に重みを持った3×3点の局所的範囲に平
滑化されて、前記の平滑化した仮想変換画像9が得られ
る。
And smoothing. At this time, every time the smoothing is performed, the count value F (x ′, y ′) of the coordinate point (x ′, y ′) is counted up to obtain the smoothed virtual conversion image 9 shown in FIG. As a result, the count value E (x ′, y ′) of each plot point (x ′, y ′) of the virtual conversion image 8 is changed to a 3 × 3 point having a weight at the center point (x ′, y ′). Is obtained, and the above-mentioned smoothed virtual conversion image 9 is obtained.

【0039】第5工程は、図10の平滑化した仮想変換
画像9内を走査して、最大のカウント値Fmax を持つ座
標点Aを特定し、特定した座標点AのXY成分 (x'max
,y'max) をもって計測対象品の位置ずれ量 (x'max ,
y'max) とする。こうして、一枚の計測対象品の位置ず
れ量計測を終了する。
In the fifth step, the coordinate point A having the maximum count value Fmax is specified by scanning the smoothed virtual conversion image 9 shown in FIG. 10, and the XY component (x'max) of the specified coordinate point A is specified.
, y'max) and the displacement (x'max,
y'max). Thus, the measurement of the displacement amount of one measurement target product is completed.

【0040】2枚目以降の計測対象品の位置ずれ量計測
についても、上記第2〜第5工程の手順に従って最大の
カウント値Fmax を持つ座標点Aを特定して、位置ずれ
量 (x'max ,y'max) を求めることができる。また、マ
スター画像6の全基準エッジ点5それぞれとエッジ抽出
画像4の全エッジ点3それぞれとの全組合せ数は、数十
個×数百個程度の次数であるので、従来のテンプレート
マッチング法に比べて、はるかに少ない演算処理で位置
ずれ量計測ができる。
Regarding the displacement measurement of the second and subsequent measurement objects, the coordinate point A having the maximum count value Fmax is specified in accordance with the procedures of the second to fifth steps, and the displacement (x ′) is determined. max, y'max). The total number of combinations of each of the reference edge points 5 of the master image 6 and each of the edge points 3 of the edge extraction image 4 is of the order of several tens × several hundreds. Compared with this, the displacement amount can be measured with far less calculation processing.

【0041】上記実施形態において、マスター画像6の
全基準エッジ点5それぞれとエッジ抽出画像4の全エッ
ジ点3それぞれとの組合せについて両エッジ点3、5間
の相対座標を求め、求めた相対座標を仮想平面7にプロ
ットするとき、プロットする毎に、プロットされる座標
点 (x',y')のカウント値E (x',y')を1ずつカウン
トアップする(図8参照)代わりに、このカウントアッ
プ量を座標点 (x',y')に対応するエッジ点(x,y)
の微分値Dx (x,y)、Dy (x,y)絶対値の和S
(x,y)として、カウントアップして仮想変換画像8
を得ると、くっきりした部分のエッジ点3を他のぼやけ
た部分のエッジ点3より顕著に抽出することができ、計
測対象品の汚れや照明ムラの影響をより受け難く、より
信頼性の高い位置ずれ量計測ができる。
In the above embodiment, the relative coordinates between the two edge points 3 and 5 are obtained for the combination of all the reference edge points 5 of the master image 6 and all the edge points 3 of the edge extracted image 4, and the obtained relative coordinates are obtained. Is plotted on the virtual plane 7, instead of incrementing the count value E (x ', y') of the plotted coordinate point (x ', y') by one each time plotting is performed (see FIG. 8). , And the count-up amount is defined as an edge point (x, y) corresponding to the coordinate point (x ′, y ′).
Of the absolute values of the differential values D x (x, y) and D y (x, y) of
Counted up as (x, y) and converted to virtual converted image 8
Is obtained, the edge point 3 of the sharp part can be more remarkably extracted than the edge point 3 of the other blurred part, and the measurement object is less susceptible to the effects of dirt and illumination unevenness and has higher reliability. The displacement amount can be measured.

【0042】上記実施形態では、基準エッジ点5および
エッジ点3を検出するのに、基準画像2および入力画像
1を、横、縦微分演算子H、Vを用いて算出した微分値
i(i,j)、Dj (i,j)、およびDx (x,
y)、Dy (x,y)それぞれの絶対値の和S(i,
j)およびS(x,y)がそれぞれ横方向Xまたは縦方
向Yの両隣接点よりも大となる点を検出するようにした
が、本発明はこれに限定されず、他の既知のエッジ検出
方法を用いてもよい。
In the above embodiment, to detect the reference edge point 5 and the edge point 3, the reference image 2 and the input image 1 are calculated by using the differential values D i (i.e., calculated using the horizontal and vertical differential operators H and V). i, j), D j (i, j), and D x (x,
y), the sum S (i, i) of the absolute values of D y (x, y)
Although j) and S (x, y) are detected to be points that are larger than both adjacent points in the horizontal direction X or the vertical direction Y, the present invention is not limited to this. A method may be used.

【0043】また上記実施形態では、手本となる基準対
象品を撮像して基準画像2を得たが、計測対称品のCA
Dデータなどの設計データを用いて基準画像2を得ても
よい。
In the above-described embodiment, the reference object 2 serving as a model is imaged to obtain the reference image 2.
The reference image 2 may be obtained using design data such as D data.

【0044】[0044]

【発明の効果】本発明の位置ずれ量計測方法によれば下
記の効果を得ることができる。マスター画像の全基準エ
ッジ点それぞれとエッジ抽出画像の全エッジ点それぞれ
との組合せについて両エッジ点間の相対座標を求め、求
めた相対座標を仮想平面にプロットする毎に、プロット
される座標点のカウント値を1ずつカウントアップして
仮想変換画像を得ると、マスター画像とエッジ抽出画像
との相対座標点およびその近傍のカウント値が大きな値
となるかあるいは相対座標点の近傍にプロット点が密集
する。そして、その仮想変換画像を適正に平滑化する
と、マスター画像とエッジ抽出画像との相対座標点また
はその極近傍の点が最大のカウント値を示す。従って、
平滑化した仮想変換画像内で最大のカウント値を持つ座
標点を特定し、特定した座標点の座標をもって計測対象
品の位置ずれ量とすることができる。
According to the displacement measuring method of the present invention, the following effects can be obtained. For each combination of all the reference edge points of the master image and all the edge points of the edge extracted image, the relative coordinates between the two edge points are obtained, and each time the obtained relative coordinates are plotted on the virtual plane, the coordinates of the plotted coordinate points are calculated. When the count value is incremented by one to obtain a virtual conversion image, the relative coordinate point between the master image and the edge extracted image and the count value in the vicinity thereof become a large value, or the plot points are concentrated near the relative coordinate point. I do. Then, when the virtual conversion image is appropriately smoothed, the relative coordinate point between the master image and the edge extraction image or a point in the immediate vicinity thereof indicates the maximum count value. Therefore,
The coordinate point having the maximum count value in the smoothed virtual conversion image can be specified, and the coordinates of the specified coordinate point can be used as the positional deviation amount of the measurement object.

【0045】マスター画像の横また縦画素数と入力画像
の横また縦画素数との積程度の次数であるので、従来の
テンプレートマッチング法に比べて、はるかに少ない演
算処理数で位置ずれ量計測ができ、処理時間を低減させ
ることができる。
Since the order is about the product of the number of horizontal and vertical pixels of the master image and the number of horizontal and vertical pixels of the input image, the displacement amount can be measured with a much smaller number of computations than the conventional template matching method. And the processing time can be reduced.

【0046】また、計測対象品の入力画像からエッジ点
を検出するので、入力画像のある点における値の絶対値
の変動の影響をほとんど受けず、計測対象品の汚れや照
明ムラがあっても、それらの影響を受け難く信頼性の高
い位置ずれ量計測ができる。
Further, since the edge point is detected from the input image of the object to be measured, it is hardly affected by a change in the absolute value of a value at a certain point in the input image, and even if the object to be measured is dirty or has uneven illumination. And a highly reliable displacement amount measurement that is hardly affected by the above.

【0047】マスター画像は、基準対象品を撮像して得
た基準画像を各画素点毎に少なくとも一方向に微分し、
各画素点毎に得られた微分値の絶対値が少なくとも一方
向の両隣接画素点の微分値の絶対値より大となる画素点
を基準エッジ点として抽出してなる全基準エッジ点から
なり、エッジ抽出画像は、計測対象品を撮像して得た入
力画像を各画素点毎に少なくとも前記マトリクスの一方
向に微分し、微分値の絶対値が少なくとも一方向の両隣
接画素点の微分値の絶対値より大となる画素点をエッジ
点として抽出してなる全エッジ点からなるように構成す
ると、デジタルデータを微分方向に接続した曲線の変曲
点のみを有効にエッジ点として抽出するので、抽出され
るエッジ点の数を最小に抑えることができ、より少ない
演算処理で位置ずれ量計測ができる。また、マスター画
像もエッジ抽出画像も共に対象品を撮像して得た画像を
同様に処理して得られるので、マスター画像とエッジ抽
出画像とを互いに同様の撮像条件および処理手順で得る
ことができ、マスター画像とエッジ抽出画像との対応部
分の一致度合いを高くでき、より信頼性の高い位置ずれ
量計測ができる。
The master image is obtained by differentiating the reference image obtained by imaging the reference target product in at least one direction for each pixel point,
It consists of all reference edge points obtained by extracting pixel points whose absolute value of the differential value obtained for each pixel point is greater than the absolute value of the differential value of both adjacent pixel points in at least one direction as reference edge points, The edge-extracted image is obtained by differentiating the input image obtained by imaging the object to be measured in at least one direction of the matrix for each pixel point, and the absolute value of the differential value is at least one direction of the differential value of both adjacent pixel points. If the pixel points larger than the absolute value are configured as all the edge points extracted as edge points, only the inflection points of the curve connecting the digital data in the differential direction are effectively extracted as edge points. The number of edge points to be extracted can be minimized, and the amount of displacement can be measured with less computational processing. In addition, since both the master image and the edge-extracted image can be obtained by processing the image obtained by imaging the target product in the same manner, the master image and the edge-extracted image can be obtained under the same imaging conditions and processing procedures. In addition, the degree of coincidence of the corresponding portion between the master image and the edge extraction image can be increased, and more reliable measurement of the amount of displacement can be performed.

【0048】マスター画像の全基準エッジ点それぞれと
エッジ抽出画像の全エッジ点それぞれとの組合せについ
て両エッジ点間の相対座標を仮想平面にプロットする毎
に、プロットされる座標点のカウント値を、その座標点
に対応する前記エッジ抽出画像のエッジ点の微分値の絶
対値に基づいてカウントアップして仮想変換画像を得る
ように構成すると、くっきりしたエッジ点をより顕著に
抽出することができ、計測対象品の汚れや照明ムラの影
響をより受け難く、さらに信頼性の高い位置ずれ量計測
ができる。
Each time the relative coordinates between the two edge points are plotted on the virtual plane for each combination of all the reference edge points of the master image and all the edge points of the edge extracted image, the count value of the plotted coordinate points is calculated as follows: When configured to count up based on the absolute value of the differential value of the edge point of the edge extraction image corresponding to the coordinate point to obtain a virtual conversion image, sharp edge points can be more remarkably extracted, It is less susceptible to the effects of dirt and illumination unevenness on the object to be measured, and more reliable measurement of the amount of displacement can be performed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】入力画像と基準画像の一例を示す図。FIG. 1 is a diagram showing an example of an input image and a reference image.

【図2】横微分オペレータの一例を拡大して示す図。FIG. 2 is an enlarged view showing an example of a horizontal differential operator.

【図3】縦微分オペレータの一例を拡大して示す図。FIG. 3 is an enlarged view showing an example of a vertical differential operator.

【図4】エッジ抽出画像の一部とマスター画像とを示す
図。
FIG. 4 is a diagram showing a part of an edge extraction image and a master image.

【図5】一つの基準エッジ点とエッジ点との位置関係を
示す図。
FIG. 5 is a diagram showing a positional relationship between one reference edge point and an edge point.

【図6】仮想変換画像の重ね合わせを説明する概念図。FIG. 6 is a conceptual diagram illustrating superimposition of virtual conversion images.

【図7】仮想変換画像の一部を示す図。FIG. 7 is a diagram showing a part of a virtual conversion image.

【図8】カウント値を表示した仮想変換画像の一部を拡
大して示す図。
FIG. 8 is an enlarged view of a part of the virtual conversion image displaying the count value.

【図9】平滑化オペレータの一例を拡大して示す図。FIG. 9 is an enlarged view showing an example of a smoothing operator.

【図10】カウント値を平滑化した仮想変換画像の一部
を拡大して示す図。
FIG. 10 is an enlarged view showing a part of a virtual conversion image in which a count value is smoothed.

【図11】基準画像によるテンプレートの一例を示す
図。
FIG. 11 is a diagram showing an example of a template based on a reference image.

【図12】入力画像上のラスター走査を説明する概念
図。
FIG. 12 is a conceptual diagram illustrating raster scanning on an input image.

【符号の説明】[Explanation of symbols]

1 入力画像 2 基準画像 3 エッジ点 4 エッジ抽出画像 5 基準エッジ点 6 マスター画像 7 仮想平面 8 仮想変換画像 9 平滑化した仮想変換画像 A 求める位置ずれ量を座標とする点 E 仮想変換画像のカウント値 F 平滑化した仮想変換画像のカウント値 Fmax 平滑化した仮想変換画像の最大カウント値 P 入力画像のデジタルデータ T 基準画像(テンプレート)のデジタルデータ X 横方向 Y 縦方向 x,y 入力画像上の座標 x',y' 仮想平面上の座標 x'max ,y'max 求める位置ずれ量 DESCRIPTION OF SYMBOLS 1 Input image 2 Reference image 3 Edge point 4 Edge extraction image 5 Reference edge point 6 Master image 7 Virtual plane 8 Virtual conversion image 9 Smoothed virtual conversion image A Point with the required displacement amount as coordinates E Count of virtual conversion images Value F Count value of smoothed virtual converted image Fmax Maximum count value of smoothed virtual converted image P Digital data of input image T Digital data of reference image (template) X Horizontal Y Vertical x, y On input image Coordinates x ', y' Coordinates x'max, y'max on virtual plane

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2F065 AA01 BB02 CC01 CC19 DD06 FF04 JJ03 JJ26 QQ31 RR06 5B057 AA03 BA02 CA02 CA08 CA12 CA16 CB02 CB08 CB12 CB16 CC01 CE03 CE05 CE06 DA07 DB02 DB05 DB09 DC03 DC16 DC32  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 2F065 AA01 BB02 CC01 CC19 DD06 FF04 JJ03 JJ26 QQ31 RR06 5B057 AA03 BA02 CA02 CA08 CA12 CA16 CB02 CB08 CB12 CB16 CC01 CE03 CE05 CE06 DA07 DB02 DB05 DB09 DC03 DC16 DC32

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 計測対象品を撮像して得た入力画像と、
画像照合および位置の基準となる基準画像とに基づいて
計測対象品の位置ずれ量を求める位置ずれ量計測方法に
おいて、 基準画像から基準エッジ点を抽出し、抽出した全ての基
準エッジ点からなるマスター画像を登録しておき、 計測対象品の対象範囲を撮像し、撮像した入力画像から
エッジ点を抽出し、抽出した全てのエッジ点からなるエ
ッジ抽出画像を格納し、 前記マスター画像の全基準エッジ点それぞれと前記エッ
ジ抽出画像の全エッジ点それぞれとの組合せについて両
エッジ点間の相対座標を求め、求めた相対座標を仮想平
面にプロットする毎に、プロットされる座標点のカウン
ト値を1ずつカウントアップして仮想変換画像を得た
後、 この仮想変換画像を平滑化し、平滑化した仮想変換画像
内で最大のカウント値を持つ座標点を特定し、特定した
座標点の座標をもって計測対象品の位置ずれ量とするこ
とを特徴とする位置ずれ量計測方法。
1. An input image obtained by imaging an object to be measured,
In a displacement amount measuring method for obtaining a displacement amount of an object to be measured based on an image collation and a reference image serving as a reference of a position, a reference edge point is extracted from the reference image, and a master including all the extracted reference edge points is extracted. An image is registered, an image of the target range of the measurement target product is captured, edge points are extracted from the captured input image, and an edge extraction image including all the extracted edge points is stored, and all reference edges of the master image are stored. For each combination of each point and all the edge points of the edge extracted image, the relative coordinates between the two edge points are obtained, and each time the obtained relative coordinates are plotted on the virtual plane, the count value of the plotted coordinate points is incremented by one. After counting up to obtain a virtual conversion image, the virtual conversion image is smoothed, and the coordinate point having the largest count value in the smoothed virtual conversion image is identified. A method for measuring the amount of positional deviation, wherein the coordinates of the specified coordinate point are used as the amount of positional deviation of the measurement object.
【請求項2】 マスター画像は、手本となる基準対象品
の参照範囲を撮像し、マトリクス状に分布した各画素点
がデジタルデータを持っている基準画像として取込み、
前記マトリクスの各画素点毎に前記デジタルデータを少
なくとも前記マトリクスの一方向に微分し、各画素点毎
に得られた微分値の絶対値が少なくとも一方向の両隣接
画素点の微分値の絶対値より大となる画素点を基準エッ
ジ点として抽出してなる全基準エッジ点からなり、 エッジ抽出画像は、計測対象品の対象範囲を撮像し、マ
トリクス状に分布した各画素点がデジタルデータを持っ
ている入力画像として取込み、前記マトリクスの各画素
点毎に前記デジタルデータを少なくとも前記マトリクス
の一方向に微分し、微分値の絶対値が少なくとも一方向
の両隣接画素点の微分値の絶対値より大となる画素点を
エッジ点として抽出してなる全エッジ点からなることを
特徴とする請求項1記載の位置ずれ量計測方法。
2. A master image is obtained by capturing an image of a reference range of a reference target product serving as a model, and capturing as a reference image in which each pixel point distributed in a matrix has digital data.
The digital data is differentiated at least in one direction of the matrix for each pixel point of the matrix, and the absolute value of the differential value obtained for each pixel point is the absolute value of the differential value of both adjacent pixel points in at least one direction. It consists of all the reference edge points that are extracted by extracting the larger pixel points as reference edge points.The edge extraction image captures the target range of the measurement target product, and each pixel point distributed in a matrix has digital data. The digital data is differentiated at least in one direction of the matrix for each pixel point of the matrix, and the absolute value of the differential value is calculated from the absolute value of the differential value of both adjacent pixel points in at least one direction. 2. The method according to claim 1, wherein all the edge points are obtained by extracting a large pixel point as an edge point.
【請求項3】 マスター画像の全基準エッジ点それぞれ
とエッジ抽出画像の全エッジ点それぞれとの組合せにつ
いて両エッジ点間の相対座標を求め、求めた相対座標を
仮想平面にプロットする毎に、プロットされる座標点の
カウント値を、その座標点に対応する前記エッジ抽出画
像のエッジ点の微分値の絶対値に基づいてカウントアッ
プして仮想変換画像を得ることを特徴とする請求項2記
載の位置ずれ量計測方法。
3. For each combination of all reference edge points of a master image and all edge points of an edge extracted image, relative coordinates between the two edge points are obtained, and each time the obtained relative coordinates are plotted on a virtual plane, plotting is performed. The virtual conversion image is obtained by counting up the count value of the coordinate point to be obtained based on the absolute value of the differential value of the edge point of the edge extraction image corresponding to the coordinate point. How to measure displacement.
JP11003956A 1999-01-11 1999-01-11 Method for measuring quantity of positional deviation Pending JP2000207557A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11003956A JP2000207557A (en) 1999-01-11 1999-01-11 Method for measuring quantity of positional deviation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11003956A JP2000207557A (en) 1999-01-11 1999-01-11 Method for measuring quantity of positional deviation

Publications (1)

Publication Number Publication Date
JP2000207557A true JP2000207557A (en) 2000-07-28

Family

ID=11571567

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11003956A Pending JP2000207557A (en) 1999-01-11 1999-01-11 Method for measuring quantity of positional deviation

Country Status (1)

Country Link
JP (1) JP2000207557A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008219188A (en) * 2007-02-28 2008-09-18 Sharp Corp Image processing apparatus, image processing method, control program of image processing apparatus and computer-readable recording medium with the program recorded thereon
JP2010276504A (en) * 2009-05-29 2010-12-09 Toshiba Corp Pattern edge detection method
WO2021181929A1 (en) * 2020-03-09 2021-09-16 リンクウィズ株式会社 Information processing method, information processing system, and program
JP2021137953A (en) * 2020-05-28 2021-09-16 リンクウィズ株式会社 Information processing method, information processing system, and program
US11481971B2 (en) 2020-12-25 2022-10-25 Linkwiz Incorporated Information processing method, information processing system, and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008219188A (en) * 2007-02-28 2008-09-18 Sharp Corp Image processing apparatus, image processing method, control program of image processing apparatus and computer-readable recording medium with the program recorded thereon
JP4699406B2 (en) * 2007-02-28 2011-06-08 シャープ株式会社 Image processing apparatus, image processing method, image processing apparatus control program, and computer-readable recording medium recording the program
JP2010276504A (en) * 2009-05-29 2010-12-09 Toshiba Corp Pattern edge detection method
WO2021181929A1 (en) * 2020-03-09 2021-09-16 リンクウィズ株式会社 Information processing method, information processing system, and program
CN113905856A (en) * 2020-03-09 2022-01-07 凌威新科技有限公司 Information processing method, information processing system, and program
JP2021137953A (en) * 2020-05-28 2021-09-16 リンクウィズ株式会社 Information processing method, information processing system, and program
US11481971B2 (en) 2020-12-25 2022-10-25 Linkwiz Incorporated Information processing method, information processing system, and program

Similar Documents

Publication Publication Date Title
JP5699788B2 (en) Screen area detection method and system
JP3735344B2 (en) Calibration apparatus, calibration method, and calibration program
CN108229475B (en) Vehicle tracking method, system, computer device and readable storage medium
JPH04500408A (en) Computerized method for measuring strain distribution on the surface of a deformed body
KR100810326B1 (en) Method for generation of multi-resolution 3d model
JPH0528273A (en) Method and device for processing picture
CN110926330B (en) Image processing apparatus, image processing method, and program
CN109523583B (en) Infrared and visible light image registration method for power equipment based on feedback mechanism
JP2000517452A (en) Viewing method
CN115096206B (en) High-precision part size measurement method based on machine vision
KR900002509B1 (en) Apparatus for recognizing three demensional object
CN113324478A (en) Center extraction method of line structured light and three-dimensional measurement method of forge piece
CN106952262B (en) Ship plate machining precision analysis method based on stereoscopic vision
CN114529613A (en) Method for extracting characteristic point high-precision coordinates of circular array calibration plate
CN111915485B (en) Rapid splicing method and system for feature point sparse workpiece images
JP3350822B2 (en) Edge detection method on image
KR102023087B1 (en) Method for camera calibration
JP2672509B2 (en) Method and apparatus for automatically calibrating camera model
CN113642397A (en) Object length measuring method based on mobile phone video
JP2000207557A (en) Method for measuring quantity of positional deviation
JP2002109518A (en) Three-dimensional shape restoring method and system therefor
JP4040732B2 (en) Measuring method by image recognition and recording medium
TWI807346B (en) Dimension measuring device, semiconductor manufacturing device and semiconductor device manufacturing system
CN109523594A (en) A kind of vision tray characteristic point coordinate location method and system
CN114998571A (en) Image processing and color detection method based on fixed-size marker