JP2006153775A5 - - Google Patents

Download PDF

Info

Publication number
JP2006153775A5
JP2006153775A5 JP2004347744A JP2004347744A JP2006153775A5 JP 2006153775 A5 JP2006153775 A5 JP 2006153775A5 JP 2004347744 A JP2004347744 A JP 2004347744A JP 2004347744 A JP2004347744 A JP 2004347744A JP 2006153775 A5 JP2006153775 A5 JP 2006153775A5
Authority
JP
Japan
Prior art keywords
feature points
position shift
detection method
feature point
amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004347744A
Other languages
Japanese (ja)
Other versions
JP2006153775A (en
JP5000087B2 (en
Filing date
Publication date
Application filed filed Critical
Priority to JP2004347744A priority Critical patent/JP5000087B2/en
Priority claimed from JP2004347744A external-priority patent/JP5000087B2/en
Publication of JP2006153775A publication Critical patent/JP2006153775A/en
Publication of JP2006153775A5 publication Critical patent/JP2006153775A5/ja
Application granted granted Critical
Publication of JP5000087B2 publication Critical patent/JP5000087B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

位置ずれ検出方法Misalignment detection method

本発明は、少なくとも一つの透明部材を組み付ける際の透明部材の位置ずれ検出方法に関する。 The present invention relates to a positional deviation detecting how the transparent member when assembling the at least one transparent member.

通常、二つの光学素子を組み付ける際には、それぞれの光学素子の位置合わせを行う必要がある。特許文献1,2には、液晶表示セルどうしの位置合わせ、液晶基板どうしの位置合わせについて開示している。しかし、これらの位置合わせ方法においては、上下に位置する物体(セルあるいは基板)に付されたマークの絶対位置を個別に求め,そこから位置ずれ量を計算しているため、マークがいずれの物体のものであるかを特定する必要があり、演算処理が遅くなるという問題点を有している。
特開2000−180810号公報 特開2004−151215号公報
Normally, when assembling two optical elements, it is necessary to align the optical elements. Patent Documents 1 and 2 disclose alignment between liquid crystal display cells and alignment between liquid crystal substrates. However, in these alignment methods, since the absolute position of the mark attached to the object (cell or substrate) positioned above and below is individually obtained and the amount of displacement is calculated therefrom, Therefore, there is a problem that the calculation processing becomes slow.
JP 2000-180810 A JP 2004-151215 A

そこで、本発明の目的は、光学素子などの物体の位置を画像処理手法を利用して位置ずれ量及び/又は位置ずれ方向を高速かつ効率的に検出することのできる位置ずれ検出方法を提供することにある。 An object of the present invention, provides a positional deviation detecting how that can be detected positional deviation amount the position of the object using the image processing techniques such as optical elements and / or the positional deviation direction fast and efficient There is to do.

以上の目的を達成するため、本発明、物体に形成された位置基準マークを特徴点として観察した像の濃淡に基づいて位置基準マークの所定位置からのずれ量及び/又は位置ずれ方向を検出する位置ずれ検出方法であって、前記位置基準マークを二つ設定し、一方の位置基準マークを所定位置として他方の位置基準マークの位置ずれ量及び/又は位置ずれ方向を検出することをことを特徴とする。 To achieve the above object, the present invention is the amount of deviation from a predetermined position of the position reference mark on the basis of the shade of an image obtained by observing the position reference mark formed on the object as the feature points and / or positional deviation direction detection A method for detecting misalignment, wherein two position reference marks are set, and one position reference mark is set as a predetermined position to detect a position shift amount and / or a position shift direction of the other position reference mark. Features.

位置基準マークを形成した物体を光学的に観察したとき、像として観察される特徴点又は該特徴点の周囲は、他の領域と濃淡の傾向が異なる。それを検出することで位置基準マークの観察方向から見た位置ずれ量及び/又は位置ずれ方向を高精度に検出することができる。 When the object on which the position reference mark is formed is optically observed, the characteristic points observed as an image or the surroundings of the characteristic points have different shades from other regions. By detecting this, it is possible to detect the positional deviation amount and / or the positional deviation direction viewed from the observation direction of the position reference mark with high accuracy.

本発明に係る位置ずれ検出方法において、位置基準マークの観察は画像撮影手段で行うことが好ましい。特徴点を画像として撮影することにより、観察した特徴点領域の抽出や位置ずれ量及び/又は位置ずれ方向の算出が演算装置で処理しやすくなる。   In the positional deviation detection method according to the present invention, it is preferable that the position reference mark is observed by an image photographing unit. By capturing the feature points as an image, extraction of the observed feature point region and calculation of the displacement amount and / or displacement direction can be easily processed by the arithmetic device.

観察した明るさが所定の値より大きい又は小さい領域を特徴点であると判断することができ、または、前記観察像中において所定の範囲内の色を示す領域を特徴点であると判断することができる。そして、所定の値を画像中の明るさの分布から求めることができ、または、所定の値を画像中の明るさの平均値の近傍値から求めることができ、または、所定の値を画像中の明るさの分布中最も多い明るさの近傍から求めることができる。   A region where the observed brightness is larger or smaller than a predetermined value can be determined as a feature point, or a region showing a color within a predetermined range in the observed image is determined as a feature point. Can do. Then, the predetermined value can be obtained from the brightness distribution in the image, or the predetermined value can be obtained from the vicinity value of the average value of the brightness in the image, or the predetermined value can be obtained from the image in the image. It can be obtained from the vicinity of the most brightness in the distribution of brightness.

さらに、本発明に係る位置ずれ検出方法においては、前記位置基準マークを二つ設定す。この場合、観察された二つの特徴点の大小により位置ずれ方向及び/又は位置ずれ量を検出することができる。観察された二つの特徴点の明るさの差に基づいて位置ずれ方向及び/又は位置ずれ量を検出してもよい。また、二つの特徴点を包含する領域及び/又は該領域の周囲の濃淡に基づいて位置ずれ方向及び/又は位置ずれ量を検出してもよい。 Further, in the positional deviation detection method according to the present invention, you two sets said position reference marks. In this case, the displacement direction and / or displacement amount can be detected based on the size of the two observed feature points. The misalignment direction and / or misalignment amount may be detected based on the difference in brightness between the two observed feature points. Further, the position shift direction and / or the position shift amount may be detected based on the region including the two feature points and / or the shading around the region.

あるいは、第1の特徴点が観察方向から見て第2の特徴点の一部又は全部と重なったときに現れる重なり像及び/又は該重なり像の周囲の明るさの偏差又は勾配に基づいて位置ずれ方向及び/又は位置ずれ量を検出することができる。 Alternatively, the position is based on an overlap image that appears when the first feature point overlaps part or all of the second feature point when viewed from the observation direction and / or a brightness deviation or gradient around the overlap image. The shift direction and / or the position shift amount can be detected.

さらに、二つの特徴点の位置差から位置ずれ方向及び/又は位置ずれ量を検出することができ、または、二つの特徴点を包含する領域の大きさに基づいて位置ずれ方向及び/又は位置ずれ量を検出することができる。この場合、二つの特徴点のそれぞれの重心を結ぶ線分に基づいて位置ずれ方向及び/又は位置ずれ量を検出することができ、さらには、二つの特徴点を包含する領域を位置ずれ方向で切った断面が形成する線分に基づいて位置ずれ量を検出することができる。 Furthermore, the position shift direction and / or the position shift amount can be detected from the position difference between the two feature points, or the position shift direction and / or position shift based on the size of the region including the two feature points. The amount can be detected. In this case, the misalignment direction and / or misalignment amount can be detected based on the line segment connecting the centroids of the two feature points, and the region including the two feature points can be detected in the misalignment direction. The amount of misalignment can be detected based on the line segment formed by the cut section.

また、二つの特徴点を包含する領域を二つの特徴点の領域の和領域としてもよい。そして、二つの特徴点を包含する領域が、第1の特徴点が第2の特徴点の像に重なることによってできる像の領域であってもよい。さらに、二つの特徴点を包含する領域が、二つの特徴点を包含する最小の四角形であってもよい。   Further, a region including two feature points may be a sum region of two feature point regions. The region including the two feature points may be an image region formed by overlapping the first feature point with the image of the second feature point. Further, the area including the two feature points may be a minimum rectangle including the two feature points.

また、二つの特徴点の形状を認識して位置ずれ方向及び/又は位置ずれ量を検出することができる。この場合、円を検出する検出方法を用いて二つの特徴点の領域のそれぞれの中心を求め、該中心間の距離に基づいて位置ずれ量を検出してもよい。形状を認識して検出する検出方法はハフ変換を用いることができる。 In addition, it is possible to detect the shape of the two feature points and detect the displacement direction and / or the displacement amount. In this case, the center of each of the two feature point regions may be obtained using a detection method for detecting a circle, and the amount of displacement may be detected based on the distance between the centers. A Hough transform can be used as a detection method for recognizing and detecting a shape.

以上説明した本発明に係る位置ずれ検出方法によれば、物体の位置基準マークを特徴点として光学的に観察することによって、画像処理の手法により精度よく位置を検出することができ、物体の位置調整や傾き調整を迅速かつ効率よく行うことができる。また、物体を傷付けることなく効果的に位置ずれを検出することができ、画像の解像度の10〜50倍程度の精度でずれ量を検出することができる。 According to the positional deviation detecting how according to the present invention described above, by optically observing the position reference mark of the object as a feature point, the method of image processing can be accurately detected position, the object of the Position adjustment and tilt adjustment can be performed quickly and efficiently. In addition, it is possible to detect the displacement effectively without damaging the object, and it is possible to detect the displacement with an accuracy of about 10 to 50 times the resolution of the image.

以下、本発明に係る位置ずれ検出方法の実施例について、添付図面を参照して説明する。 Hereinafter, an embodiment of the displacement detecting how according to the present invention will be described with reference to the accompanying drawings.

(第1実施例、図1〜図15参照)
図1に、第1実施例として、透明な被調整物110の表面に形成した位置基準マーク111の所定位置からのずれ量及び/又は位置ずれ方向を検出し、被調整物110をXY平面上で移動させ、調整用部材120に対する被調整物110の芯出しを行うようにした位置調整装置を示す。被調整物110は位置合わせが必要な透明部材であり、調整用部材120は該透明部材を組み付けるための基板である。
(Refer 1st Example and FIGS. 1-15)
In FIG. 1, as the first embodiment, a displacement amount and / or a displacement direction of a position reference mark 111 formed on the surface of a transparent object to be adjusted 110 from a predetermined position is detected, and the object to be adjusted 110 is placed on the XY plane. The position adjustment device is shown in which the object to be adjusted 110 is centered with respect to the adjustment member 120 by being moved by. The adjustment object 110 is a transparent member that needs to be aligned, and the adjustment member 120 is a substrate for assembling the transparent member.

この位置調整装置は、調整用部材120上に載置された被調整物110の位置基準マーク111及び調整用部材120に形成した位置基準マーク121を観察装置(CCDカメラ)100で撮影し(図2のステップS1)、撮影した特徴点を画像処理することにより特徴点領域を抽出し(ステップS2)、観察像中の特徴点領域もしくはその周囲から位置ずれ量を算出する(ステップS3)。そして、算出値に基づいて駆動ステージ107にて被調整物110を調整用部材120に対してXY平面上で移動させる。駆動ステージ107は周知のXY駆動方式によるものである。   In this position adjustment device, the position reference mark 111 of the object 110 to be adjusted placed on the adjustment member 120 and the position reference mark 121 formed on the adjustment member 120 are photographed by the observation device (CCD camera) 100 (FIG. In step S1), a feature point region is extracted by performing image processing on the captured feature point (step S2), and a positional deviation amount is calculated from the feature point region in the observation image or its surroundings (step S3). Then, the object to be adjusted 110 is moved on the XY plane with respect to the adjustment member 120 by the drive stage 107 based on the calculated value. The drive stage 107 is based on a well-known XY drive method.

位置基準マーク111、121を光学的に観察したとき、像として観察される特徴点又は該特徴点の周囲は、他の領域と濃淡の傾向が異なる。それを検出することでマーク121に対するマーク111の観察方向から見たずれ量を高精度に検出することができる。   When the position reference marks 111 and 121 are optically observed, the feature points observed as an image or the surroundings of the feature points have different shading tendencies from other regions. By detecting this, it is possible to detect with high accuracy the amount of deviation seen from the observation direction of the mark 111 with respect to the mark 121.

第1実施例において、位置基準マーク111は直径10μmの凸型をなし、位置基準マーク121は直径10μmの穴として形成されている。XY方向に対して垂直な光軸Pを有する観察装置100で撮影した結果を640×480ピクセルの24ビットのRGBカラー画像としてCPU105に転送し、ディスプレイ106に表示する。画素の明るさLは、それぞれの色成分(R,G,B)を使って以下の式で表すことができる。   In the first embodiment, the position reference mark 111 has a convex shape with a diameter of 10 μm, and the position reference mark 121 is formed as a hole with a diameter of 10 μm. The result captured by the observation apparatus 100 having the optical axis P perpendicular to the XY direction is transferred to the CPU 105 as a 640 × 480 pixel 24-bit RGB color image and displayed on the display 106. The brightness L of the pixel can be expressed by the following equation using the respective color components (R, G, B).

L=0.298912×R+0.586611×G+0.114478×B   L = 0.298912 × R + 0.586611 × G + 0.114478 × B

観察装置100で撮影した特徴点(位置基準マーク111,121の撮影像)は、被調整物110のマーク111が明るく、調整用部材120のマーク121が暗く撮影される。CPU105は、特徴点領域を明るさの平均値に10を加えた値より高い点を特徴点領域として抽出する。所定のパラメータに従って入力画像を処理した結果もしくは操作者が指示した値に従って駆動ステージ107を駆動する。   The feature points (photographed images of the position reference marks 111 and 121) photographed by the observation apparatus 100 are photographed such that the mark 111 of the object 110 to be adjusted is bright and the mark 121 of the adjustment member 120 is dark. The CPU 105 extracts a point that is higher than the value obtained by adding 10 to the average brightness value as the feature point region. The drive stage 107 is driven according to the result of processing the input image according to a predetermined parameter or the value designated by the operator.

まず、手動で駆動ステージ107を操作して、図3に示す手順でパラメータa1,a2を求める。即ち、被調整物110及び調整用部材120のマーク111,121(特徴点)が目視にてほぼ重なるように調整し(ステップS11)、被調整物110をX方向に5μm移動させ(ステップS12)、画像上の特徴点領域を包含する最小の四角形を5ピクセル拡張する(ステップS13)。そして、ステップS13で求めた四角形内においてその明るさ分布の偏差Vを求める(ステップS14)。さらに、被調整物110をX方向に5μm移動させ(ステップS15)、画像上の特徴点領域を包含する最小の四角形の幅x1を測定する(ステップS16)。さらに、被調整物110をX方向に5μm移動させ(ステップS17)、画像上の特徴点領域を包含する最小の四角形の幅x2を測定する(ステップS18)。   First, the drive stage 107 is manually operated to obtain the parameters a1 and a2 according to the procedure shown in FIG. That is, adjustment is performed so that the marks 111 and 121 (feature points) of the object to be adjusted 110 and the adjustment member 120 are substantially overlapped with each other (step S11), and the object to be adjusted 110 is moved by 5 μm in the X direction (step S12). Then, the minimum rectangle including the feature point region on the image is expanded by 5 pixels (step S13). Then, a deviation V of the brightness distribution is obtained within the square obtained in step S13 (step S14). Further, the object to be adjusted 110 is moved by 5 μm in the X direction (step S15), and the width x1 of the smallest rectangle including the feature point region on the image is measured (step S16). Further, the object to be adjusted 110 is moved in the X direction by 5 μm (step S17), and the minimum width x2 of the feature point area on the image is measured (step S18).

パラメータa1,a2は以下の式で示される。   The parameters a1 and a2 are expressed by the following equations.

a1=5/Vx
a2=5/|x1−x2|
但し、Vxは偏差Vの画像中のX方向成分
a1 = 5 / Vx
a2 = 5 / | x1-x2 |
Vx is the X direction component in the image of deviation V

前記パラメータa1,a2をCPU105に設定し、CPU105はこのパラメータに従って図4に示す手順で位置ずれ量を演算する。なお、この演算手順中、Dは被調整物110を基準としたときの調整用部材120のずれ量である。dtは要求精度である。ここではdt=1μmとした。   The parameters a1 and a2 are set in the CPU 105, and the CPU 105 calculates the amount of displacement according to the parameters according to the procedure shown in FIG. In this calculation procedure, D is a deviation amount of the adjustment member 120 when the adjustment target 110 is used as a reference. dt is the required accuracy. Here, dt = 1 μm.

まず、CPU105は入力画像を取得し(ステップS21)、特徴点領域を抽出する(ステップS22)。そして、特徴点領域を包含する最小の四角形Rを求め(ステップS23)、四角形Rの対角線がx2よりも小さいか否かを判定する(ステップS24)。   First, the CPU 105 acquires an input image (step S21), and extracts a feature point area (step S22). Then, the smallest rectangle R that includes the feature point region is obtained (step S23), and it is determined whether the diagonal line of the rectangle R is smaller than x2 (step S24).

ステップS24でYESであれば、四角形Rを10ピクセル拡張して周囲の明るさの偏差Vを求め(ステップS25)、ずれ量D=a1Vを求める(ステップS26)。一方、ステップS24でNOであれば、明るさが特徴点領域全体の平均値よりも大きい点と小さい点それぞれの画像上の座標の平均値(重心)Gb,Gdを求め(ステップS27)、ずれ量D=a2(Gb−Gd)を求める(ステップS28)。   If “YES” in the step S24, the square R is expanded by 10 pixels to obtain an ambient brightness deviation V (step S25), and a deviation amount D = a1V is obtained (step S26). On the other hand, if NO in step S24, the average values (centroids) Gb and Gd of the coordinates on the image of the points whose brightness is larger and smaller than the average value of the entire feature point region are obtained (step S27), and the deviation is detected. A quantity D = a2 (Gb−Gd) is obtained (step S28).

次に、前記ステップS26又はS28で求めたずれ量|D|が要求精度dtよりも小さいか否かを判定する(ステップS29)。小さければ演算を終了する。大きい場合には駆動ステージ107に指示として値Dを与えて駆動し(ステップS30)、前記ステップS21へ戻る。   Next, it is determined whether or not the deviation amount | D | obtained in step S26 or S28 is smaller than the required accuracy dt (step S29). If it is smaller, the operation is terminated. If larger, the drive stage 107 is given a value D as an instruction to drive (step S30), and the process returns to step S21.

なお、要求精度dtの値はX,Y方向に個別に存在してもよい。その場合、ずれ量Dの各要素とX,Y方向それぞれの閾値を比較する。ここでは、初期パラメータはX方向で算出したが、Y方向で算出してもよい。また、X,Y方向とも同じ係数を用いたが、被調整物110をY方向にも移動させてパラメータをX,Y方向に個別に求めてもよい。また、初期パラメータの算出は同等の部材の位置ずれを検出するのであれば、最初の1回のみでよい。   Note that the value of the required accuracy dt may exist individually in the X and Y directions. In this case, each element of the deviation amount D is compared with the threshold values in the X and Y directions. Here, the initial parameters are calculated in the X direction, but may be calculated in the Y direction. Moreover, although the same coefficient was used in the X and Y directions, the parameter 110 may be obtained individually in the X and Y directions by moving the object 110 to be adjusted in the Y direction. In addition, the initial parameter may be calculated only once for the first time as long as the displacement of the equivalent member is detected.

本第1実施例では、位置基準マーク111,121を観察装置100にて撮影して特徴点の像として取り扱うため、特徴点領域の抽出が位置ずれ量の計算処理が容易である。また、被調整物110や調整用部材120を傷付けることなく効果的に位置ずれを検出することができ、画像の解像度の10〜50倍程度の精度でずれ量を検出することができる。   In the first embodiment, since the position reference marks 111 and 121 are photographed by the observation apparatus 100 and handled as feature point images, the feature point region can be easily extracted by calculating the positional deviation amount. In addition, it is possible to effectively detect a positional shift without damaging the object to be adjusted 110 and the adjustment member 120, and it is possible to detect the shift amount with an accuracy of about 10 to 50 times the resolution of the image.

そして、像として抽出された特徴点領域は、ほかの領域と明るさの傾向が異なるため、画像の濃淡から明るさを求め、その値が所定のより大きいもしくは小さい場所を特徴点領域とすることができる。明るさの指標は、L*u*v色空間での明度指数や、グレースケール画像の場合は画素の値そのもの、カラー画像の場合はRGB/CMY値の任意の色成分、RGB色成分の自乗和又はその平方根、HBS値に変換した場合の明度などを任意に選択することができる。   Since the feature point region extracted as an image has a tendency of brightness different from other regions, the brightness is obtained from the shade of the image, and a place where the value is larger or smaller than a predetermined value is determined as the feature point region. Can do. The brightness index is the brightness index in the L * u * v color space, the pixel value itself in the case of a grayscale image, the arbitrary color component of the RGB / CMY value in the case of a color image, or the square of the RGB color component. The sum or the square root thereof, the brightness when converted into the HBS value, and the like can be arbitrarily selected.

また、位置基準マークを形成した物体の材質によっては、像として観察した特徴点領域はある特定の色を示す傾向にある。ノイズなどの影響で多少誤差を生じるおそれがあるため、類似した色も特徴点領域であると判断する。所定の色は、予め特徴点領域としたい領域が含まれるように所定の色空間の特定の領域を定め、それを選択して使用する。例えば、特徴点が青色、その他の場所の色が青色以外を示す場合は、青色の部分を特徴点領域として検出する。また、異なる波長の光を混合した光線で位置基準マークを照明すると、マークや物体の屈折率の違いなどの要因でマークの像(特徴点)は他と異なる色の領域として観察できる。色は、CIE標準で示される色空間での値やRGB/CMY値、HSB値などを使用できる。   Also, depending on the material of the object on which the position reference mark is formed, the feature point region observed as an image tends to show a specific color. Since some errors may occur due to the influence of noise or the like, it is determined that similar colors are also feature point regions. For a predetermined color, a specific area of a predetermined color space is determined so that an area desired to be a feature point area is included in advance, and is selected and used. For example, when the feature point is blue and the color of other places indicates other than blue, the blue portion is detected as the feature point region. In addition, when the position reference mark is illuminated with a light beam mixed with light of different wavelengths, the mark image (feature point) can be observed as a region of a different color due to factors such as a difference in the refractive index of the mark or object. As the color, a value in a color space indicated by the CIE standard, an RGB / CMY value, an HSB value, or the like can be used.

また、前記所定の値は画像中の明るさの分布から求めることができる。撮影画像中の特徴点領域の明るさは位置基準マークの撮影条件により異なる。そこで、像全体の明るさの分布を使って相対的に明るい部分もしくは暗い部分を抽出することで効果的に特徴点領域を検出することができる。また、所定の値を画像中の明るさの平均値の近傍値から求めるようにしてもよい。   The predetermined value can be obtained from the distribution of brightness in the image. The brightness of the feature point area in the photographed image varies depending on the photographing condition of the position reference mark. Therefore, the feature point region can be effectively detected by extracting a relatively bright part or dark part using the brightness distribution of the entire image. Further, the predetermined value may be obtained from the vicinity value of the average brightness value in the image.

あるいは、所定の値を画像中の明るさの分布中最も多い明るさの近傍から求めることもできる。撮影画像中の特徴点の占める面積は、画像全体から見ると半分以下である。また、特徴点以外の領域はほぼ同じ明るさを示す。従って、明るさの頻度分布をとると、特徴点領域以外の部分が高い頻度となって現れる。つまり、特徴点領域を相対的に他の部分より明るい又は暗い領域として抽出する場合、画像全体の明るさの平均値や最尤値よりも明るい又は暗い領域となる。それゆえ、特徴点領域として抽出される領域中の画素の明るさPは以下のような条件を満たす。   Alternatively, the predetermined value can be obtained from the vicinity of the highest brightness in the brightness distribution in the image. The area occupied by the feature points in the captured image is less than half when viewed from the entire image. In addition, areas other than the feature points show almost the same brightness. Therefore, when the frequency distribution of brightness is taken, portions other than the feature point region appear with high frequency. That is, when the feature point region is extracted as a region that is relatively brighter or darker than other portions, the feature point region is a region that is brighter or darker than the average brightness value or maximum likelihood value of the entire image. Therefore, the brightness P of the pixels in the region extracted as the feature point region satisfies the following condition.

P≧Pt−Pg(特徴点領域が暗い場合)
P≦Pt+Pg(特徴点領域が明るい場合)
P ≧ Pt−Pg (when the feature point area is dark)
P ≦ Pt + Pg (when the feature point area is bright)

前記式中のPgは図5に示すギャップPgであり、Ptは画像全体の平均値もしくは最尤値である。特徴点領域の明るさは平均値や最尤値と多少のギャップPgが存在するため、ギャップPgを加減することで、特徴点領域のみを効率的に抽出できる。ギャップPgの値はPtの値の1〜2割位が望ましい。   Pg in the above formula is the gap Pg shown in FIG. 5, and Pt is the average value or maximum likelihood value of the entire image. Since the brightness of the feature point area has an average value or maximum likelihood value and some gap Pg, only the feature point area can be efficiently extracted by adjusting the gap Pg. The value of the gap Pg is preferably about 1 to 20% of the value of Pt.

また、第1実施例においては、位置基準マークを二つ設定するようにしたため、マーク111,121を同時に撮影することで、特徴点のずれ量を求め、被調整物110と調整用部材120との位置ずれ量を検出することができる。   Further, in the first embodiment, since two position reference marks are set, the misalignment amount of the feature point is obtained by simultaneously photographing the marks 111 and 121, and the object to be adjusted 110, the adjustment member 120, Can be detected.

また、一つの物体の2点にマークを形成し、画像として観察された特徴点の相対ずれ量を求めることで、物体の姿勢や製造精度を求めることも可能である。この場合、特徴点のずれ量を算出し、その結果を実際のずれ量に換算する。   It is also possible to obtain the posture and manufacturing accuracy of an object by forming marks at two points of one object and obtaining the relative deviation amount of the feature points observed as an image. In this case, the deviation amount of the feature point is calculated, and the result is converted into the actual deviation amount.

図6においては、(A)に二つの物体150,160のずれ量を検出する場合を模式的に示し、(B)に物体170の表裏面のずれ量を検出する場合を模式的に示し、(C)に物体180の傾き量を検出する場合を模式的に示している。符号151,161,171,172,181,182は位置基準マークである。   In FIG. 6, (A) schematically illustrates a case where the amount of displacement between the two objects 150 and 160 is detected, and FIG. 6 (B) schematically illustrates a case where the amount of displacement between the front and back surfaces of the object 170 is detected. FIG. 6C schematically shows a case where the tilt amount of the object 180 is detected. Reference numerals 151, 161, 171, 172, 181, and 182 are position reference marks.

また、位置ずれ方向に関しては、観察された二つの特徴点の大小により検出することができる。二つの特徴点の画像中の特徴点領域は、特徴点の位置、観察位置、観察時の焦点距離などの要因により、大きさが異なって見える。予め、双方の位置基準マークの大小を調べておくことで、それぞれの特徴点領域がいずれのマークによるものかを判別することができ、これにて位置ずれ方向を検出することができる。   Further, the misalignment direction can be detected by the magnitude of the two observed feature points. The feature point regions in the image of the two feature points appear to have different sizes depending on factors such as the position of the feature point, the observation position, and the focal length at the time of observation. By checking the size of both position reference marks in advance, it is possible to determine which mark each feature point area is based on, and thereby the position shift direction can be detected.

また、観察された二つの特徴点の明るさの差に基づいて位置ずれ方向を検出することもできる。観察された二つの特徴点は、照明及び光学系を用いた観察の場合は、その焦点距離、マークの位置や物体の材質などで明るさに差が現れる。従って、特徴点領域を検出したうえで、その領域内の明るさの平均値や最尤量などを比較するとそれぞれの特徴点領域がいずれのマークによるものかを判別することができ、これにて位置ずれ方向を検出することができる。   Further, it is possible to detect the direction of displacement based on the difference in brightness between the two observed feature points. In the case of observation using illumination and an optical system, the observed two feature points show a difference in brightness depending on the focal length, the position of the mark, the material of the object, and the like. Therefore, by detecting the feature point area and comparing the average value and maximum likelihood of brightness within the area, it is possible to determine which mark each feature point area is based on. The misalignment direction can be detected.

例えば、図7(A)に示すように、透光性物体170に形成された位置基準マーク171が光を半透過し、位置基準マーク172が光を吸収する場合、マーク171,172ともに他の領域より暗く観察されるが、マーク171はマーク172よりも明るく観察される。また、図7(B)に示すように、物体150,160が透明で、位置基準マーク151が物体150に形成された凸部、位置基準マーク161が物体160に形成された穴の場合、凸部(マーク151)がレンズの作用を生じて観察位置によって画像中のそれぞれの特徴点領域の明るさが変わる。   For example, as shown in FIG. 7A, when the position reference mark 171 formed on the translucent object 170 semi-transmits light and the position reference mark 172 absorbs light, both the marks 171 and 172 Although it is observed darker than the area, the mark 171 is observed brighter than the mark 172. Further, as shown in FIG. 7B, when the objects 150 and 160 are transparent, the position reference mark 151 is a protrusion formed on the object 150, and the position reference mark 161 is a hole formed on the object 160, the protrusion The portion (mark 151) causes the action of a lens, and the brightness of each feature point region in the image changes depending on the observation position.

なお、図7(A),(B)において、照明方向は観察方向と逆方向である必要はなく、また、照明手段は必ずしも必要なものではない。例えば、図7(B)に示すマーク151が発光するものである場合などである。また、マーク151は光線を反射するものであってもよく、その場合、必要であれば反射光を強めるために照明手段を用いてもよい。   In FIGS. 7A and 7B, the illumination direction does not have to be opposite to the observation direction, and the illumination means is not necessarily required. For example, this is the case where the mark 151 shown in FIG. 7B emits light. Further, the mark 151 may reflect a light beam. In that case, an illumination unit may be used to enhance the reflected light if necessary.

また、二つの特徴点を包含する領域及び/又は該領域の周囲の濃淡に基づいて位置ずれ方向及び/又は位置ずれ量を検出することもできる。二つの特徴点が非常に近いか、一部又は全部が重なるような位置関係にある場合、特徴点自体の明るさや大きさによる判別が不可能になる。しかし、特徴点を包含する領域やその周囲に特徴的な濃淡が現れるので、該濃淡に基づいて位置ずれ方向及び位置ずれ量を検出することができる。   Further, it is possible to detect the position shift direction and / or the position shift amount based on the area including the two feature points and / or the density around the area. If the two feature points are very close or have a positional relationship such that some or all of them overlap, it is impossible to discriminate them based on the brightness and size of the feature points themselves. However, since characteristic shades appear in and around the region including the feature points, the displacement direction and the displacement amount can be detected based on the shades.

詳しくは、図8(A)に示すように、二つの特徴点が一部重なるか非常に近い場合、図8(B)に示すように、二つの特徴点がほぼ重なる場合、特徴点領域及びその周囲に特徴的な濃淡の分布が現れる。その分布を検出することにより、特徴点の相対的な位置ずれの方向及び距離を判別可能である。   Specifically, as shown in FIG. 8A, when two feature points partially overlap or are very close, as shown in FIG. 8B, when two feature points almost overlap, A characteristic shading distribution appears around it. By detecting the distribution, it is possible to determine the direction and distance of the relative displacement of the feature points.

また、図9(A)に示すように、一方の特徴点が撮影方向から見ての他方の特徴点の一部又は全部と重なったときに現れる重なり像及び/又は該重なり像の周囲の明るさの偏差又は勾配に基づいて位置ずれ方向及び/又は位置ずれ量を検出することができる。このような位置ずれ量と特徴点領域内部及びその周囲の明るさの分布の偏りは、ほぼ線形比例の関係にある。つまり、明るさの偏りを偏差や勾配として表すと(図9(B)参照)、これに定数を乗ずることでずれ量を求めることができる。この定数は、特徴点を異なる位置で数回計測した結果から求めることができる。特徴点領域の周囲の領域は、重なったときに現れる特徴点領域の大きさなどに依存するため、予め、特徴点がほぼ全部重なった状態での特徴点領域の大きさを調べておき、その数倍を周囲の領域とすることが好ましい。形状は円形に限らず、四角形など任意の形状を選択することができる。   In addition, as shown in FIG. 9A, an overlapping image that appears when one feature point overlaps part or all of the other feature point as viewed from the photographing direction and / or brightness around the overlapping image. The misalignment direction and / or misalignment amount can be detected based on the deviation or gradient of the height. Such a positional deviation amount and a deviation in brightness distribution in and around the feature point region are in a substantially linear relationship. That is, when the brightness bias is expressed as a deviation or a gradient (see FIG. 9B), the deviation amount can be obtained by multiplying this by a constant. This constant can be obtained from the result of measuring the feature point several times at different positions. Since the area around the feature point area depends on the size of the feature point area that appears when they overlap, the size of the feature point area in the state where the feature points are almost completely overlapped in advance is checked. It is preferable to set several times as the surrounding area. The shape is not limited to a circle, and an arbitrary shape such as a quadrangle can be selected.

また、二つの特徴点の位置差から位置ずれ量を検出することができる。即ち、二つの特徴点の間の距離は、実際の位置基準マークの位置ずれ量と線形の関係にある。よって、特徴点の離間距離を求めそれに定数を乗じることにより、マークの位置ずれ量を求めることができる。ここでの定数は、異なる位置で数回計測した値から求めることができる。   Further, it is possible to detect the amount of positional deviation from the positional difference between the two feature points. In other words, the distance between the two feature points has a linear relationship with the actual positional deviation amount of the position reference mark. Therefore, the amount of misalignment of the mark can be obtained by obtaining the separation distance of the feature points and multiplying it by a constant. The constant here can be obtained from values measured several times at different positions.

あるいは、二つの特徴点を包含する領域の大きさに基づいて位置ずれ量を検出することもできる。特徴点が非常に近いか一部又は全部が重なっているような位置関係にあるとき、特徴点領域の大きさSと位置ずれ量Lは、以下の関係にある。   Alternatively, the amount of displacement can be detected based on the size of the region including the two feature points. When the feature points are very close or have a positional relationship such that some or all of them overlap, the size S of the feature point region and the positional deviation amount L have the following relationship.

L=A×S+B   L = A × S + B

ここで、A,Bは所定の定数である。これらの定数は、特徴点領域の大きさや位置関係により指定することになる。   Here, A and B are predetermined constants. These constants are designated by the size and positional relationship of the feature point area.

ところで、前記式の定数Bは二つの特徴点領域の大きさの平均の半分である。定数Aは二つの特徴点の画像位置を変えながらL,Sを測定することで求めることができる。特徴点領域の大きさは、特徴点領域を包含する最小の長方形の対角線もしくは辺の長さや、特徴点領域の重心を結ぶ直線を特徴点領域で切った線分の長さなどを利用できる。従って、図10に示すように、二つの特徴点151,161のそれぞれの重心1,2を結ぶ線分Cに基づいて位置ずれ量を検出することができる。   By the way, the constant B in the above formula is half the average of the sizes of the two feature point regions. The constant A can be obtained by measuring L and S while changing the image positions of the two feature points. As the size of the feature point area, the minimum rectangular diagonal line or side length including the feature point area, the length of a line segment obtained by cutting a straight line connecting the centroids of the feature point area, or the like can be used. Therefore, as shown in FIG. 10, the amount of displacement can be detected based on the line segment C connecting the centroids 1 and 2 of the two feature points 151 and 161, respectively.

また、特徴点領域が一つの場合、前記式の定数Bを予め所定の方法で定めておくと、定数Aの値を図10に示した方法で求めることができる。定数Bを定める方法は、特徴点領域が二つになるように物体を移動させ、それぞれの特徴点領域の大きさの平均の半分の値を選択するとか、経験的に任意の値を選択してもよい。   Further, when there is one feature point region, the value of the constant A can be obtained by the method shown in FIG. The method for determining the constant B is to move the object so that there are two feature point regions and select a value that is half the average of the size of each feature point region, or select an arbitrary value empirically. May be.

さらに、図11(A)に示すように、二つの特徴点151',161'を包含する領域が特徴点の領域の和領域であってもよい。または、図11(B)に示すように、二つの特徴点151',161'を包含する領域が特徴点の重なりによってできる像の領域であってもよい。さらには、図11(C)に示すように、二つの特徴点151',161'を包含する最小の四角形であってもよい。   Furthermore, as shown in FIG. 11A, the region including the two feature points 151 ′ and 161 ′ may be a sum region of the feature point regions. Alternatively, as shown in FIG. 11B, an area including two feature points 151 ′ and 161 ′ may be an image area formed by the overlap of feature points. Furthermore, as shown in FIG. 11C, a minimum quadrangle including two feature points 151 ′ and 161 ′ may be used.

即ち、特徴点領域が二つあるか否かの判定は、二つの特徴点を包含する領域を設定すると容易になる。二つの特徴点が離れている場合、これらを包含する領域は大きい。この領域は種々の形状とすることができるが、画像処理などの場合は画像上での座標値がそのまま使用できる点から矩形であることが好ましい。   That is, it is easy to determine whether there are two feature point regions by setting a region including two feature points. When two feature points are separated from each other, a region including them is large. This region can have various shapes, but in the case of image processing or the like, a rectangular shape is preferable because the coordinate values on the image can be used as they are.

また、二つの特徴点の形状を認識して位置ずれ量を検出することができる。即ち、特徴点が形状認識手法を用いて検出しやすい形状である場合、その形状を検出した後、該形状から位置ずれ量を検出することができる。   In addition, the amount of displacement can be detected by recognizing the shapes of the two feature points. That is, when the feature point has a shape that can be easily detected using the shape recognition method, the amount of positional deviation can be detected from the shape after the shape is detected.

その手順は、図12に示すように、まず、線を導出し(ステップS41)、形状を検出する(ステップS42)。次に、形状の重心・中心を求め(ステップS43)、求めた重心・中心から位置ずれ量を計算する(ステップS44)。   As shown in FIG. 12, the procedure first derives a line (step S41) and detects the shape (step S42). Next, the center of gravity / center of the shape is obtained (step S43), and the amount of displacement is calculated from the obtained center of gravity / center (step S44).

形状認識方法としては、ハフ変換や最小自乗法、テンプレートマッチング法などを採用することができる。図13はハフ変換を採用した場合の手順を示す。まず、線を検出し(ステップS51)、ハフ変換で円を検出し(ステップS52)、中心座標から位置ずれ量を計算する(ステップS53)。   As a shape recognition method, a Hough transform, a least square method, a template matching method, or the like can be employed. FIG. 13 shows a procedure when the Hough transform is employed. First, a line is detected (step S51), a circle is detected by Hough transform (step S52), and the amount of displacement is calculated from the center coordinates (step S53).

ハフ変換は数式で表現できる形状(直線、円、楕円など)を検出することができ、検出した円の中心と半径を同時に求めることができる。よって、大きさで位置ずれ方向を、中心間距離で位置ずれ量を同時に求めることができて好都合である。   The Hough transform can detect shapes (straight lines, circles, ellipses, etc.) that can be expressed by mathematical formulas, and can simultaneously determine the center and radius of the detected circles. Therefore, it is convenient that the positional deviation direction can be obtained simultaneously by the size and the positional deviation amount can be obtained by the distance between the centers.

最小自乗法やテンプレートマッチング法は、複雑な形状や形状内の明るさ・色の傾向が最も近い領域を検出することができる。例えば、位置基準マークの一方が矩形で他方が円形の場合、像中の矩形をテンプレートマッチング法にて検索し、円形をハフ変換で検索すれば、容易に特徴点領域を特定することができる。そして、特徴点のずれ方向も同時に検出することができる。なお、図12に示した手順において、最小自乗法やテンプレートマッチング法を採用する場合には、ステップS41での線の導出は不要である。   The least square method or the template matching method can detect a complex shape or a region having the closest brightness / color tendency in the shape. For example, when one of the position reference marks is a rectangle and the other is a circle, a feature point region can be easily specified by searching for a rectangle in the image by a template matching method and searching for a circle by Hough transform. And the shift direction of a feature point can also be detected simultaneously. In the procedure shown in FIG. 12, when the least square method or the template matching method is adopted, the derivation of the line in step S41 is not necessary.

図14(A)に示すように、特徴点151',161'が観察方向から見て円形もしくは円形を含む形状である場合、この円151",161"を検出し、それらの中心間の距離に基づいて位置ずれ量を容易に検出することができる。また、図14(B)に示すように、双方の特徴点151',161'が観察方向から見て円形の場合、それらの一部又は全部が重なるような位置関係になったときに、特徴点151',161'はひょうたん型となる。ひょうたん型の特徴点として観察された場合には、円151",161"の半径から特徴点151',161'を判定できる。   As shown in FIG. 14A, when the feature points 151 ′ and 161 ′ have a circular shape or a shape including a circular shape when viewed from the observation direction, the circles 151 ″ and 161 ″ are detected, and the distance between the centers thereof is detected. Based on this, it is possible to easily detect the amount of displacement. In addition, as shown in FIG. 14B, when both feature points 151 ′ and 161 ′ are circular when viewed from the observation direction, when the positional relationship is such that part or all of them overlap, The points 151 ′ and 161 ′ are of a gourd type. When observed as a gourd-shaped feature point, the feature points 151 ′ and 161 ′ can be determined from the radii of the circles 151 ″ and 161 ″.

また、第1実施例において、観察された二つの特徴点の大きさが異なるように被調整物の位置又は観察位置を調節してもよい。被調整物の形状、設置位置、観察位置、光学系による観察の場合は観察光学系の焦点距離、角倍率などによって、特徴点領域の大きさが変化する。これを利用して二つの特徴点の大きさが異なるように被調整物の設置位置や観察位置、光学系の焦点距離を変更することで、位置ずれ方向の検出が容易になる。   In the first embodiment, the position of the object to be adjusted or the observation position may be adjusted so that the two observed feature points have different sizes. In the case of observation with the shape of the object to be adjusted, the installation position, the observation position, and the optical system, the size of the feature point region changes depending on the focal length, angular magnification, and the like of the observation optical system. By using this, the position of the object to be adjusted, the observation position, and the focal length of the optical system are changed so that the two feature points have different sizes, thereby making it easy to detect the misalignment direction.

また、観察された二つの特徴点の明るさが異なるように、被調整物の設置位置、観察位置又は観察光学系の焦点距離を調節してもよく、あるいは、照明手段の明るさを調節してもよい。   Also, the installation position of the object to be adjusted, the observation position, or the focal length of the observation optical system may be adjusted so that the brightness of the two observed feature points is different, or the brightness of the illumination means is adjusted. May be.

さらに、第1実施例において、観察された二つの特徴点の形状が観察方向から見て互いに異なることが好ましく、特徴点領域の抽出及び位置ずれ方向の判別が容易になる。また、図15に示すように、位置基準マークは少なくともいずれか一方が物体170に形成された凹部171又は凸部172であってもよく、位置基準マークの少なくともいずれか一方が物体170上に印刷されたものであってもよい。また、位置基準マークの少なくともいずれか一方が物体170の内部に形成された空洞173であってもよい。   Furthermore, in the first embodiment, it is preferable that the shapes of the two observed feature points are different from each other when viewed from the observation direction, which facilitates the extraction of the feature point region and the determination of the displacement direction. Further, as shown in FIG. 15, at least one of the position reference marks may be a concave portion 171 or a convex portion 172 formed on the object 170, and at least one of the position reference marks is printed on the object 170. It may be what was done. Further, at least one of the position reference marks may be a cavity 173 formed inside the object 170.

(第2実施例、図16〜図18参照)
本発明に係る位置ずれ検出方法では二つの特徴点を検出することで物体の傾きを検出することができる。ここで、第2実施例としてこの検出方法を用いた傾き調整装置を説明する。
(Refer 2nd Example and FIGS. 16-18)
In the positional deviation detection method according to the present invention, the inclination of the object can be detected by detecting two feature points. Here, an inclination adjusting apparatus using this detection method will be described as a second embodiment.

この傾き調整装置は、図16に示すように、調整テーブル130に被調整物135設け、X軸回転駆動機構141によって調整テーブル130をX軸を中心に回転駆動し、かつ、調整テーブル130上に取り付けたY軸回転駆動機構142によって被調整物135をY軸を中心に回転駆動するようにしたものである。   As shown in FIG. 16, this tilt adjustment device is provided with an object 135 to be adjusted on the adjustment table 130, and the adjustment table 130 is driven to rotate about the X axis by the X axis rotation drive mechanism 141. The to-be-adjusted object 135 is driven to rotate about the Y axis by the attached Y axis rotation drive mechanism 142.

被調整物135は駆動機構141,142によってX軸、Y軸を中心としてその傾きを調整される。また、図17に示すように、被調整物135の裏面には環状に印刷された位置基準マーク136が設けられ、表面にはマーク136よりも小さい半径の円形状に印刷された位置基準マーク137が設けられている。   The tilt of the object to be adjusted 135 is adjusted by the drive mechanisms 141 and 142 around the X and Y axes. Further, as shown in FIG. 17, a position reference mark 136 printed in an annular shape is provided on the back surface of the object 135 to be adjusted, and the position reference mark 137 printed in a circular shape having a smaller radius than the mark 136 is provided on the front surface. Is provided.

観察装置(CCDカメラ)100は前記第1実施例で示したものと同様であり、前記マーク136,137を撮影し、撮影した特徴点を画像処理することでそのずれ量を算出し、さらに、被調整物135の傾きを求める。そして、求められた傾きに基づいて駆動機構141,142を駆動して被調整物135の傾きを調整する。   The observation apparatus (CCD camera) 100 is the same as that shown in the first embodiment. The marks 136 and 137 are photographed, the photographed feature points are image-processed to calculate the shift amount, and The inclination of the object to be adjusted 135 is obtained. Then, the drive mechanisms 141 and 142 are driven based on the obtained inclination to adjust the inclination of the article 135 to be adjusted.

観察装置100はディスプレイ106を備えたCPU105に1024×1280ピクセルの8ビットグレースケール画像を転送する。CPU105は入力された画像を所定のパラメータに従って図18に示す手順で被調整物135の傾きを補正する。   The observation apparatus 100 transfers an 8-bit grayscale image of 1024 × 1280 pixels to the CPU 105 provided with the display 106. The CPU 105 corrects the tilt of the object 135 to be adjusted according to the procedure shown in FIG.

ここでのパラメータDxは、観察された特徴点の半径と画素に対する回転角の感度である。予め、画像内のそれぞれの特徴点の半径を画素単位で測定しておく。パラメータDxはX軸を0.1°回転させたときの特徴点のずれを画素単位で測定したものである。なお、Y軸に関する感度を求めて使用してもよく、単位は任意である。   The parameter Dx here is the radius of the observed feature point and the sensitivity of the rotation angle with respect to the pixel. The radius of each feature point in the image is measured in advance in units of pixels. The parameter Dx is obtained by measuring the deviation of feature points when the X axis is rotated by 0.1 ° in units of pixels. In addition, you may obtain | require and use the sensitivity regarding a Y-axis, and a unit is arbitrary.

即ち、CPU105は入力画像を取得し(ステップS61)、マーク136,137の特徴点領域のエッジを検出し(ステップS62)、さらに、ハフ変換にて特徴点の円を検出する(ステップS63)。そして、検出された円からそれぞれの特徴点の半径に最も近い円を検索する(ステップS64)。   That is, the CPU 105 obtains the input image (step S61), detects the edge of the feature point area of the marks 136 and 137 (step S62), and further detects the feature point circle by Hough transform (step S63). Then, a circle closest to the radius of each feature point is searched from the detected circles (step S64).

次に、検索した二つの円の中心間の座標差Vを求め(ステップS65)、(θx,θy)・10DxVを計算する(ステップS66)。そして、角度ずれ量|(θx,θy)|が要求精度tよりも小さいか否かを判定する(ステップS67)。小さければ演算を終了する。大きい場合には前記ステップS61へ戻る。   Next, a coordinate difference V between the centers of the two searched circles is obtained (step S65), and (θx, θy) · 10DxV is calculated (step S66). Then, it is determined whether or not the angle deviation amount | (θx, θy) | is smaller than the required accuracy t (step S67). If it is smaller, the operation is terminated. If larger, the process returns to step S61.

また、前記マーク136,137のずれ量から傾きを計算するには、観察された二つの特徴点の見かけの位置ずれ量をxとし、二つの特徴点の間の距離をrとすると、ずれ角θは以下の式を用いて求めることができる。   Further, in order to calculate the inclination from the deviation amount of the marks 136 and 137, when the apparent positional deviation amount of the two feature points is x and the distance between the two feature points is r, the deviation angle is calculated. θ can be obtained using the following equation.

θ=sin-1(x/r) θ = sin −1 (x / r)

なお、距離rが十分に大きいか、位置ずれ量xが十分に小さい場合は、x/rを近似して使ってもよい。   When the distance r is sufficiently large or the positional deviation amount x is sufficiently small, x / r may be approximated and used.

XYテーブル駆動手段や傾き補正手段などを用いてずれ・傾き補正を行うと、駆動誤差よって希望する精度を得るために何度も補正処理を行う必要がある。しかし、本第2実施例では、補正対象である被調整物135のマーク136,137を観察しながら随時補正量を算出できるため、ずれ・傾き補正を効率よく行うことができる。   When deviation / tilt correction is performed using an XY table driving unit, a tilt correcting unit, or the like, it is necessary to perform correction processing many times in order to obtain a desired accuracy due to a driving error. However, in the second embodiment, the correction amount can be calculated as needed while observing the marks 136 and 137 of the adjustment target 135 that is the correction target, so that the deviation and inclination can be corrected efficiently.

(表裏面の位置ずれ検出)
また、図6(B)に示したように、二つのマーク171,172を特徴点として検出することで一つの物体170の表裏面の相対的な位置ずれを検出することができる。この場合、1枚の画像から高速に位置ずれを算出できるため、位置ずれ検出の高速化が達成され、自動検査機などへの応用が可能である。
(Position displacement detection on the front and back sides)
Further, as shown in FIG. 6B, by detecting the two marks 171 and 172 as feature points, a relative positional deviation between the front and back surfaces of one object 170 can be detected. In this case, since the misregistration can be calculated from one image at high speed, the misregistration detection can be speeded up and applied to an automatic inspection machine or the like.

(第2実施例での他の傾き調整方法、図19及び図20参照)
次に、前記第2実施例として示した傾き調整装置を使用した他の傾き調整方法について説明する。ここでは、図19に示すように、被調整物135の裏面に十字状に印刷された位置基準マーク138が設けられ、表面にマーク138を完全に隠蔽しない大きさの円形状に印刷された位置基準マーク139が設けられている。
(Refer to other tilt adjustment methods in the second embodiment, FIG. 19 and FIG. 20)
Next, another inclination adjusting method using the inclination adjusting apparatus shown as the second embodiment will be described. Here, as shown in FIG. 19, a position reference mark 138 printed in a cross shape is provided on the back surface of the object to be adjusted 135, and the position printed in a circular shape with a size that does not completely hide the mark 138 on the front surface. A reference mark 139 is provided.

観察装置100はCPU105に1024×1280ピクセルの8ビットグレースケール画像を転送する。CPU105は入力された画像を所定のパラメータに従って図20に示す手順で被調整物135の傾きを補正する。   The observation apparatus 100 transfers an 8-bit grayscale image of 1024 × 1280 pixels to the CPU 105. The CPU 105 corrects the inclination of the object 135 to be adjusted according to the procedure shown in FIG.

ここでのパラメータDxは、観察された特徴点の半径と画素に対する回転角の感度である。予め、画像内のそれぞれの特徴点の半径を画素単位で測定しておく。パラメータDxはX軸を0.1°回転させたときの特徴点のずれを画素単位で測定したものであり、Y軸に関する感度を求めて使用してもよい。   The parameter Dx here is the radius of the observed feature point and the sensitivity of the rotation angle with respect to the pixel. The radius of each feature point in the image is measured in advance in units of pixels. The parameter Dx is obtained by measuring the shift of the feature point when the X axis is rotated by 0.1 ° in units of pixels, and may be used by obtaining the sensitivity with respect to the Y axis.

即ち、CPU105は入力画像を取得し(ステップS71)、マーク138,139の特徴点領域のエッジを検出し(ステップS72)、さらに、円のハフ変換と直線のハフ変換を同時に適用しててマーク138,139を特徴点として検出する(ステップS73)。   That is, the CPU 105 acquires the input image (step S71), detects the edge of the feature point area of the marks 138 and 139 (step S72), and applies the circle Hough transform and the straight line Hough transform simultaneously to mark the mark. 138 and 139 are detected as feature points (step S73).

次に、検出された円の中心と検出された2直線の交点の座標差Vを求め(ステップS74)、(θx,θy)・10DxVを計算する(ステップS75)。そして、角度ずれ量|(θx,θy)|が要求精度tよりも小さいか否かを判定する(ステップS76)。小さければ演算を終了する。大きい場合には前記ステップS71へ戻る。   Next, a coordinate difference V between the detected circle center and the detected intersection of the two straight lines is obtained (step S74), and (θx, θy) · 10DxV is calculated (step S75). Then, it is determined whether or not the angle deviation amount | (θx, θy) | is smaller than the required accuracy t (step S76). If it is smaller, the operation is terminated. If larger, the process returns to step S71.

なお、前記マーク138,139のずれ量から傾きを計算する方法は、前記第2実施例で説明したとおりである。   Note that the method of calculating the inclination from the deviation amount of the marks 138 and 139 is as described in the second embodiment.

(位置基準マークの他の例、図21参照)
また、位置基準マークとしては前述した形状以外に種々の形状を用いることができる。例えば、図21(A)に示す矩形のマーク145、(B)に示すように矩形のマーク145を十字状に配置したもの、(C)に示す菱形のマーク146、あるいは、(D)に示す楕円のマーク147であってもよい。勿論、これら以外の形状、配置を位置基準マークとして用いることができる。
(Refer to another example of the position reference mark, FIG. 21)
In addition to the shapes described above, various shapes can be used as the position reference mark. For example, a rectangular mark 145 shown in FIG. 21A, a rectangular mark 145 arranged in a cross shape as shown in FIG. 21B, a rhombus mark 146 shown in FIG. 21C, or shown in FIG. An elliptical mark 147 may be used. Of course, shapes and arrangements other than these can be used as position reference marks.

(特徴点の重ね合わせ手順、図22〜図33参照)
ここで、第3実施例として図6(A)に示した二つの物体150,160の位置調整を行う際に、二つの特徴点を重ね合わせる種々の手順について説明する。
(Characteristic point superposition procedure, see FIGS. 22 to 33)
Here, various procedures for superimposing the two feature points when adjusting the positions of the two objects 150 and 160 shown in FIG. 6A as the third embodiment will be described.

まず、図22及び図23を参照して特徴点A1,A2を重ね合わせる第1の手順について説明する。図22に原画像として二つの位置基準マークを特徴点A1,A2として観察している様子を示し、図23に特徴点A1,A2を重ね合わせる手順について示す。   First, a first procedure for superimposing the feature points A1 and A2 will be described with reference to FIGS. FIG. 22 shows a state where two position reference marks are observed as feature points A1 and A2 as an original image, and FIG. 23 shows a procedure for superimposing feature points A1 and A2.

第1の手順では、まず、CPUは原画像を取得し(ステップS101)、画像が重なっていない場合(図22(A)参照)は、特徴点A1,A2が二つ観察されるので、それぞれの重心の座標値を算出し(ステップS102)、重心どうしの距離を算出する。距離の算出は、予め、画面内の距離を長さの参照基準などを用いて計測しておき、1画素当たりの長さを算出し、得られた重心の画素間距離に掛け合わせて行う。   In the first procedure, first, the CPU acquires an original image (step S101). When the images do not overlap (see FIG. 22A), two feature points A1 and A2 are observed. Is calculated (step S102), and the distance between the centroids is calculated. The distance is calculated in advance by measuring the distance in the screen using a length reference standard and the like, calculating the length per pixel, and multiplying the obtained inter-pixel distance of the center of gravity.

次に、一方のレンズL1を駆動装置30を用いて移動させ、他方のレンズL2上に正確に重ねる(ステップS103)。この場合、正確にレンズL1を移動させることができれば、特徴点A1,A2は重なり(図22(C)参照)、そのX,Y軸上の光強度分布は左右対称となる。即ち、重心値を中心にX軸方向とY軸方向の分布を算出し(ステップS104)、該分布が左右対称であれば(ステップS105でYES)、終了する。   Next, one lens L1 is moved using the driving device 30, and is accurately superimposed on the other lens L2 (step S103). In this case, if the lens L1 can be accurately moved, the feature points A1 and A2 overlap (see FIG. 22C), and the light intensity distribution on the X and Y axes is symmetric. That is, the distribution in the X-axis direction and the Y-axis direction around the center of gravity value is calculated (step S104). If the distribution is bilaterally symmetric (YES in step S105), the process ends.

しかし、駆動装置30の精度が不足している場合、特徴点A1,A2は完全に重なることはなく(図22(B)参照)、光強度分布は左右非対称となる(ステップS105でNO)。光強度が小さいほうの特徴点A1は大きいほうの特徴点A2に光強度を付与するかたちになるので、光強度分布の裾野が長いほうに小さい特徴点A1が位置するといえる。そこで、予め、特徴点A1,A2の光強度を測定しておき、それらが重なった場合に、CCD撮像素子13の入射光強度と出力値の特性に基づいてどのような形状の分布になるかを計算しておき、特徴点A1,A2の距離を算出することができる。このように算出した距離に応じてレンズL1を移動させ(ステップS106)、特徴点A1,A2を重ねる。このような動作を繰り返し、光強度分布が完全に左右対称になるまで、もしくは、ある一定の対称性を得るまで前述の移動を行う。   However, when the accuracy of the driving device 30 is insufficient, the feature points A1 and A2 do not completely overlap (see FIG. 22B), and the light intensity distribution is asymmetrical (NO in step S105). Since the feature point A1 with the smaller light intensity becomes a form for imparting the light intensity to the feature point A2 with the larger light intensity, it can be said that the feature point A1 with the smaller base of the light intensity distribution is located. Therefore, when the light intensities of the feature points A1 and A2 are measured in advance, and when they overlap, what shape distribution is obtained based on the characteristics of the incident light intensity and the output value of the CCD image pickup device 13? And the distance between the feature points A1 and A2 can be calculated. The lens L1 is moved according to the calculated distance (step S106), and the feature points A1 and A2 are overlapped. Such an operation is repeated, and the above-described movement is performed until the light intensity distribution is completely left-right symmetric or until a certain symmetry is obtained.

次に、図24及び図25を参照して特徴点A1,A2を重ね合わせる第2の手順について説明する。第2の手順では、まず、CPUは原画像を取得し(ステップS111)、二つの特徴点A1,A2の境界処理を施す(ステップS112)。   Next, a second procedure for superimposing the feature points A1 and A2 will be described with reference to FIGS. In the second procedure, first, the CPU acquires an original image (step S111), and performs boundary processing between the two feature points A1 and A2 (step S112).

境界処理とは、図24(B)に示すように、X軸、Y軸上の特徴点A1,A2の占める幅X2,Y2(第1の四角形)、及び、X1,Y2(第2の四角形)とその座標を算出する処理である。そして、大きいほうの特徴点A2を特定する(ステップS113)。次に、特徴点A1,A2を含む全体の境界処理を施す(ステップS114)。即ち、図24(C)に示すように、全体四角形の幅X3,Y3とその座標を算出する。   As shown in FIG. 24B, the boundary processing means the widths X2, Y2 (first square) occupied by the feature points A1, A2 on the X axis and Y axis, and X1, Y2 (second square). ) And its coordinates. Then, the larger feature point A2 is specified (step S113). Next, the entire boundary process including the feature points A1 and A2 is performed (step S114). That is, as shown in FIG. 24C, the widths X3 and Y3 of the entire rectangle and the coordinates thereof are calculated.

二つの特徴点A1,A2が完全に重なっていれば、大きいほうの特徴点A2の境界処理の結果は、全体の境界処理の結果と同じになる。このように大きいほうの特徴点A2の境界処理の結果と全体の境界処理の結果とが同じになるように、レンズL1を移動させる(ステップS115,S116)。   If the two feature points A1 and A2 are completely overlapped, the result of the boundary processing of the larger feature point A2 is the same as the result of the entire boundary processing. The lens L1 is moved so that the result of the boundary processing of the larger feature point A2 is the same as the result of the entire boundary processing (steps S115 and S116).

次に、図26及び図27を参照して特徴点A1,A2を重ね合わせる第3の手順について説明する。第3の手順は境界処理による前記第2の手順の不具合を閾値処理を行うことで改良したものである。ステップS111からステップS114までの処理は第2の手順と同様である。   Next, a third procedure for superimposing the feature points A1 and A2 will be described with reference to FIGS. In the third procedure, the defect of the second procedure due to the boundary process is improved by performing a threshold process. The processing from step S111 to step S114 is similar to the second procedure.

特徴点A1が特徴点A2に近づいてきたときに(図26(D)参照)、特徴点A1,A2間の光強度が重なって光強度が上がるため、全体の境界処理後の画像の数が増えてしまう場合がある。この場合、いずれの画像が特徴点A1又はA2であるかを判定することが困難である。   When the feature point A1 approaches the feature point A2 (see FIG. 26D), the light intensity between the feature points A1 and A2 overlaps to increase the light intensity, so that the total number of images after boundary processing is reduced. It may increase. In this case, it is difficult to determine which image is the feature point A1 or A2.

そこで、光強度の閾値を上げて独立した領域の数nを算出し(ステップS114a)、数nが2以下あれば(ステップS114bでYES)、レンズL1を移動させ、大きいほうの特徴点A2の境界処理の結果と全体の境界処理の結果とが同じになるまで、レンズL1を移動させる(ステップS115,S116)。数nが2を超えていれば、さらに閾値を上げ(ステップS114c)、ステップS114へ戻る。   Therefore, the threshold value of the light intensity is increased to calculate the number n of independent regions (step S114a). If the number n is 2 or less (YES in step S114b), the lens L1 is moved to determine the larger feature point A2. The lens L1 is moved until the boundary processing result is the same as the entire boundary processing result (steps S115 and S116). If the number n exceeds 2, the threshold value is further increased (step S114c), and the process returns to step S114.

次に、図28及び図29を参照して特徴点A1,A2を重ね合わせる第4の手順について説明する。第4の手順は前記第3の手順である閾値処理に代えて、少なくとも一つの特徴点を移動させて画像の数が増えている状態を脱出し、境界処理後の画像の数を二つ減らすようにしている。ステップS111からステップS114、ステップS114a,114bでの処理及びステップS115,S116での処理は第3の手順と同様である。   Next, a fourth procedure for superimposing the feature points A1 and A2 will be described with reference to FIGS. In the fourth procedure, in place of the threshold processing which is the third procedure, at least one feature point is moved to escape from the state in which the number of images is increasing, and the number of images after boundary processing is reduced by two. I am doing so. The processes from step S111 to step S114, steps S114a and 114b and the processes in steps S115 and S116 are the same as in the third procedure.

光強度の閾値を上げ、独立した領域の数nを算出したとき、数nが2を超えていれば(ステップS114bでNO)、いずれか一方の特徴点をランダムな方向に移動させ(ステップS114d)、ステップS114へ戻る。この場合、一方の特徴点を他方の特徴点に近づけるように移動させることが効果的である。二つの特徴点A1,A2の重なり部の光強度が大きくなり、閾値処理により画像の数が一つになりやすいからである。   When the threshold value of light intensity is increased and the number n of independent regions is calculated, if the number n exceeds 2 (NO in step S114b), one of the feature points is moved in a random direction (step S114d). ), The process returns to step S114. In this case, it is effective to move one feature point closer to the other feature point. This is because the light intensity at the overlapping portion of the two feature points A1 and A2 increases, and the number of images tends to become one by threshold processing.

次に、図30及び図31を参照して特徴点A1,A2を重ね合わせる第5の手順について説明する。第5の手順は前記第3及び第4の手順を併用してより効果的に調整移動を行えるようにしている。ステップS111からステップS114、ステップS114a,114bでの処理及びステップS115,S116での処理は第3及び第4の手順と同様である。   Next, a fifth procedure for superimposing the feature points A1 and A2 will be described with reference to FIGS. In the fifth procedure, the adjustment movement can be performed more effectively by using the third and fourth procedures together. The processes in steps S111 to S114, steps S114a and 114b, and the processes in steps S115 and S116 are the same as those in the third and fourth procedures.

光強度の閾値を上げて独立した領域の数nを算出したとき、数nが2を超えていれば(ステップS114bでNO)、さらに閾値を上げるとともにいずれか一方の特徴点をランダムに移動させ(ステップS114e)、ステップS114へ戻る。   When the number n of independent regions is calculated by increasing the threshold value of the light intensity, if the number n exceeds 2 (NO in step S114b), the threshold value is further increased and one of the feature points is moved randomly. (Step S114e), the process returns to Step S114.

次に、図32及び図33を参照して特徴点A1,A2を重ね合わせる第6の手順について説明する。前記第5の手順で得られた特徴点A1,A2の重なり像は、完全に重なれば円になり、重なりが不完全であれば楕円になる。そこで、第6の手順では重なった像の内接円を算出する。即ち、ステップS111,S112,S114での処理は第3の手順などと同じであるが、ステップS113は処理しない。   Next, a sixth procedure for superimposing the feature points A1 and A2 will be described with reference to FIGS. The overlap image of the feature points A1 and A2 obtained in the fifth procedure becomes a circle when completely overlapped, and becomes an ellipse when the overlap is incomplete. Therefore, in the sixth procedure, the inscribed circle of the overlapping images is calculated. That is, the processes in steps S111, S112, and S114 are the same as those in the third procedure, but step S113 is not processed.

特徴点A1が特徴点A2に近づいてきたときに(図32(D)参照)、光強度の閾値を上げて独立した領域の数nを算出し(ステップS114a)、数nが2であれば(ステップS114fでYES)、レンズL1を移動させ(ステップS115)、重なり像の内接円直径φを算出する(ステップS117)。特徴点A1,A2が完全に重なると内接円の直径は最大になるため、最大になるまで、あるいは、内接円の直径φが所定の値φ0と等しくなるまで(ステップS118でYES)、ステップS115,S117,S118を繰り返す。   When the feature point A1 approaches the feature point A2 (see FIG. 32D), the light intensity threshold value is raised to calculate the number n of independent regions (step S114a). (YES in step S114f), the lens L1 is moved (step S115), and the inscribed circle diameter φ of the overlapping image is calculated (step S117). When the feature points A1 and A2 are completely overlapped, the diameter of the inscribed circle is maximized. Therefore, until the feature points A1 and A2 are maximized or until the diameter φ of the inscribed circle becomes equal to the predetermined value φ0 (YES in step S118) Steps S115, S117, and S118 are repeated.

一方、光強度の閾値を上げて独立した領域の数nを算出したとき(ステップS114a)、数nが2でなければ(ステップS114fでNO)、いずれか一方の特徴点をランダム方向に一定距離移動させ(ステップS114g)、ステップS114aへ戻る。   On the other hand, when the number n of independent regions is calculated by increasing the threshold value of the light intensity (step S114a), if the number n is not 2 (NO in step S114f), one of the feature points is set at a fixed distance in the random direction. Move (step S114g) and return to step S114a.

(他の実施例)
なお、本発明に係る位置ずれ検出方法は前記実施例に限定するものではなく、その要旨の範囲内で種々に変更できる。
(Other examples)
The position deviation detecting how according to the present invention is not limited to the embodiments can be modified in various ways within the scope of the invention.

例えば、撮像素子としては、CCD以外にCMOSなど光エネルギーを電気的出力に変換できるものであれば、種々の素子を使用することができる。   For example, as the image pickup device, various devices can be used as long as they can convert light energy into electrical output, such as CMOS, in addition to the CCD.

また、本発明において調整の対象とする物体は透明な光学素子や透明基板や穴の開けられた部材である。但し、物体が不透明であっても該物体を透過する光線(例えば,紫外線など)を照明すれば本発明を適用できる。   In the present invention, the object to be adjusted is a transparent optical element, a transparent substrate, or a member having a hole. However, even if the object is opaque, the present invention can be applied by illuminating light rays (for example, ultraviolet rays) that pass through the object.

本発明の第1実施例を用いた位置調整装置を示す概略構成図である。It is a schematic block diagram which shows the position adjustment apparatus using 1st Example of this invention. 第1実施例での基本的な調整手順を示すフローチャート図である。It is a flowchart figure which shows the basic adjustment procedure in 1st Example. 第1実施例でのパラメータ設定手順を示すフローチャート図である。It is a flowchart figure which shows the parameter setting procedure in 1st Example. 第1実施例での位置ずれを補正する手順を示すフローチャート図である。It is a flowchart figure which shows the procedure which correct | amends the position shift in 1st Example. 観察された特徴点の明るさの頻度分布を示すチャート図である。It is a chart figure which shows the frequency distribution of the brightness of the observed feature point. 本発明で実施可能な位置ずれ検出を示す模式図である。It is a schematic diagram which shows the position shift detection which can be implemented by this invention. 被調整物に形成された位置基準マークによる観察態様を示す説明図である。It is explanatory drawing which shows the observation aspect by the position reference mark formed in the to-be-adjusted object. 観察された特徴点が重なるときの明るさの分布を示す説明図である。It is explanatory drawing which shows distribution of the brightness when the observed feature point overlaps. 観察された特徴点領域及びその周囲の明るさの偏りを示し、(A)は説明図、(B)はチャート図である。The observed characteristic point region and the surrounding brightness bias are shown, (A) is an explanatory diagram, and (B) is a chart. 観察された特徴点の位置ずれ量を求めるための説明図である。It is explanatory drawing for calculating | requiring the positional offset amount of the observed feature point. 観察された二つの特徴点の領域を示す説明図である。It is explanatory drawing which shows the area | region of the two feature points observed. 観察された特徴点の形状に基づいて位置ずれ量を求める手順を示すフローチャート図である。It is a flowchart figure which shows the procedure which calculates | requires positional offset amount based on the shape of the observed feature point. ハフ変換による位置ずれ量を求める手順を示すフローチャート図である。It is a flowchart figure which shows the procedure which calculates | requires the positional offset amount by Hough conversion. 円を検出して位置ずれ量を求めるための説明図である。It is explanatory drawing for calculating | requiring a positional offset amount by detecting a circle | round | yen. 位置基準マークの態様を示す被調整物の断面図である。It is sectional drawing of the to-be-adjusted object which shows the aspect of a position reference mark. 本発明の第2実施例を用いた傾き調整装置を示す概略構成図である。It is a schematic block diagram which shows the inclination adjustment apparatus using 2nd Example of this invention. 第2実施例における被調整物を示し、(A)は正面図、(B)は底面図である。The to-be-adjusted object in 2nd Example is shown, (A) is a front view, (B) is a bottom view. 第2実施例で傾きを調整する手順を示すフローチャート図である。It is a flowchart figure which shows the procedure which adjusts inclination in 2nd Example. 第2実施例で使用される他の形状の位置基準マークを有する被調整物を示し、(A)は正面図、(B)は底面図である。The to-be-adjusted object which has the position reference mark of the other shape used in 2nd Example is shown, (A) is a front view, (B) is a bottom view. 第2実施例で傾きを調整する他の手順を示すフローチャート図である。It is a flowchart figure which shows the other procedure which adjusts inclination in 2nd Example. 他の形状、配置の位置基準マークを示す説明図である。It is explanatory drawing which shows the position reference mark of another shape and arrangement | positioning. 特徴点を重ね合わせる第1の手順を示す説明図である。It is explanatory drawing which shows the 1st procedure which superimposes a feature point. 特徴点を重ね合わせる第1の手順を示すフローチャート図である。It is a flowchart figure which shows the 1st procedure which superimposes a feature point. 特徴点を重ね合わせる第2の手順を示す説明図である。It is explanatory drawing which shows the 2nd procedure which superimposes a feature point. 特徴点を重ね合わせる第2の手順を示すフローチャート図である。It is a flowchart figure which shows the 2nd procedure which superimposes a feature point. 特徴点を重ね合わせる第3の手順を示す説明図である。It is explanatory drawing which shows the 3rd procedure which superimposes a feature point. 特徴点を重ね合わせる第3の手順を示すフローチャート図である。It is a flowchart figure which shows the 3rd procedure which superimposes a feature point. 特徴点を重ね合わせる第4の手順を示す説明図である。It is explanatory drawing which shows the 4th procedure which superimposes a feature point. 特徴点を重ね合わせる第4の手順を示すフローチャート図である。It is a flowchart figure which shows the 4th procedure which superimposes a feature point. 特徴点を重ね合わせる第5の手順を示す説明図である。It is explanatory drawing which shows the 5th procedure which superimposes a feature point. 特徴点を重ね合わせる第5の手順を示すフローチャート図である。It is a flowchart figure which shows the 5th procedure which superimposes a feature point. 特徴点を重ね合わせる第6の手順を示す説明図である。It is explanatory drawing which shows the 6th procedure which superimposes a feature point. 特徴点を重ね合わせる第6の手順を示すフローチャート図である。It is a flowchart figure which shows the 6th procedure which superimposes a feature point.

符号の説明Explanation of symbols

A1,A2…特徴点
100…観察装置
105…CPU
107…XY駆動ステージ
110…被調整物
111,121…位置基準マーク
120…調整用部材
130…調整テーブル
135…被調整物
136,137,138,139…位置基準マーク
141,142…X軸、Y軸回転駆動機構
145,146,147…位置基準マーク
150,160,170,180…物体
151,161,171,172,181,182…位置基準マーク
A1, A2 ... feature point 100 ... observation device 105 ... CPU
107 ... XY drive stage 110 ... Adjusted object 111, 121 ... Position reference mark 120 ... Adjusting member 130 ... Adjustment table 135 ... Adjusted object 136,137,138,139 ... Position reference mark 141,142 ... X axis, Y Shaft rotation drive mechanism 145, 146, 147 ... Position reference mark 150, 160, 170, 180 ... Object 151, 161, 171, 172, 181, 182 ... Position reference mark

Claims (16)

物体に形成された位置基準マークを特徴点として観察した像の濃淡に基づいて位置基準マークの所定位置からのずれ量及び/又は位置ずれ方向を検出する位置ずれ検出方法であって、
前記位置基準マークを二つ設定し、一方の位置基準マークを所定位置として他方の位置基準マークの位置ずれ量及び/又は位置ずれ方向を検出すること、
を特徴とする位置ずれ検出方法。
A displacement detection method for detecting a displacement amount and / or displacement direction of a position reference mark from a predetermined position based on the density of an image observed using a position reference mark formed on an object as a feature point ,
Two position reference marks are set, and one position reference mark is set as a predetermined position to detect a position shift amount and / or a position shift direction of the other position reference mark;
A misregistration detection method characterized by the above.
前記二つの特徴点を包含する領域及び/又は該領域の周囲の濃淡に基づいて位置ずれ方向及び/又は位置ずれ量を検出することを特徴とする請求項に記載の位置ずれ検出方法。 The position shift detection method according to claim 1 , wherein a position shift direction and / or a position shift amount is detected on the basis of a region including the two feature points and / or shading around the region. 第1の特徴点が観察方向から見て第2の特徴点の一部又は全部と重なったときに現れる重なり像及び/又は該重なり像の周囲の明るさの偏差に基づいて位置ずれ方向及び又は位置ずれ量を検出することを特徴とする請求項に記載の位置ずれ検出方法。 Based on the overlap image that appears when the first feature point overlaps part or all of the second feature point as viewed from the observation direction and / or the brightness deviation around the overlap image, and / or The positional deviation detection method according to claim 2 , wherein a positional deviation amount is detected. 第1の特徴点が観察方向から見て第2の特徴点の一部又は全部と重なったときに現れる重なり像及び/又は該重なり像の周囲の明るさの勾配に基づいて位置ずれ方向及び/又は位置ずれ量を検出することを特徴とする請求項に記載の位置ずれ検出方法。 The first feature point is viewed from the viewing direction a second portion of the feature points or the whole and overlapping positional deviation direction and on the basis of the gradient of the brightness around the overlap image and / or heavy becomes image appears when / Alternatively, the positional deviation detection method according to claim 2 , wherein the positional deviation amount is detected. 前記二つの特徴点を包含する領域が前記二つの特徴点の領域の和領域であることを特徴とする請求項に記載の位置ずれ検出方法。 The position shift detection method according to claim 2 , wherein the region including the two feature points is a sum region of the regions of the two feature points. 前記二つの特徴点を包含する領域が、第1の特徴点が第2の特徴点の像に重なることによってできる像の領域であることを特徴とする請求項に記載の位置ずれ検出方法。 3. The positional deviation detection method according to claim 2 , wherein the region including the two feature points is an image region formed by overlapping the first feature point with the image of the second feature point. 前記二つの特徴点を包含する領域が、前記二つの特徴点を包含する最小の四角形であることを特徴とする請求項に記載の位置ずれ検出方法。 The position shift detection method according to claim 2 , wherein the region including the two feature points is a minimum quadrangle including the two feature points. 前記二つの特徴点を包含する領域の大きさに基づいて位置ずれ方向及び/又は位置ずれ量を検出することを特徴とする請求項に記載の位置ずれ検出方法。 The position shift detection method according to claim 1 , wherein a position shift direction and / or a position shift amount is detected based on a size of a region including the two feature points. 前記二つの特徴点を包含する領域を位置ずれ方向で切った断面が形成する線分に基づいて位置ずれ量を検出することを特徴とする請求項に記載の位置ずれ検出方法。 The misregistration detection method according to claim 8 , wherein the misregistration amount is detected based on a line segment formed by a cross section obtained by cutting the region including the two feature points in the misregistration direction. 観察された前記二つの特徴点の大小により位置ずれ方向及び/又は位置ずれ量を検出することを特徴とする請求項に記載の位置ずれ検出方法。 The position shift detection method according to claim 1 , wherein a position shift direction and / or a position shift amount is detected based on the size of the observed two feature points. 観察された前記二つの特徴点の明るさの差に基づいて位置ずれ方向及び/又は位置ずれ量を検出することを特徴とする請求項に記載の位置ずれ検出方法。 The position shift detection method according to claim 1 , wherein a position shift direction and / or a position shift amount is detected based on a difference in brightness between the observed two feature points. 前記二つの特徴点の位置差から位置ずれ方向及び/又は位置ずれ量を検出することを特徴とする請求項に記載の位置ずれ検出方法。 The position shift detection method according to claim 1 , wherein a position shift direction and / or a position shift amount is detected from a position difference between the two feature points. 前記二つの特徴点のそれぞれの重心を結ぶ線分に基づいて位置ずれ方向及び/又は位置ずれ量を検出することを特徴とする請求項12に記載の位置ずれ検出方法。 The position shift detection method according to claim 12 , wherein a position shift direction and / or a position shift amount is detected based on a line segment connecting the centroids of the two feature points. 前記二つの特徴点の形状を認識して位置ずれ方向及び/又は位置ずれ量を検出することを特徴とする請求項に記載の位置ずれ検出方法。 The positional deviation detection method according to claim 1 , wherein the positional deviation direction and / or the positional deviation amount are detected by recognizing shapes of the two feature points. 円を検出する検出方法を用いて前記二つの特徴点の領域のそれぞれの中心を求め、該中心間の距離に基づいて位置ずれ量を検出することを特徴とする請求項14に記載の位置ずれ検出方法。 15. The positional deviation according to claim 14 , wherein a center of each of the two feature point regions is obtained using a detection method for detecting a circle, and a positional deviation amount is detected based on a distance between the centers. Detection method. 前記形状を認識して検出する検出方法がハフ変換であることを特徴とする請求項14又は請求項15に記載の位置ずれ検出方法。 The position shift detection method according to claim 14 or 15 , wherein the detection method for recognizing and detecting the shape is a Hough transform.
JP2004347744A 2004-11-30 2004-11-30 Misalignment detection method Expired - Fee Related JP5000087B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004347744A JP5000087B2 (en) 2004-11-30 2004-11-30 Misalignment detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004347744A JP5000087B2 (en) 2004-11-30 2004-11-30 Misalignment detection method

Publications (3)

Publication Number Publication Date
JP2006153775A JP2006153775A (en) 2006-06-15
JP2006153775A5 true JP2006153775A5 (en) 2008-01-24
JP5000087B2 JP5000087B2 (en) 2012-08-15

Family

ID=36632248

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004347744A Expired - Fee Related JP5000087B2 (en) 2004-11-30 2004-11-30 Misalignment detection method

Country Status (1)

Country Link
JP (1) JP5000087B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009025100A (en) * 2007-07-18 2009-02-05 Sumitomo Heavy Ind Ltd Measurement program, measurement apparatus and measurement method
CN114061480B (en) * 2020-08-03 2024-04-05 上海飞机制造有限公司 Method for detecting appearance of workpiece

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2897890B2 (en) * 1990-03-30 1999-05-31 株式会社日立製作所 Printing accuracy measuring method and its device
JP4834947B2 (en) * 2001-09-27 2011-12-14 株式会社トッパンNecサーキットソリューションズ Alignment method

Similar Documents

Publication Publication Date Title
CN100367293C (en) Method and apparatus for optical inspection of a display
US10083522B2 (en) Image based measurement system
US7978903B2 (en) Defect detecting method and defect detecting device
CN109642848B (en) Image inspection apparatus and image inspection method
JP2020197797A (en) Image processing device and image processing method
KR102009740B1 (en) Apparatus for inspecting of display panel and method thereof
TWI621827B (en) Method of length measurement for 2d photography
KR102086997B1 (en) Rotational Position Measurement of Lenticular Lens Sheets
JP2008170256A (en) Flaw detection method, flaw detection program and inspection device
US11536667B2 (en) Image inspection apparatus and image inspection method
JP2008068284A (en) Apparatus and method for correcting defect, and method for manufacturing pattern substrate
JP4987323B2 (en) Color filter defect correcting apparatus and color filter defect correcting method
JP5000087B2 (en) Misalignment detection method
JP2012237585A (en) Defect inspection method
JP2006153775A5 (en)
JP5217093B2 (en) Inspection apparatus and inspection method
KR102014171B1 (en) Apparatus and method for inspecting color mix defect of OLED
JP4715703B2 (en) Optical flare inspection apparatus and inspection method
CN108873302A (en) A kind of light field micro-image automatically corrects and focus method again
JP5200813B2 (en) Measuring distance between measurement mark and substrate edge
JP2008111705A (en) Method and program for detecting defect and inspection apparatus
JP5531405B2 (en) Periodic pattern unevenness inspection method and inspection apparatus
EP2535923B1 (en) Detection method and detection device
KR101411417B1 (en) Method for Light emitting module's eccentricity measuring
JP4389668B2 (en) Position detection method and position detection apparatus