JP2009270984A - Position detecting device, position detecting program, and position detecting method - Google Patents

Position detecting device, position detecting program, and position detecting method Download PDF

Info

Publication number
JP2009270984A
JP2009270984A JP2008122951A JP2008122951A JP2009270984A JP 2009270984 A JP2009270984 A JP 2009270984A JP 2008122951 A JP2008122951 A JP 2008122951A JP 2008122951 A JP2008122951 A JP 2008122951A JP 2009270984 A JP2009270984 A JP 2009270984A
Authority
JP
Japan
Prior art keywords
edge
image
unit
position detection
transparent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008122951A
Other languages
Japanese (ja)
Other versions
JP5304016B2 (en
Inventor
Yasuyuki Nakada
康之 中田
Tetsuo Hizuka
哲男 肥塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2008122951A priority Critical patent/JP5304016B2/en
Publication of JP2009270984A publication Critical patent/JP2009270984A/en
Application granted granted Critical
Publication of JP5304016B2 publication Critical patent/JP5304016B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Manufacturing Of Magnetic Record Carriers (AREA)
  • Manufacturing Optical Record Carriers (AREA)
  • Container, Conveyance, Adherence, Positioning, Of Wafer (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a position detecting device capable of detecting the position of a transparent member by recognizing the shape of the transparent member even if there exists noises or the edge is imperfect. <P>SOLUTION: The position detecting device comprises: an image input part 2 acquiring the image of a plurality of transparent members, which are endlessly arranged so that respective faces confront to each other, photographed from the vertical direction of the surface; a ROI setting part 10 acquiring the area which involves at least each contour of the photographed plurality of transparent members in the image acquired by the image input part 2; an edge extracting part 11 extracting the edge of the plurality of the transparent members from the area acquired by the ROI setting part 10; an optimum edge selecting part 12 selecting the edge of the predetermined transparent member among the plurality of transparent members from the edges selected by the edge selecting part 11; and a position computing part 13 computing the position of the predetermined transparent member based on the edge selected by the optimum edge selecting part 12. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

透明部材の位置を非接触で検出する技術に関する。より具体的には,カメラなどの画像入力手段で透明部材を撮影し、取得した画像に画像処理を施すことで計測対象の中心位置や大きさに関わるパラメータを検出する位置検出装置、位置検出プログラム、位置検出方法に関する。   The present invention relates to a technique for detecting the position of a transparent member in a non-contact manner. More specifically, a position detection device and a position detection program that detect a parameter related to the center position and size of a measurement target by photographing a transparent member with an image input unit such as a camera and performing image processing on the acquired image. The present invention relates to a position detection method.

磁性膜形成装置において、基板を大気中から真空装置へセッティングする際、基板落下を防止するため基板を真空装置内に配置されたホルダに正確に把持させる必要がある。基板とホルダの位置ずれを非接触で計測するには、画像センサが有効である。   In the magnetic film forming apparatus, when the substrate is set from the atmosphere to the vacuum apparatus, it is necessary to accurately hold the substrate by a holder disposed in the vacuum apparatus in order to prevent the substrate from falling. An image sensor is effective for measuring the positional deviation between the substrate and the holder in a non-contact manner.

HDD(ハードディスクドライブ)の磁性膜を形成する基板材料には、主にアルミあるいはガラスが使用される。画像センサで基板の位置を検出する際、アルミ基板の場合はシルエット形状によるパターンマッチングが可能であるが、ガラス基板は光を透過するため、シルエットが形成されずパターンマッチングを適用することができない。特に近年においては、アルミよりもより剛性が強く、平滑性が優れているガラス基板が主流となってきている為、パターンマッチングの適用が出来ないことは生産性の低下を招く為、より深刻な問題となってきている。   Aluminum or glass is mainly used as a substrate material for forming a magnetic film of an HDD (Hard Disk Drive). When the position of the substrate is detected by the image sensor, pattern matching based on a silhouette shape is possible in the case of an aluminum substrate, but since a glass substrate transmits light, a silhouette is not formed and pattern matching cannot be applied. Particularly in recent years, glass substrates that are stronger and smoother than aluminum have become the mainstream, and the fact that pattern matching cannot be applied causes a decline in productivity, which is more serious. It has become a problem.

また従来技術として、透明部材を画像処理で検出するには、透明部材の背面から照明をあて、または正面から光をあてその反射光を利用することで部材のエッジを検出し、位置を検出する手法が開示されている。また透明なウェハを回転させエッジ位置を検出する手法、さらに、Oリング形状の対象物の外周内周それぞれのバリや欠損を2重円形ウィンドウにて検出する手法が開示されている。   In addition, as a conventional technique, in order to detect a transparent member by image processing, the edge of the member is detected by illuminating from the back of the transparent member or using light reflected from the front and detecting the position. A technique is disclosed. Also disclosed are a method for detecting the edge position by rotating a transparent wafer, and a method for detecting burrs and defects on the outer periphery and inner periphery of an O-ring shaped object with a double circular window.

特開2002−158275号公報JP 2002-158275 A 特開平4−102050号公報JP-A-4-102050

しかしながら、背景が変化する場合や、複数の基板があり奥側の基板のエッジも抽出されてしまう場合、さらに輪郭のエッジが途切れていたりする場合にはエッジの検出に失敗する。   However, when the background changes, when there are a plurality of substrates and the edge of the back substrate is also extracted, and when the edge of the contour is further interrupted, the edge detection fails.

上述した問題点を解決するため、部材の背景が変化する等でノイズが生じたり、複数の基板があり奥側の基板のエッジも抽出され、また部材輪郭のエッジが途切れる等でエッジが不完全であったりしても、透明部材のエッジ形状を認識し、透明部材の位置を検出することができる位置検出装置、位置検出プログラム、位置検出方法を提供することを目的とする。   In order to solve the above-mentioned problems, noise occurs due to changes in the background of the member, the edges of the substrate on the back side are extracted because there are multiple substrates, and the edge of the member outline is interrupted, resulting in incomplete edges Even if it is, it aims at providing the position detection apparatus which can recognize the edge shape of a transparent member, and can detect the position of a transparent member, a position detection program, and a position detection method.

位置検出装置は、面が互いに向き合うよう連なって配置された複数の透明部材に対し前記面の垂直方向から撮像した画像を取得する画像取得部と、前記画像取得部によって取得された画像に撮像された前記複数の透明部材それぞれの輪郭を少なくとも含んだ領域を取得する領域取得部と、前記領域取得部によって取得された領域内から、前記複数の透明部材のエッジを抽出するエッジ抽出部と、前記エッジ抽出部によって抽出されたエッジから、前記複数の透明部材のうちの所定の透明部材のエッジを選択するエッジ選択部と、前記エッジ選択部によって選択されたエッジに基づき、前記所定の透明部材の位置を算出する位置算出部と、を備える。   The position detection device captures an image acquired from the vertical direction of the surface with respect to a plurality of transparent members arranged so that the surfaces face each other, and an image acquired by the image acquisition unit. An area acquisition unit that acquires an area including at least the contours of each of the plurality of transparent members, an edge extraction unit that extracts edges of the plurality of transparent members from the area acquired by the area acquisition unit, An edge selection unit that selects an edge of a predetermined transparent member among the plurality of transparent members from edges extracted by the edge extraction unit, and the edge of the predetermined transparent member based on the edge selected by the edge selection unit A position calculation unit that calculates a position.

また、位置検出プログラムは、面が互いに向き合うよう連なって配置された複数の透明部材に対し前記面の垂直方向から撮像した画像を取得する画像取得ステップと、前記画像取得ステップによって取得された画像に撮像された前記複数の透明部材それぞれの輪郭を少なくとも含んだ領域を取得する領域取得ステップと、前記領域取得ステップによって取得された領域内から、前記複数の透明部材のエッジを抽出するエッジ抽出ステップと、前記エッジ抽出ステップによって抽出されたエッジから、前記複数の透明部材のうちの所定の透明部材のエッジを選択するエッジ選択ステップと、前記エッジ選択ステップによって選択されたエッジに基づき、前記所定の透明部材の位置を算出する位置算出ステップと、をコンピュータに実行させる。   In addition, the position detection program includes an image acquisition step for acquiring an image captured from a direction perpendicular to the surface with respect to a plurality of transparent members arranged so that the surfaces face each other, and an image acquired by the image acquisition step. An area acquisition step of acquiring an area including at least the contours of each of the plurality of transparent members imaged; an edge extraction step of extracting edges of the plurality of transparent members from the area acquired by the area acquisition step; , An edge selection step for selecting an edge of a predetermined transparent member among the plurality of transparent members from the edges extracted by the edge extraction step, and the predetermined transparent based on the edge selected by the edge selection step And causing the computer to execute a position calculating step of calculating the position of the member.

さらに、位置検出方法は、面が互いに向き合うよう連なって配置された複数の透明部材に対し前記面の垂直方向から撮像した画像を取得する画像取得ステップと、前記画像取得ステップによって取得された画像に撮像された前記複数の透明部材それぞれの輪郭を少なくとも含んだ領域を取得する領域取得ステップと、前記領域取得ステップによって取得された領域内から、前記複数の透明部材のエッジを抽出するエッジ抽出ステップと、前記エッジ抽出ステップによって抽出されたエッジから、前記複数の透明部材のうちの所定の透明部材のエッジを選択するエッジ選択ステップと、前記エッジ選択ステップによって選択されたエッジに基づき、前記所定の透明部材の位置を算出する位置算出ステップと、を実行する。   Further, the position detection method includes an image acquisition step of acquiring an image captured from a direction perpendicular to the surface with respect to a plurality of transparent members arranged so that the surfaces face each other, and an image acquired by the image acquisition step. An area acquisition step of acquiring an area including at least the contours of each of the plurality of transparent members imaged; an edge extraction step of extracting edges of the plurality of transparent members from the area acquired by the area acquisition step; , An edge selection step for selecting an edge of a predetermined transparent member among the plurality of transparent members from the edges extracted by the edge extraction step, and the predetermined transparent based on the edge selected by the edge selection step And a position calculating step for calculating the position of the member.

透明部材を撮像した画像上に、ノイズがあったりエッジが不完全であったりしても透明部材の形状を認識し、透明部材の位置を検出可能することができる。   Even if there is noise or an incomplete edge on the image of the transparent member, the shape of the transparent member can be recognized and the position of the transparent member can be detected.

(実施の形態1)
実施の形態1における位置検出装置を図1に示す。尚、実施の形態1では、検出対象は例えばHDDに用いられるガラス基板を始め、CDやDVD等で使用される円形ドーナツ状の透明基板(透明部材)であるものとする。また実施の形態1では、撮像するカメラに対し最前の透明基板の位置(中心位置)を検出するものとする。
(Embodiment 1)
A position detection apparatus according to Embodiment 1 is shown in FIG. In the first embodiment, it is assumed that a detection target is a circular donut-shaped transparent substrate (transparent member) used for a CD, a DVD, or the like, for example, a glass substrate used for an HDD. In the first embodiment, the position (center position) of the frontmost transparent substrate with respect to the camera to be imaged is detected.

位置検出装置1は、画像入力部2(画像取得部)、画像処理部3、入力された画像等を表示するディスプレイ4を備える。また位置検出装置1は、数値入力等、ユーザからの入力を受け付ける手段であるキーボード5、透明基板を撮像するカメラ6を備える。   The position detection apparatus 1 includes an image input unit 2 (image acquisition unit), an image processing unit 3, and a display 4 that displays an input image and the like. The position detection device 1 also includes a keyboard 5 that is means for receiving input from the user such as numerical input, and a camera 6 that captures an image of the transparent substrate.

画像入力部2は、キーボード5、ディスプレイ4、カメラ6と接続され、これらの入出力されるデータを制御する入出力制御部14を備える。また、画像入力部2は、入出力制御部14の入出力を含め、位置検出装置1内の全てのデータの入出力を制御する制御部15を備える。画像入力部2は、入出力制御部14および制御部15を用いてカメラ6から一定のサンプリング時間間隔(例えば、33ms)で送出される画像を取得し、画像処理部3に取得した画像を送る。尚、実施の形態1では、画像入力部2はカメラ6から画像を取得するものとしたが、例えばビデオやDVDなどのメデイアから取得してもよく、またハードディスク上に格納されている動画ファイルを取得してもよい。   The image input unit 2 is connected to the keyboard 5, the display 4, and the camera 6, and includes an input / output control unit 14 that controls data to be input / output. Further, the image input unit 2 includes a control unit 15 that controls input / output of all data in the position detection apparatus 1 including input / output of the input / output control unit 14. The image input unit 2 uses the input / output control unit 14 and the control unit 15 to acquire an image sent from the camera 6 at a constant sampling time interval (for example, 33 ms), and sends the acquired image to the image processing unit 3. . In the first embodiment, the image input unit 2 acquires images from the camera 6. However, the image input unit 2 may acquire images from media such as videos and DVDs, and a moving image file stored on the hard disk. You may get it.

画像入力部2によって入力される画像は、例えば横640画素×縦480画素の矩形であり、1つの画素に、カラー画像の場合は赤成分(R)、緑成分(G)、青成分(B)の階調値が与えられる。尚、白黒画像の場合は1つの画素に明るさの階調値(輝度)が与えられる。例えば整数i、jで示される座標(i,j)の画素の赤成分(R)、緑成分(G)、青成分(B)、輝度(I)の階調値は、それぞれディジタル値R(i,j)、G(i,j)、B(i,j)、I(i,j)などで与えられる。尚、本実施の形態では、計算で使用する画素値には輝度(白黒濃淡値)を用いるが、Rのみ、Gのみ、Bのみ、またはRGBの組み合わせ、更にRGB値を変換して求まる他の表色系(HSV表色系、YUV表色系など)を使用しても良い。   An image input by the image input unit 2 is, for example, a rectangle of horizontal 640 pixels × vertical 480 pixels, and in the case of a color image, a red component (R), a green component (G), and a blue component (B ) Gradation value. In the case of a monochrome image, a gradation value (luminance) of brightness is given to one pixel. For example, the gradation values of the red component (R), green component (G), blue component (B), and luminance (I) of the pixel at coordinates (i, j) indicated by integers i and j are respectively digital values R ( i, j), G (i, j), B (i, j), I (i, j), and the like. In this embodiment, the luminance (black and white gray value) is used as the pixel value used in the calculation. However, only R, G only, B only, or a combination of RGB and other RGB values obtained by converting RGB values are used. A color system (HSV color system, YUV color system, etc.) may be used.

ここで、図2に、透明基板の撮像の配置状態および撮像される透明基板の画像例を示す。図2(a)のように面が互いに向き合うように連なって配置された2枚の透明基板を、基板正面に対し垂直方向から撮像すると、手前の基板の円周が大きく、奥の基板の円周が小さく撮像される。すなわち、図2(b)にて示すような画像が得られる。尚、実施の形態1では透明基板同士の間隔は10mm程度とするが、後述するエッジ抽出の際に各エッジが交差しない程度の距離が確保されていればよい。   Here, FIG. 2 shows an arrangement state of imaging of the transparent substrate and an image example of the transparent substrate to be imaged. As shown in FIG. 2A, when two transparent substrates arranged so that their surfaces face each other are imaged from the direction perpendicular to the front surface of the substrate, the circumference of the front substrate is large, and the circle of the back substrate is large. The circumference is taken small. That is, an image as shown in FIG. 2B is obtained. In the first embodiment, the distance between the transparent substrates is about 10 mm. However, it is only necessary to ensure a distance that does not allow the edges to intersect at the time of edge extraction described later.

説明を図1の構成図に戻す。画像処理部3は、ROI(Region of Interest)設定部10(領域取得部)、エッジ抽出部11、最適エッジ選択部12(エッジ選択部)、位置算出部13を備える。尚、画像処理部3内の各ユニットは、記憶媒体であるメモリ102に予め格納されたプログラムとCPU(Central Processing Unit)101およびメモリ102等のハードウェア資源とが協働することで実現される。   The description returns to the configuration diagram of FIG. The image processing unit 3 includes a ROI (Region of Interest) setting unit 10 (region acquisition unit), an edge extraction unit 11, an optimum edge selection unit 12 (edge selection unit), and a position calculation unit 13. Each unit in the image processing unit 3 is realized by cooperation between a program stored in advance in the memory 102 as a storage medium and hardware resources such as a CPU (Central Processing Unit) 101 and the memory 102. .

ROI設定部10は、手動あるいは自動で、画像上の2枚の透明基板それぞれの輪郭を少なくとも含んだドーナツ状のROI(領域)を取得し、画像にROIを設定する。図3にROIの設定例を示す。ROIが設定され、ROI内のみが処理対象となることで、処理時間が短縮されるとともに、透明基板の背景が変化する等のノイズの影響が低減される。ROI設定部10は、ROIが手動で設定される場合、次のパラメータがユーザによってキーボード5から入力されることでROIの範囲を取得する。
(1)内周円、外周円の半径r1,r2
(2)内周円、外周円の中心座標(iROI,jROI)
The ROI setting unit 10 acquires a donut-shaped ROI (region) including at least the outlines of the two transparent substrates on the image, either manually or automatically, and sets the ROI on the image. FIG. 3 shows an example of setting ROI. Since the ROI is set and only the inside of the ROI is a processing target, the processing time is shortened, and the influence of noise such as a change in the background of the transparent substrate is reduced. When the ROI is manually set, the ROI setting unit 10 acquires the ROI range by inputting the next parameter from the keyboard 5 by the user.
(1) Inner and outer circle radii r1 and r2
(2) Center coordinates of inner circle and outer circle (i ROI , j ROI )

あるいは、位置検出装置1にマウスなどの入力装置が備えられている場合、ROI設定部10はユーザがディスプレイ4上に表示された画像に対し内周円、外周円を描画することでROIの範囲を取得してもよい。尚、設定するROIの大きさは、基板の位置がずれた場合でも、基板の外郭がROI領域から外れない程度に設定するものとする。   Alternatively, when the position detection device 1 is provided with an input device such as a mouse, the ROI setting unit 10 draws an inner circle and an outer circle on the image displayed on the display 4 so that the ROI range is drawn. May be obtained. Note that the size of the ROI to be set is set to such an extent that the outline of the substrate does not deviate from the ROI region even when the position of the substrate is shifted.

説明を図1の構成図に戻す。エッジ抽出部11は、ROIが設定された画像に対して、2枚の透明基板に対するエッジ抽出処理を施す。画像中の明暗差を利用してエッジを抽出するには様々な方法があるが、実施の形態1では典型的なエッジ抽出方法であるSobelフィルタを採用する。Sobelフィルタでは、着目している画素(i,j)の上下左右3×3画素から成る行列と、下記の行列との積fA,fBを算出し、

Figure 2009270984
その二乗和の平方を画素値として用いる。
Figure 2009270984
The description returns to the configuration diagram of FIG. The edge extraction unit 11 performs an edge extraction process on the two transparent substrates on the image for which the ROI is set. There are various methods for extracting an edge using a difference in brightness in an image. In the first embodiment, a Sobel filter that is a typical edge extraction method is employed. In the Sobel filter, products f A and f B of a matrix composed of 3 × 3 pixels in the vertical and horizontal directions of the pixel (i, j) of interest and the following matrix are calculated,
Figure 2009270984
The square of the square sum is used as the pixel value.
Figure 2009270984

図4に、エッジ抽出部11によって抽出されたエッジ画像の例を示す。尚、実施の形態1では上下左右の3×3画素に基づきエッジ抽出処理を施すが、態様を限定するものではなく、例えば5×5画素、7×7画素であってもよい。   FIG. 4 shows an example of an edge image extracted by the edge extraction unit 11. In the first embodiment, the edge extraction processing is performed based on 3 × 3 pixels on the top, bottom, left, and right, but the mode is not limited, and may be, for example, 5 × 5 pixels or 7 × 7 pixels.

説明を図1の構成図に戻す。最適エッジ選択部12は、エッジ抽出部11によって抽出されたエッジから、カメラ6に対し最前の透明基板のエッジ(最適なエッジ)を選択する。図4では、手前の基板のエッジと奥の基板のエッジが分離されておらず、抽出されたエッジがどちらの基板に含まれるのかが不明である。そこで、最適エッジ選択部12は、ROIを徐々に絞り込むことで手前の基板のエッジのみ抽出する。   The description returns to the configuration diagram of FIG. The optimum edge selection unit 12 selects the edge (optimum edge) of the frontmost transparent substrate for the camera 6 from the edges extracted by the edge extraction unit 11. In FIG. 4, the edge of the front substrate and the edge of the back substrate are not separated, and it is unclear which substrate contains the extracted edge. Therefore, the optimum edge selection unit 12 extracts only the edge of the front substrate by gradually narrowing down the ROI.

ここで、最適エッジ選択部12の処理の詳細を説明する。まず、抽出した全エッジ上の点列(Xn,Yn)を用いて、最小二乗法による近似処理(以下、必要に応じ円フィッティングと称す)を実施する(n=1,・・・,N)。求める円の中心、半径を(iC,jC)、rCとすると、円の式は次式となる。

Figure 2009270984
上式を次のように変形し、点(Xn,Yn)を代入し、2乗の総和を求める。
Figure 2009270984
ただし、α=−2ic、β=−2jc、γ=ic 2+jc 2−γc 2
Figure 2009270984
次に、α、β、γに関して偏微分する。
Figure 2009270984
上式をα,β,γに関して解くと、以下の式を得る。
Figure 2009270984
上式に、点列(Xn,Yn)の値を代入して逆行列を求め、α、β、γを算出すると、中心座標と半径が求まる。
Figure 2009270984
Figure 2009270984
図5に円フィッティングの結果の例を示す。 Here, the details of the processing of the optimum edge selection unit 12 will be described. First, using the extracted point sequence (Xn, Yn) on all edges, an approximation process by the least square method (hereinafter referred to as a circle fitting if necessary) is performed (n = 1,..., N). . Assuming that the center and radius of the circle to be obtained are (i C , j C ) and r C , the circle equation is as follows.
Figure 2009270984
The above equation is modified as follows, and the point (Xn, Yn) is substituted to find the sum of squares.
Figure 2009270984
However, α = −2i c , β = −2j c , γ = i c 2 + j c 2 −γ c 2
Figure 2009270984
Next, partial differentiation is performed with respect to α, β, and γ.
Figure 2009270984
Solving the above equation with respect to α, β, γ, the following equation is obtained.
Figure 2009270984
By substituting the value of the point sequence (Xn, Yn) into the above equation to obtain an inverse matrix and calculating α, β, and γ, the center coordinates and the radius are obtained.
Figure 2009270984
Figure 2009270984
FIG. 5 shows an example of the result of circle fitting.

次に、最適エッジ選択部12は、上述の円フィッティング処理で求めた円を基準とし、ドーナツ状のROIを再設定する。つまり、次のような内周円、外周円となるROIを設定する。
内周円・・・中心座標:(iC,jC)、半径:rC−L1
外周円・・・中心座標:(iC,jC)、半径:rC+L2
ここで、L2>L1>0
Next, the optimum edge selection unit 12 resets the donut-shaped ROI with reference to the circle obtained by the above-described circle fitting process. That is, the following ROIs are set as inner and outer circles.
Inner circumference circle: center coordinates: (i C , j C ), radius: r C -L 1
Peripheral circle: center coordinates: (i C , j C ), radius: r C + L 2
Here, L 2 > L 1 > 0

位置検出装置1は、再設定したROIを用いて、エッジ抽出処理および円フィッティング処理を上述同様に再度実行する。このように、L2をL1よりも大きく設定することで、基準円(半径rC)の内側のエッジを除外し、外側のエッジを抽出するようなエッジ抽出が可能となる(図6)。逆に、L2<L1とすることで、外側のエッジを除外し、内側のエッジを抽出することが可能となる。 The position detection apparatus 1 performs the edge extraction process and the circle fitting process again in the same manner as described above using the reset ROI. In this way, by setting L 2 larger than L 1, it becomes possible to perform edge extraction that excludes the inner edge of the reference circle (radius r C ) and extracts the outer edge (FIG. 6). . Conversely, by setting L 2 <L 1 , it is possible to exclude the outer edge and extract the inner edge.

位置検出装置1は、上述の処理を所定回数k回実行したときに、算出される円フィッッティングの結果の半径rC (K)と、k−1回目の半径rC (K-1)の差分を計算する。差分がしきい値rTH以下である場合、抽出されたエッジを最適エッジ(撮像位置から最前の基板のエッジ)とみなす。

Figure 2009270984
図7に最適エッジの抽出例を示す。 The position detection apparatus 1 performs the above-described processing k times a predetermined number of times k, and calculates a radius r C (K) as a result of the circle fitting and a k−1th radius r C (K-1). Calculate the difference between When the difference is equal to or less than the threshold value r TH , the extracted edge is regarded as the optimum edge (the edge of the substrate on the forefront from the imaging position).
Figure 2009270984
FIG. 7 shows an example of optimum edge extraction.

説明を図1の構成図に戻す。位置算出部13は、最適エッジを抽出するときに求めた円フィッティングの中心位置を、手前の基板の中心位置とみなす。
(iC (K),jC (K)
The description returns to the configuration diagram of FIG. The position calculation unit 13 regards the center position of the circle fitting obtained when extracting the optimum edge as the center position of the front substrate.
(I C (K) , j C (K) )

上述の各ユニットによる一連の処理が完了し、次のサンプリング時刻になるとカメラ6は次フレーム画像を撮像する。基板位置が変化しない場合は、次フレーム画像に対するROIの設定値として、上述した値を用いることができる。すなわち、次のフレーム画像に対し、以下のようにROIが設定される。
内周円・・・中心座標:(iC (K),jC (K)),半径:rC (K)−L1
外周円・・・中心座標:(iC (K),jC (K)),半径:rC (K)+L2
2>L1>0
尚、基板位置が変化する場合は、基板画像がROIから外れないようにROIを大きめに設定する。
内周円・・・中心座標:(iC (K),jC (K)),半径:rC (K)−L3
外周円・・・中心座標:(iC (K),jC (K)),半径:rC (K)+L4
3>L1,L4>L2
通常は,検出誤差などを考慮して、ROIを大きめに設定すると良い。このように検出した基板位置(iC (K),jC (K))を用いてROIを自動的に設定すると、手動でのROI設定は先頭フレーム画像に対してのみ実施すればよいので作業負荷を低減することができる。
When a series of processes by each unit described above is completed and the next sampling time is reached, the camera 6 captures the next frame image. When the substrate position does not change, the above-described value can be used as the ROI setting value for the next frame image. That is, the ROI is set as follows for the next frame image.
Inner circumference: center coordinates: (i C (K) , j C (K) ), radius: r C (K) −L 1
Peripheral circle: center coordinates: (i C (K) , j C (K) ), radius: r C (K) + L 2
L 2 > L 1 > 0
When the substrate position changes, the ROI is set to be large so that the substrate image does not deviate from the ROI.
Inner circumference: center coordinates: (i C (K) , j C (K) ), radius: r C (K) −L 3
Peripheral circle: center coordinates: (i C (K) , j C (K) ), radius: r C (K) + L 4
L 3 > L 1 , L 4 > L 2
Normally, it is better to set a larger ROI in consideration of detection errors and the like. When the ROI is automatically set using the substrate position (i C (K) , j C (K) ) detected in this way, manual ROI setting only needs to be performed for the first frame image. The load can be reduced.

また、エッジ抽出部11で抽出された基板のエッジが途切れているなど、エッジ画素数が少ない場合、検出された中心位置と半径の信頼性が低い可能性がある。そこで、位置検出装置1は、下記の判定基準に満たない場合は検出結果を採用しないように処理する。前サンプリング時に、判定基準を満たしたときの円周の長さlを半径rC (K)から計算する。

Figure 2009270984
位置検出装置1は、エッジを形成する点の総数Nが円周長さの一定の割合pTHに到達しないときは、判定基準を満足しないものとみなす。
N<l×pTH ・・・ 判定基準を満たさない。
N≧l×pTH ・・・ 判定基準を満たす。 In addition, when the number of edge pixels is small, such as when the edge of the substrate extracted by the edge extraction unit 11 is interrupted, the reliability of the detected center position and radius may be low. Therefore, the position detection device 1 performs processing so that the detection result is not adopted when the following determination criterion is not satisfied. At the time of pre-sampling, the circumference length l when the criterion is satisfied is calculated from the radius r C (K) .
Figure 2009270984
The position detection device 1 considers that the criterion is not satisfied when the total number N of points forming the edge does not reach a constant ratio pTH of the circumferential length.
N <l × p TH: Does not meet the criteria.
N ≧ l × p TH・ ・ ・ Meets the criteria.

次に、実施の形態1における位置検出装置1の処理を図8のフローチャートを参照しつつ説明する。   Next, the process of the position detection apparatus 1 in Embodiment 1 is demonstrated, referring the flowchart of FIG.

カメラ6は、2枚の連なった透明基板の撮影を開始する(ステップS1)。カメラ6は、所定のサンプリング周期の間隔で透明基板の面に対し垂直方向から撮像する。   The camera 6 starts photographing two continuous transparent substrates (step S1). The camera 6 captures an image from a direction perpendicular to the surface of the transparent substrate at a predetermined sampling period interval.

画像入力部2は、カメラ6が撮像したサンプリング周期でのフレーム画像を取得する(ステップS2)。   The image input unit 2 acquires a frame image with a sampling period captured by the camera 6 (step S2).

ROI設定部3は、透明基板のそれぞれの輪郭を少なくとも含んだ領域となるように、ROIの内周円、外周円の中心位置と半径を取得する(ステップS3)。尚、位置検出装置1が起動した直後の初回の処理に限り、キーボード5を介してROIの内周円、外周円の中心位置と半径がユーザによって入力される。   The ROI setting unit 3 acquires the center positions and radii of the inner and outer circles of the ROI so as to be an area including at least the outline of each transparent substrate (step S3). Note that the center position and radius of the inner and outer circles of the ROI are input by the user via the keyboard 5 only for the first processing immediately after the position detection device 1 is activated.

またROI設定部3は、画像入力部2で取得されたフレーム画像から、ステップS3によって取得されたROIをフレーム画像に設定する(ステップS4)。   The ROI setting unit 3 sets the ROI acquired in step S3 from the frame image acquired by the image input unit 2 to the frame image (step S4).

エッジ抽出部11は、設定されたROIに対して上述のエッジ抽出処理を適用する(ステップS5)。   The edge extraction unit 11 applies the above-described edge extraction processing to the set ROI (step S5).

最適エッジ選択部12は、抽出されたエッジの全点列(Xn,Yn)を取得し(ステップS6)、点列(Xn,Yn)を用いて上述の円フィッティングを実施することで基準円を算出する(ステップS7)。   The optimum edge selection unit 12 acquires all the point sequences (Xn, Yn) of the extracted edges (step S6), and performs the above-described circle fitting using the point sequence (Xn, Yn) to obtain the reference circle. Calculate (step S7).

最適エッジ選択部12は、基準円の中心座標(iC (K),jC (K))、および半径rC (K)を算出する(ステップS8)。 The optimum edge selection unit 12 calculates the center coordinates (i C (K) , j C (K) ) and the radius r C (K) of the reference circle (step S8).

最適エッジ選択部12は、半径rC (K)と、k−1回目の半径rC (K-1)の差分を計算する(ステップS9)。差分がしきい値rTH以上である場合(ステップS9、N)、ROIの内周円と外周円を以下のように再設定し、処理はステップS3へ戻る(ステップS10)。
内周円・・・中心座標:(iC (K),jC (K))、半径:rC (K)−L1
外周円・・・中心座標:(iC (K),jC (K))、半径:rC (K)+L2
また、ステップS3においては、ROI設定部10はステップS10によって算出された中心座標および半径をROIの範囲として取得する。
The optimum edge selector 12 calculates the difference between the radius r C (K) and the k−1th radius r C (K−1) (step S9). If the difference is greater than or equal to the threshold value r TH (step S9, N), the inner and outer circles of ROI are reset as follows, and the process returns to step S3 (step S10).
Inner circumference: center coordinates: (i C (K) , j C (K) ), radius: r C (K) −L 1
Peripheral circle: center coordinates: (i C (K) , j C (K) ), radius: r C (K) + L 2
In step S3, the ROI setting unit 10 acquires the center coordinates and the radius calculated in step S10 as the ROI range.

尚、最適エッジ選択部12は、ステップS10からステップS3へループするごとに、L1、L2の値を徐々に小さくすることで、ROIの範囲をさらに絞り込むことができる。 The optimum edge selection unit 12 can further narrow down the ROI range by gradually reducing the values of L 1 and L 2 every time the loop from step S10 to step S3 is performed.

一方、差分がしきい値rTHより小さい場合(ステップS9、Y)、最適エッジ選択部12はエッジを形成する点の総数Nが円周長さの一定の割合pTHに到達しているか否かを判定する(ステップS11)。判定基準を満たさない場合(ステップS11、N)、最適エッジ選択部12はROIの内周円と外周円を前サンプリング時の算出結果を基に再設定し(ステップS12)、処理は次のフレーム画像の取得(ステップS2)へと遷移する。 On the other hand, when the difference is smaller than the threshold value r TH (step S9, Y), the optimum edge selection unit 12 determines whether or not the total number N of points forming the edge has reached a constant ratio p TH of the circumferential length. Is determined (step S11). When the determination criterion is not satisfied (step S11, N), the optimum edge selection unit 12 resets the inner and outer circles of the ROI based on the calculation result at the time of the previous sampling (step S12), and the processing is performed on the next frame. Transition to image acquisition (step S2).

一方、判定基準を満たす場合(ステップS11、Y)、位置算出部13は基板の中心位置(iC (K),jC (K))を検出する(ステップS13)。その後、位置算出部13はROIの内周円と外周円を以下のように設定し、処理は次のフレーム画像の取得(ステップS2)へと遷移する。
内周円・・・中心座標:(iC (K),jC (K)),半径:rC (K)−L3
外周円・・・中心座標:(iC (K),jC (K)),半径:rC (K)+L4
尚、次のフレーム画像に対するステップS3は、ROI設定部10はステップS14によって算出された内周円、外周円の中心座標および半径をROIの範囲として取得する。
On the other hand, when the determination criterion is satisfied (step S11, Y), the position calculation unit 13 detects the center position (i C (K) , j C (K) ) of the substrate (step S13). Thereafter, the position calculation unit 13 sets the inner and outer circles of the ROI as follows, and the process transitions to acquisition of the next frame image (step S2).
Inner circumference: center coordinates: (i C (K) , j C (K) ), radius: r C (K) −L 3
Peripheral circle: center coordinates: (i C (K) , j C (K) ), radius: r C (K) + L 4
In step S3 for the next frame image, the ROI setting unit 10 acquires the center coordinates and radius of the inner and outer circles calculated in step S14 as the ROI range.

上述の各ステップが、カメラ6にて撮像されたフレーム画像分実行される。   The above steps are executed for the frame image captured by the camera 6.

上述のフローチャートでは、円フィッティングの結果を取得しL1、L2を用いてROIを再設定した後、ROI設定部10、エッジ抽出部11による処理へループするようにしたが、ROIを再設定した後、位置算出部13による処理の前までは最適エッジ選択部12によって実施されてもよい。 In the above flowchart, after obtaining the result of the circle fitting and resetting the ROI using L 1 and L 2 , the process loops to the ROI setting unit 10 and the edge extraction unit 11, but the ROI is reset. After that, the optimum edge selection unit 12 may perform the process before the processing by the position calculation unit 13.

(実施の形態2)
実施の形態1での最適エッジ選択部12は、判定基準を満たすまでROIの再設定、エッジ抽出および最小二乗法による近似を繰り返し行うことで、最適エッジ(撮像位置に対し最前の透明基板のエッジ)を算出したが、実施の形態2の最適エッジ選択部12は、ライン走査によって最適エッジを選択する。尚、実施の形態2においても位置検出装置1の構成は実施の形態1と同様であるため、ここでの説明は省略する(図1参照)。また、検出対象、撮像の配置等、各条件も実施の形態1と同様であるため、ここでの説明は省略する(図2参照)。
(Embodiment 2)
The optimum edge selection unit 12 according to the first embodiment repeatedly performs ROI resetting, edge extraction, and approximation by the least square method until the determination criterion is satisfied, thereby obtaining the optimum edge (the edge of the transparent substrate that is the earliest with respect to the imaging position). ) Has been calculated, the optimum edge selection unit 12 of the second embodiment selects the optimum edge by line scanning. In the second embodiment, the configuration of the position detection device 1 is the same as that of the first embodiment, and the description thereof is omitted (see FIG. 1). In addition, since the conditions such as the detection target and the imaging arrangement are the same as those in the first embodiment, the description thereof is omitted (see FIG. 2).

ここで、ライン走査によって最適エッジを選択する方法を、図9を参照しつつ説明する。エッジ抽出部11で抽出されたエッジについて、連続しているエッジの点列を(X(m)n,Y(m)n)と表記する。尚、mは第m番目のエッジに含まれていることを示し、nは第m番目のエッジの中の第n番目の点であることを示す。また、以下の説明では垂直ラインで走査するときの処理方法を示すが、水平ラインで走査する場合も同様の手順で処理することができる。   Here, a method of selecting the optimum edge by line scanning will be described with reference to FIG. For the edges extracted by the edge extraction unit 11, a point sequence of continuous edges is expressed as (X (m) n, Y (m) n). Here, m indicates that it is included in the mth edge, and n indicates the nth point in the mth edge. Further, in the following description, a processing method when scanning with a vertical line is shown, but when scanning with a horizontal line, the same procedure can be used.

垂直ラインを、画像の左端(i=0)から右端(i=imax)まで走査する。垂直ラインがiのとき、垂直ラインと交差するエッジmとの交点の座標は、
(i,Y(m)n)
である。最適エッジ選択部12は、全エッジとの交点座標の中で、y座標の最大値と最小値を算出し、対応するエッジ番号を、上部最外周エッジ候補、下部最外周エッジ候補に登録(メモリ102に保持)する。例えば図9において、垂直ラインがi=i1のとき、最大値、最小値はそれぞれ
max{Y(1)n,・・・,Y(m)n}=Y(1)n
min{Y(1)n,・・・,Y(m)n}=Y(1)n
となる。尚、max{ },min{ }は、それぞれ最大値、最小値を算出する演算子である。従って、上部最外周エッジ候補、下部最外周エッジ候補に、m=1を登録する。
上部最外周エッジ候補[1]
下部最外周エッジ候補[1]
A vertical line is scanned from the left edge (i = 0) to the right edge (i = imax) of the image. When the vertical line is i, the coordinates of the intersection with the edge m intersecting the vertical line are
(I, Y (m) n)
It is. The optimum edge selection unit 12 calculates the maximum and minimum values of the y coordinate among the intersection coordinates with all edges, and registers the corresponding edge numbers in the upper outermost edge candidate and lower outermost edge candidate (memory) 102). For example, in FIG. 9, when the vertical line is i = i 1 , the maximum value and the minimum value are max {Y (1) n,..., Y (m) n} = Y (1) n.
min {Y (1) n,..., Y (m) n} = Y (1) n
It becomes. Note that max {} and min {} are operators for calculating the maximum value and the minimum value, respectively. Therefore, m = 1 is registered in the upper outermost peripheral edge candidate and the lower outermost peripheral edge candidate.
Upper outermost edge candidate [1]
Lower outermost edge candidate [1]

同様に、図9において垂直ラインがi=i2のとき、
max{Y(1)n,・・・,Y(m)n}=Y(3)n
min{Y(1)n,・・・,Y(m)n}=Y(3)n
となり、最適エッジ選択部12は新たに求められた最大値と最小値に対応するエッジ番号3を登録する。
上部最外周エッジ候補[1,3]
下部最外周エッジ候補[1,3]
Similarly, when the vertical line in FIG. 9 is i = i 2 ,
max {Y (1) n,..., Y (m) n} = Y (3) n
min {Y (1) n,..., Y (m) n} = Y (3) n
Thus, the optimum edge selection unit 12 registers edge number 3 corresponding to the newly obtained maximum value and minimum value.
Upper outermost edge candidate [1,3]
Lower outermost edge candidate [1,3]

更に、図9において垂直ラインがi=i3のとき、
max{Y(1)n,・・・,Y(m)n}=Y(2)n
min{Y(1)n,・・・,Y(m)n}=Y(4)n
となる。このとき、第3番目のエッジ(m=3のエッジ)も垂直ラインi3と交差するが、最大値、最小値のいずれにも該当しない。この場合、最適エッジ選択部12は、上部最外周エッジ候補、下部最外周エッジ候補から3を削除し、新たに算出された最大値と最小値に対応するエッジ番号を登録する。
上部最外周エッジ候補[1,2]
下部最外周エッジ候補[1,4]
Furthermore, in FIG. 9, when the vertical line is i = i 3 ,
max {Y (1) n,..., Y (m) n} = Y (2) n
min {Y (1) n,..., Y (m) n} = Y (4) n
It becomes. At this time, the third edge (m = 3 edge) also intersects the vertical line i 3 , but does not correspond to either the maximum value or the minimum value. In this case, the optimum edge selection unit 12 deletes 3 from the upper outermost peripheral edge candidate and the lower outermost peripheral edge candidate, and registers the edge numbers corresponding to the newly calculated maximum value and minimum value.
Upper outermost edge candidate [1,2]
Lower outermost peripheral edge candidate [1, 4]

上述の処理を繰り返すことで、最外周エッジのみを抽出することができる。図9の抽出結果は次のようになる。
上部最外周エッジ候補[1,2,5]
下部最外周エッジ候補[1,4,9]
上部最外周エッジ候補、下部最外周エッジ候補に最終的に登録されているエッジが最適エッジとなる。尚、図9のエッジの中から抽出された最適エッジは、図10のようになる。
By repeating the above processing, only the outermost peripheral edge can be extracted. The extraction result of FIG. 9 is as follows.
Upper outermost edge candidate [1, 2, 5]
Lower outermost peripheral edge candidate [1, 4, 9]
The edge finally registered in the upper outermost peripheral edge candidate and the lower outermost peripheral edge candidate is the optimum edge. The optimum edge extracted from the edges in FIG. 9 is as shown in FIG.

次に、実施の形態2における位置検出装置1の処理を図11のフローチャートを参照しつつ説明する。尚、図11のフローチャートでは、ライン走査によって最適エッジを選択する方法に加え、さらに円フィッティング処理も施すものとする。このようにすることで、より正確な基板の中心座標(iC,jC)、半径rCが求められる。 Next, processing of the position detection apparatus 1 according to Embodiment 2 will be described with reference to the flowchart of FIG. In the flowchart of FIG. 11, in addition to the method of selecting the optimum edge by line scanning, it is assumed that a circle fitting process is also performed. In this way, more accurate center coordinates (i C , j C ) and radius r C of the substrate are obtained.

ステップS21からステップS25までは、実施の形態1と同様であるためここでの説明は省略する(図8のステップS1からステップS5までを参照)。   Steps S21 to S25 are the same as those in the first embodiment, and thus description thereof is omitted (see steps S1 to S5 in FIG. 8).

最適エッジ選択部12は、連続している各エッジの点列(X(m)n,Y(m)n)を取得する(ステップS26)。   The optimum edge selection unit 12 acquires a point sequence (X (m) n, Y (m) n) of each continuous edge (step S26).

最適エッジ選択部12は、走査する垂直ラインの座標値iに、初期値0をセットする(ステップS27)。   The optimum edge selection unit 12 sets an initial value 0 to the coordinate value i of the vertical line to be scanned (step S27).

最適エッジ選択部12は、垂直ラインと交差する全エッジとの交点座標の中からy座標の最大値と最小値を算出する。(ステップS28)、また最適エッジ選択部12は、算出した最大値と最小値に対応するエッジ番号を、それぞれ上部最外周エッジ候補、下部最外周エッジ候補に登録する(ステップS29)。   The optimum edge selection unit 12 calculates the maximum value and the minimum value of the y coordinate from the intersection coordinates of all edges that intersect the vertical line. (Step S28) Further, the optimum edge selection unit 12 registers the edge numbers corresponding to the calculated maximum value and minimum value in the upper outermost edge candidate and the lower outermost edge candidate, respectively (Step S29).

最適エッジ選択部12は、最大値、最小値以外のy座標に対応するエッジ番号が、上部最外周エッジ候補、下部最外周エッジ候補に登録されている場合は、そのエッジ番号の登録を抹消する(ステップS30)。   When the edge number corresponding to the y coordinate other than the maximum value and the minimum value is registered in the upper outermost edge candidate and the lower outermost edge candidate, the optimum edge selecting unit 12 deletes the registration of the edge number. (Step S30).

最適エッジ選択部12は、垂直ラインの座標値iに1を加える(ステップS31)。ここで、座標値iがimax(最右端)未満の場合(ステップS32、N)、ステップS28に処理が遷移し、座標値iがimaxに達するまでステップS28からステップS31の処理が繰り返される。   The optimum edge selection unit 12 adds 1 to the coordinate value i of the vertical line (step S31). Here, if the coordinate value i is less than imax (rightmost end) (step S32, N), the process proceeds to step S28, and the processes from step S28 to step S31 are repeated until the coordinate value i reaches imax.

一方、座標値iがimaxに達した場合(ステップS32、Y)、最適エッジ選択部12は上部最外周エッジ候補、下部最外周エッジ候補に登録されているエッジの点列(X(m)n,Y(m)n)を用いて、実施の形態1と同様に円フィッテングを実施する(ステップS33)。   On the other hand, when the coordinate value i has reached imax (step S32, Y), the optimum edge selection unit 12 uses a point sequence (X (m) n) registered in the upper outermost edge candidate and the lower outermost edge candidate. , Y (m) n), circular fitting is performed in the same manner as in the first embodiment (step S33).

最適エッジ選択部12は、実施の形態1のステップS8と同様処理にて中心座標(iC,jC)、および半径rCを算出する(ステップS34)。 The optimum edge selection unit 12 calculates the center coordinates (i C , j C ) and the radius r C by the same process as step S8 in the first embodiment (step S34).

以降のステップS35からステップS38までの処理は、実施の形態1と同様であるためここでの説明は省略する(ステップS11からステップS14参照)。   Since the subsequent processing from step S35 to step S38 is the same as that of the first embodiment, description thereof will be omitted (see steps S11 to S14).

実施の形態1、実施の形態2とも、検出対象を円形ドーナツ状の透明基板としたが、形状を限定するものではない。例えば四角形基板でも適用可能である。   In both Embodiment 1 and Embodiment 2, the detection target is a circular donut-shaped transparent substrate, but the shape is not limited. For example, a rectangular substrate can be applied.

位置検出装置を構成するコンピュータにおいて上述した各ステップを実行させるプログラムを、位置検出プログラムとして提供することができる。上述したプログラムは、コンピュータにより読取り可能な記録媒体に記憶させることによって、位置検出装置を構成するコンピュータに実行させることが可能となる。ここで、上記コンピュータにより読取り可能な記録媒体としては、ROMやRAM等のコンピュータに内部実装される内部記憶装置、CD−ROMやフレキシブルディスク、DVDディスク、光磁気ディスク、ICカード等の可搬型記憶媒体や、コンピュータプログラムを保持するデータベース、或いは、他のコンピュータ並びにそのデータベースや、更に回線上の伝送媒体をも含むものである。   A program that causes a computer constituting the position detection apparatus to execute the above-described steps can be provided as a position detection program. By storing the above-described program in a computer-readable recording medium, the computer constituting the position detection device can be executed. Here, examples of the recording medium readable by the computer include an internal storage device such as a ROM and a RAM, a portable storage such as a CD-ROM, a flexible disk, a DVD disk, a magneto-optical disk, and an IC card. It includes a medium, a database holding a computer program, another computer and its database, and a transmission medium on a line.

(付記1) 面が互いに向き合うよう連なって配置された複数の透明部材に対し前記面の垂直方向から撮像した画像を取得する画像取得部と、
前記画像取得部によって取得された画像に撮像された前記複数の透明部材それぞれの輪郭を少なくとも含んだ領域を取得する領域取得部と、
前記領域取得部によって取得された領域内から、前記複数の透明部材のエッジを抽出するエッジ抽出部と、
前記エッジ抽出部によって抽出されたエッジから、前記複数の透明部材のうちの所定の透明部材のエッジを選択するエッジ選択部と、
前記エッジ選択部によって選択されたエッジに基づき、前記所定の透明部材の位置を算出する位置算出部と、
を備える位置検出装置。
(付記2) 付記1に記載の位置検出装置において、
前記エッジ選択部は、前記エッジ抽出部によって抽出されたエッジに基づき、基準となる形状を算出し、該形状に基づき前記領域取得部によって取得された領域の範囲をさらに絞り込むことで前記所定の透明部材のエッジを選択することを特徴とする位置検出装置。
(付記3) 付記2に記載の位置検出装置において、
前記エッジ選択部は、前記エッジ抽出部によって抽出された全てのエッジを最小二乗法によって近似することで、前記基準となる形状を算出することを特徴とする位置検出装置。
(付記4) 付記1に記載の位置検出装置において、
前記所定の透明部材が撮像位置に対し最前の透明部材である場合、前記エッジ選択部は、前記画像の水平または垂直のラインを走査し、走査ラインと前記エッジ抽出部によって抽出されたエッジとの交点座標が最大値または最小値となるエッジを求め、該エッジを前記所定の透明部材のエッジとして選択することを特徴とする位置検出装置。
(付記5) 付記4に記載の位置検出装置において、
前記エッジ選択部は、
前記画像の水平または垂直のラインを走査し、走査ラインと前記エッジ抽出部によって抽出されたエッジとの交点座標が最大値となるエッジを第1エッジ候補として登録し、
走査ラインと前記エッジ抽出部によって抽出されたエッジとの交点座標が最小値となるエッジを第2エッジ候補として登録し、
走査ラインと前記エッジ抽出部によって抽出されたエッジとの交点座標が最大値または最小値でないエッジが前記第1エッジ候補または前記第2エッジ候補として登録されている場合、該エッジの登録を抹消し、
第1エッジ候補の登録、第2エッジ候補の登録、エッジの登録抹消の各処理を前記画像全ての走査ラインに実施したときに前記第1エッジ候補および前記第2エッジ候補として登録されたエッジを前記所定の透明部材のエッジとして選択することを特徴とする位置検出装置。
(付記6) 付記5に記載の位置検出装置において、
前記エッジ選択部は、さらに、第1エッジ候補の登録、第2エッジ候補の登録、エッジの登録抹消の各処理を前記画像全ての走査ラインに実施したときに前記第1エッジ候補および前記第2エッジ候補として登録された全てのエッジを最小二乗法によって近似した形状を、前記所定の透明部材のエッジとして選択することを特徴とする位置検出装置。
(付記7) 面が互いに向き合うよう連なって配置された複数の透明部材に対し前記面の垂直方向から撮像した画像を取得する画像取得ステップと、
前記画像取得ステップによって取得された画像に撮像された前記複数の透明部材それぞれの輪郭を少なくとも含んだ領域を取得する領域取得ステップと、
前記領域取得ステップによって取得された領域内から、前記複数の透明部材のエッジを抽出するエッジ抽出ステップと、
前記エッジ抽出ステップによって抽出されたエッジから、前記複数の透明部材のうちの所定の透明部材のエッジを選択するエッジ選択ステップと、
前記エッジ選択ステップによって選択されたエッジに基づき、前記所定の透明部材の位置を算出する位置算出ステップと、
をコンピュータに実行させる位置検出プログラム。
(付記8) 付記7に記載の位置検出プログラムにおいて、
前記エッジ選択ステップは、前記エッジ抽出ステップによって抽出されたエッジに基づき、基準となる形状を算出し、該形状に基づき前記領域取得部によって取得された領域の範囲をさらに絞り込むことで前記所定の透明部材のエッジを選択することを特徴とする位置検出プログラム。
(付記9) 付記8に記載の位置検出プログラムにおいて、
前記エッジ選択ステップは、前記エッジ抽出ステップによって抽出された全てのエッジを最小二乗法によって近似することで、前記基準となる形状を算出することを特徴とする位置検出プログラム。
(付記10) 付記7に記載の位置検出プログラムにおいて、
前記所定の透明部材が撮像位置に対し最前の透明部材である場合、前記エッジ選択ステップは、前記画像の水平または垂直のラインを走査し、走査ラインと前記エッジ抽出ステップによって抽出されたエッジとの交点座標が最大値または最小値となるエッジを求め、該エッジを前記所定の透明部材のエッジとして選択することを特徴とする位置検出プログラム。
(付記11) 付記10に記載の位置検出プログラムにおいて、
前記エッジ選択ステップは、
前記画像の水平または垂直のラインを走査し、走査ラインと前記エッジ抽出ステップによって抽出されたエッジとの交点座標が最大値となるエッジを第1エッジ候補として登録し、
走査ラインと前記エッジ抽出ステップによって抽出されたエッジとの交点座標が最小値となるエッジを第2エッジ候補として登録し、
走査ラインと前記エッジ抽出ステップによって抽出されたエッジとの交点座標が最大値または最小値でないエッジが前記第1エッジ候補または前記第2エッジ候補として登録されている場合、該エッジの登録を抹消し、
第1エッジ候補の登録、第2エッジ候補の登録、エッジの登録抹消の各処理を前記画像全ての走査ラインに実施したときに前記第1エッジ候補および前記第2エッジ候補として登録されたエッジを前記所定の透明部材のエッジとして選択することを特徴とする位置検出プログラム。
(付記12) 付記11に記載の位置検出プログラムにおいて、
前記エッジ選択ステップは、さらに、第1エッジ候補の登録、第2エッジ候補の登録、エッジの登録抹消の各処理を前記画像全ての走査ラインに実施したときに前記第1エッジ候補および前記第2エッジ候補として登録された全てのエッジを最小二乗法によって近似した形状を、前記所定の透明部材のエッジとして選択することを特徴とする位置検出プログラム。
(付記13)
面が互いに向き合うよう連なって配置された複数の透明部材に対し前記面の垂直方向から撮像した画像を取得する画像取得ステップと、
前記画像取得ステップによって取得された画像に撮像された前記複数の透明部材それぞれの輪郭を少なくとも含んだ領域を取得する領域取得ステップと、
前記領域取得ステップによって取得された領域内から、前記複数の透明部材のエッジを抽出するエッジ抽出ステップと、
前記エッジ抽出ステップによって抽出されたエッジから、前記複数の透明部材のうちの所定の透明部材のエッジを選択するエッジ選択ステップと、
前記エッジ選択ステップによって選択されたエッジに基づき、前記所定の透明部材の位置を算出する位置算出ステップと、
を実行する位置検出方法。
(付記14) 付記13に記載の位置検出方法において、
前記エッジ選択ステップは、前記エッジ抽出ステップによって抽出されたエッジに基づき、基準となる形状を算出し、該形状に基づき前記領域取得部によって取得された領域の範囲をさらに絞り込むことで前記所定の透明部材のエッジを選択することを特徴とする位置検出方法。
(付記15) 付記14に記載の位置検出方法において、
前記エッジ選択ステップは、前記エッジ抽出ステップによって抽出された全てのエッジを最小二乗法によって近似することで、前記基準となる形状を算出することを特徴とする位置検出方法。
(付記16) 付記13に記載の位置検出方法において、
前記所定の透明部材が撮像位置に対し最前の透明部材である場合、前記エッジ選択ステップは、前記画像の水平または垂直のラインを走査し、走査ラインと前記エッジ抽出ステップによって抽出されたエッジとの交点座標が最大値または最小値となるエッジを求め、該エッジを前記所定の透明部材のエッジとして選択することを特徴とする位置検出方法。
(付記17) 付記16に記載の位置検出方法において、
前記エッジ選択ステップは、
前記画像の水平または垂直のラインを走査し、走査ラインと前記エッジ抽出ステップによって抽出されたエッジとの交点座標が最大値となるエッジを第1エッジ候補として登録し、
走査ラインと前記エッジ抽出ステップによって抽出されたエッジとの交点座標が最小値となるエッジを第2エッジ候補として登録し、
走査ラインと前記エッジ抽出ステップによって抽出されたエッジとの交点座標が最大値または最小値でないエッジが前記第1エッジ候補または前記第2エッジ候補として登録されている場合、該エッジの登録を抹消し、
第1エッジ候補の登録、第2エッジ候補の登録、エッジの登録抹消の各処理を前記画像全ての走査ラインに実施したときに前記第1エッジ候補および前記第2エッジ候補として登録されたエッジを前記所定の透明部材のエッジとして選択することを特徴とする位置検出方法。
(付記18) 付記17に記載の位置検出方法において、
前記エッジ選択ステップは、さらに、第1エッジ候補の登録、第2エッジ候補の登録、エッジの登録抹消の各処理を前記画像全ての走査ラインに実施したときに前記第1エッジ候補および前記第2エッジ候補として登録された全てのエッジを最小二乗法によって近似した形状を、前記所定の透明部材のエッジとして選択することを特徴とする位置検出方法。
(Additional remark 1) The image acquisition part which acquires the image imaged from the perpendicular | vertical direction of the said surface with respect to the several transparent member arrange | positioned so that a surface may face each other,
An area acquisition unit for acquiring an area including at least the contours of each of the plurality of transparent members captured in the image acquired by the image acquisition unit;
An edge extraction unit that extracts edges of the plurality of transparent members from the region acquired by the region acquisition unit;
An edge selection unit that selects an edge of a predetermined transparent member among the plurality of transparent members from the edges extracted by the edge extraction unit;
A position calculating unit that calculates the position of the predetermined transparent member based on the edge selected by the edge selecting unit;
A position detection device comprising:
(Supplementary note 2) In the position detection device according to supplementary note 1,
The edge selection unit calculates a reference shape based on the edge extracted by the edge extraction unit, and further narrows down the range of the region acquired by the region acquisition unit based on the shape, thereby the predetermined transparent A position detecting device for selecting an edge of a member.
(Supplementary note 3) In the position detection device according to supplementary note 2,
The position detection device, wherein the edge selection unit calculates the reference shape by approximating all edges extracted by the edge extraction unit by a least square method.
(Additional remark 4) In the position detection apparatus of Additional remark 1,
When the predetermined transparent member is the frontmost transparent member with respect to the imaging position, the edge selection unit scans a horizontal or vertical line of the image, and a scan line and an edge extracted by the edge extraction unit are detected. A position detection apparatus characterized by obtaining an edge having an intersection point coordinate having a maximum value or a minimum value, and selecting the edge as an edge of the predetermined transparent member.
(Additional remark 5) In the position detection apparatus of Additional remark 4,
The edge selector is
Scan a horizontal or vertical line of the image, register an edge where the intersection coordinate between the scanning line and the edge extracted by the edge extraction unit is the maximum value as a first edge candidate,
Register an edge at which the intersection coordinate between the scanning line and the edge extracted by the edge extraction unit is the minimum value as a second edge candidate,
When an edge whose intersection coordinate between a scanning line and the edge extracted by the edge extraction unit is not the maximum value or the minimum value is registered as the first edge candidate or the second edge candidate, the registration of the edge is deleted. ,
Edges registered as the first edge candidate and the second edge candidate when the first edge candidate registration, the second edge candidate registration, and the edge deregistration process are performed on all the scanning lines of the image. The position detecting device is selected as an edge of the predetermined transparent member.
(Supplementary note 6) In the position detection device according to supplementary note 5,
The edge selection unit further performs the first edge candidate registration, the second edge candidate registration, and the edge deregistration processing on the scanning lines of all the images when the first edge candidate and the second edge candidate are registered. A position detection apparatus, wherein a shape obtained by approximating all edges registered as edge candidates by a least square method is selected as an edge of the predetermined transparent member.
(Supplementary Note 7) An image acquisition step of acquiring images captured from a direction perpendicular to the surface with respect to a plurality of transparent members arranged so that the surfaces face each other;
An area acquisition step of acquiring an area including at least the outline of each of the plurality of transparent members captured in the image acquired by the image acquisition step;
An edge extraction step of extracting edges of the plurality of transparent members from within the region acquired by the region acquisition step;
An edge selection step of selecting an edge of a predetermined transparent member among the plurality of transparent members from the edges extracted by the edge extraction step;
A position calculating step for calculating a position of the predetermined transparent member based on the edge selected by the edge selecting step;
Position detection program that causes a computer to execute.
(Supplementary note 8) In the position detection program according to supplementary note 7,
The edge selection step calculates a reference shape based on the edge extracted by the edge extraction step, and further narrows down the range of the region acquired by the region acquisition unit based on the shape, thereby the predetermined transparent A position detection program for selecting an edge of a member.
(Supplementary note 9) In the position detection program according to supplementary note 8,
The position selecting program calculates the reference shape by approximating all the edges extracted by the edge extracting step by a least square method.
(Supplementary note 10) In the position detection program according to supplementary note 7,
When the predetermined transparent member is the transparent member that is the frontmost with respect to the imaging position, the edge selection step scans a horizontal or vertical line of the image, and a scan line and an edge extracted by the edge extraction step are A position detection program characterized by obtaining an edge having an intersection point coordinate having a maximum value or a minimum value and selecting the edge as an edge of the predetermined transparent member.
(Supplementary note 11) In the position detection program according to supplementary note 10,
The edge selection step includes:
Scan a horizontal or vertical line of the image, register an edge where the intersection coordinate between the scanning line and the edge extracted by the edge extraction step is a maximum value as a first edge candidate,
Register an edge having a minimum intersection coordinate between the scanning line and the edge extracted by the edge extraction step as a second edge candidate;
If an edge whose intersection coordinates between the scanning line and the edge extracted by the edge extraction step are not the maximum value or the minimum value is registered as the first edge candidate or the second edge candidate, the registration of the edge is deleted. ,
Edges registered as the first edge candidate and the second edge candidate when the first edge candidate registration, the second edge candidate registration, and the edge deregistration process are performed on all the scanning lines of the image. A position detection program that selects an edge of the predetermined transparent member.
(Supplementary note 12) In the position detection program according to supplementary note 11,
In the edge selection step, the first edge candidate and the second edge candidate are registered when the first edge candidate registration, the second edge candidate registration, and the edge deregistration process are performed on all scanning lines of the image. A position detection program that selects, as an edge of the predetermined transparent member, a shape obtained by approximating all edges registered as edge candidates by a least square method.
(Appendix 13)
An image acquisition step of acquiring an image captured from a direction perpendicular to the surface with respect to a plurality of transparent members arranged so that the surfaces face each other;
An area acquisition step of acquiring an area including at least the outline of each of the plurality of transparent members captured in the image acquired by the image acquisition step;
An edge extraction step of extracting edges of the plurality of transparent members from within the region acquired by the region acquisition step;
An edge selection step of selecting an edge of a predetermined transparent member among the plurality of transparent members from the edges extracted by the edge extraction step;
A position calculating step for calculating a position of the predetermined transparent member based on the edge selected by the edge selecting step;
Position detection method to execute.
(Supplementary note 14) In the position detection method according to supplementary note 13,
The edge selection step calculates a reference shape based on the edge extracted by the edge extraction step, and further narrows down the range of the region acquired by the region acquisition unit based on the shape, thereby the predetermined transparent A position detection method comprising selecting an edge of a member.
(Supplementary note 15) In the position detection method according to supplementary note 14,
The position detection method characterized in that the edge selection step calculates the reference shape by approximating all edges extracted by the edge extraction step by a least square method.
(Supplementary note 16) In the position detection method according to supplementary note 13,
When the predetermined transparent member is the transparent member that is the frontmost with respect to the imaging position, the edge selection step scans a horizontal or vertical line of the image, and a scan line and an edge extracted by the edge extraction step A position detection method characterized in that an edge having a maximum or minimum intersection coordinate is obtained and the edge is selected as an edge of the predetermined transparent member.
(Supplementary note 17) In the position detection method according to supplementary note 16,
The edge selection step includes:
Scan a horizontal or vertical line of the image, register an edge where the intersection coordinate between the scanning line and the edge extracted by the edge extraction step is a maximum value as a first edge candidate,
Register an edge having a minimum intersection coordinate between the scanning line and the edge extracted by the edge extraction step as a second edge candidate;
If an edge whose intersection coordinate between the scanning line and the edge extracted by the edge extraction step is not the maximum value or the minimum value is registered as the first edge candidate or the second edge candidate, the registration of the edge is deleted. ,
Edges registered as the first edge candidate and the second edge candidate when the first edge candidate registration, the second edge candidate registration, and the edge deregistration process are performed on all the scanning lines of the image. A position detecting method comprising selecting the edge of the predetermined transparent member.
(Supplementary note 18) In the position detection method according to supplementary note 17,
In the edge selection step, the first edge candidate and the second edge candidate are registered when the first edge candidate registration, the second edge candidate registration, and the edge deregistration process are performed on all scanning lines of the image. A position detection method, wherein a shape obtained by approximating all edges registered as edge candidates by the least square method is selected as an edge of the predetermined transparent member.

実施の形態に係る、位置検出装置の構成の一例を示す図である。It is a figure which shows an example of a structure of the position detection apparatus based on embodiment. 実施の形態に係る、透明基板の撮像の配置状態および撮像される透明基板の画像の一例を示す図である。It is a figure which shows an example of the arrangement state of the imaging of a transparent substrate based on embodiment, and the image of the transparent substrate imaged. 実施の形態1に係る、ROIの設定の一例を示す図である。6 is a diagram illustrating an example of ROI setting according to Embodiment 1. FIG. 実施の形態1に係る、エッジ抽出部によって抽出されたエッジ画像の一例を示す図である。It is a figure which shows an example of the edge image extracted by the edge extraction part based on Embodiment 1. FIG. 実施の形態1に係る、円フィッティングの結果の一例を示す図である。It is a figure which shows an example of the result of a circle fitting based on Embodiment 1. FIG. 実施の形態1に係る、円フィッティングの結果に基づいたROIの内周円、外周円の一例を示す図である。It is a figure which shows an example of the inner periphery circle of ROI based on the result of circle fitting based on Embodiment 1, and an outer periphery circle. 実施の形態1に係る、最適エッジの一例を示す図である。6 is a diagram illustrating an example of an optimum edge according to Embodiment 1. FIG. 実施の形態1に係る、位置検出装置の処理の一例を示すフローチャートである。6 is a flowchart illustrating an example of processing of the position detection device according to the first embodiment. 実施の形態2に係る、ライン走査によって最適エッジを選択する方法の一例を説明する図である。FIG. 10 is a diagram for explaining an example of a method for selecting an optimum edge by line scanning according to the second embodiment. 実施の形態2に係る、最適エッジの一例を示す図である。FIG. 10 is a diagram illustrating an example of an optimum edge according to the second embodiment. 実施の形態2に係る、位置検出装置の処理の一例を示すフローチャートである。10 is a flowchart illustrating an example of processing of the position detection device according to the second embodiment.

符号の説明Explanation of symbols

1 位置検出装置、2 画像入力部、3 画像処理部、4 ディスプレイ、5 キーボード、6 カメラ、10 ROI設定部、11 エッジ抽出部、12 最適エッジ選択部、13 位置算出部、14 入出力制御部、15 制御部、101 CPU、102 メモリ。   DESCRIPTION OF SYMBOLS 1 Position detection apparatus, 2 Image input part, 3 Image processing part, 4 Display, 5 Keyboard, 6 Camera, 10 ROI setting part, 11 Edge extraction part, 12 Optimal edge selection part, 13 Position calculation part, 14 Input / output control part , 15 control unit, 101 CPU, 102 memory.

Claims (6)

面が互いに向き合うよう連なって配置された複数の透明部材に対し前記面の垂直方向から撮像した画像を取得する画像取得部と、
前記画像取得部によって取得された画像に撮像された前記複数の透明部材それぞれの輪郭を少なくとも含んだ領域を取得する領域取得部と、
前記領域取得部によって取得された領域内から、前記複数の透明部材のエッジを抽出するエッジ抽出部と、
前記エッジ抽出部によって抽出されたエッジから、前記複数の透明部材のうちの所定の透明部材のエッジを選択するエッジ選択部と、
前記エッジ選択部によって選択されたエッジに基づき、前記所定の透明部材の位置を算出する位置算出部と、
を備える位置検出装置。
An image acquisition unit for acquiring an image captured from a direction perpendicular to the surface with respect to a plurality of transparent members arranged so that the surfaces face each other;
An area acquisition unit for acquiring an area including at least the contours of each of the plurality of transparent members captured in the image acquired by the image acquisition unit;
An edge extraction unit that extracts edges of the plurality of transparent members from the region acquired by the region acquisition unit;
An edge selection unit that selects an edge of a predetermined transparent member among the plurality of transparent members from the edges extracted by the edge extraction unit;
A position calculating unit that calculates the position of the predetermined transparent member based on the edge selected by the edge selecting unit;
A position detection device comprising:
請求項1に記載の位置検出装置において、
前記エッジ選択部は、前記エッジ抽出部によって抽出されたエッジに基づき、基準となる形状を算出し、該形状に基づき前記領域取得部によって取得された領域の範囲をさらに絞り込むことで前記所定の透明部材のエッジを選択することを特徴とする位置検出装置。
The position detection device according to claim 1,
The edge selection unit calculates a reference shape based on the edge extracted by the edge extraction unit, and further narrows down the range of the region acquired by the region acquisition unit based on the shape, thereby the predetermined transparent A position detecting device for selecting an edge of a member.
請求項2に記載の位置検出装置において、
前記エッジ選択部は、前記エッジ抽出部によって抽出された全てのエッジを最小二乗法によって近似することで、前記基準となる形状を算出することを特徴とする位置検出装置。
The position detection device according to claim 2,
The position detection device, wherein the edge selection unit calculates the reference shape by approximating all edges extracted by the edge extraction unit by a least square method.
請求項1に記載の位置検出装置において、
前記所定の透明部材が撮像位置に対し最前の透明部材である場合、前記エッジ選択部は、前記画像の水平または垂直のラインを走査し、走査ラインと前記エッジ抽出部によって抽出されたエッジとの交点座標が最大値または最小値となるエッジを求め、該エッジを前記所定の透明部材のエッジとして選択することを特徴とする位置検出装置。
The position detection device according to claim 1,
When the predetermined transparent member is the frontmost transparent member with respect to the imaging position, the edge selection unit scans a horizontal or vertical line of the image, and a scan line and an edge extracted by the edge extraction unit are detected. A position detection apparatus characterized by obtaining an edge having an intersection point coordinate having a maximum value or a minimum value, and selecting the edge as an edge of the predetermined transparent member.
面が互いに向き合うよう連なって配置された複数の透明部材に対し前記面の垂直方向から撮像した画像を取得する画像取得ステップと、
前記画像取得ステップによって取得された画像に撮像された前記複数の透明部材それぞれの輪郭を少なくとも含んだ領域を取得する領域取得ステップと、
前記領域取得ステップによって取得された領域内から、前記複数の透明部材のエッジを抽出するエッジ抽出ステップと、
前記エッジ抽出ステップによって抽出されたエッジから、前記複数の透明部材のうちの所定の透明部材のエッジを選択するエッジ選択ステップと、
前記エッジ選択ステップによって選択されたエッジに基づき、前記所定の透明部材の位置を算出する位置算出ステップと、
をコンピュータに実行させる位置検出プログラム。
An image acquisition step of acquiring an image captured from a direction perpendicular to the surface with respect to a plurality of transparent members arranged so that the surfaces face each other;
An area acquisition step of acquiring an area including at least the outline of each of the plurality of transparent members captured in the image acquired by the image acquisition step;
An edge extraction step of extracting edges of the plurality of transparent members from within the region acquired by the region acquisition step;
An edge selection step of selecting an edge of a predetermined transparent member among the plurality of transparent members from the edges extracted by the edge extraction step;
A position calculating step for calculating a position of the predetermined transparent member based on the edge selected by the edge selecting step;
Position detection program that causes a computer to execute.
面が互いに向き合うよう連なって配置された複数の透明部材に対し前記面の垂直方向から撮像した画像を取得する画像取得ステップと、
前記画像取得ステップによって取得された画像に撮像された前記複数の透明部材それぞれの輪郭を少なくとも含んだ領域を取得する領域取得ステップと、
前記領域取得ステップによって取得された領域内から、前記複数の透明部材のエッジを抽出するエッジ抽出ステップと、
前記エッジ抽出ステップによって抽出されたエッジから、前記複数の透明部材のうちの所定の透明部材のエッジを選択するエッジ選択ステップと、
前記エッジ選択ステップによって選択されたエッジに基づき、前記所定の透明部材の位置を算出する位置算出ステップと、
を実行する位置検出方法。
An image acquisition step of acquiring an image captured from a direction perpendicular to the surface with respect to a plurality of transparent members arranged so that the surfaces face each other;
An area acquisition step of acquiring an area including at least the outline of each of the plurality of transparent members captured in the image acquired by the image acquisition step;
An edge extraction step of extracting edges of the plurality of transparent members from within the region acquired by the region acquisition step;
An edge selection step of selecting an edge of a predetermined transparent member among the plurality of transparent members from the edges extracted by the edge extraction step;
A position calculating step for calculating a position of the predetermined transparent member based on the edge selected by the edge selecting step;
Position detection method to execute.
JP2008122951A 2008-05-09 2008-05-09 Position detection apparatus, position detection program, and position detection method Expired - Fee Related JP5304016B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008122951A JP5304016B2 (en) 2008-05-09 2008-05-09 Position detection apparatus, position detection program, and position detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008122951A JP5304016B2 (en) 2008-05-09 2008-05-09 Position detection apparatus, position detection program, and position detection method

Publications (2)

Publication Number Publication Date
JP2009270984A true JP2009270984A (en) 2009-11-19
JP5304016B2 JP5304016B2 (en) 2013-10-02

Family

ID=41437666

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008122951A Expired - Fee Related JP5304016B2 (en) 2008-05-09 2008-05-09 Position detection apparatus, position detection program, and position detection method

Country Status (1)

Country Link
JP (1) JP5304016B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014052257A (en) * 2012-09-06 2014-03-20 Asahi Glass Co Ltd Device for measuring shape of disk-shaped substrate and method thereof
KR20140075042A (en) * 2012-12-07 2014-06-19 엘지디스플레이 주식회사 Apparatus for inspecting of display panel and method thereof
JP2017228634A (en) * 2016-06-22 2017-12-28 株式会社ディスコ Wafer detection method for detecting outer peripheral position of wafer and processing apparatus capable of detecting outer peripheral position of wafer

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63128733U (en) * 1987-02-16 1988-08-23
JPH07210654A (en) * 1994-01-19 1995-08-11 Matsushita Electric Ind Co Ltd Circular pattern measuring and position recognizing device
JPH07306009A (en) * 1994-05-10 1995-11-21 Casio Comput Co Ltd Method for matching position of transparent substrate
JPH0835813A (en) * 1994-07-21 1996-02-06 Olympus Optical Co Ltd Shape measuring method and apparatus
JPH10284576A (en) * 1997-04-07 1998-10-23 Mecs:Kk Wafer conveyer
JP2001091469A (en) * 1999-09-21 2001-04-06 Olympus Optical Co Ltd Surface defect inspection device
JP2004333177A (en) * 2003-04-30 2004-11-25 Ademakku:Kk Method and apparatus for discriminating object to be inspected

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63128733U (en) * 1987-02-16 1988-08-23
JPH07210654A (en) * 1994-01-19 1995-08-11 Matsushita Electric Ind Co Ltd Circular pattern measuring and position recognizing device
JPH07306009A (en) * 1994-05-10 1995-11-21 Casio Comput Co Ltd Method for matching position of transparent substrate
JPH0835813A (en) * 1994-07-21 1996-02-06 Olympus Optical Co Ltd Shape measuring method and apparatus
JPH10284576A (en) * 1997-04-07 1998-10-23 Mecs:Kk Wafer conveyer
JP2001091469A (en) * 1999-09-21 2001-04-06 Olympus Optical Co Ltd Surface defect inspection device
JP2004333177A (en) * 2003-04-30 2004-11-25 Ademakku:Kk Method and apparatus for discriminating object to be inspected

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014052257A (en) * 2012-09-06 2014-03-20 Asahi Glass Co Ltd Device for measuring shape of disk-shaped substrate and method thereof
CN103673919A (en) * 2012-09-06 2014-03-26 旭硝子株式会社 Shape measurement device of disk-like substrate, and method thereof
KR20140075042A (en) * 2012-12-07 2014-06-19 엘지디스플레이 주식회사 Apparatus for inspecting of display panel and method thereof
KR102009740B1 (en) 2012-12-07 2019-08-13 엘지디스플레이 주식회사 Apparatus for inspecting of display panel and method thereof
JP2017228634A (en) * 2016-06-22 2017-12-28 株式会社ディスコ Wafer detection method for detecting outer peripheral position of wafer and processing apparatus capable of detecting outer peripheral position of wafer

Also Published As

Publication number Publication date
JP5304016B2 (en) 2013-10-02

Similar Documents

Publication Publication Date Title
WO2021138995A1 (en) Fully automatic detection method for checkerboard corners
US20210281748A1 (en) Information processing apparatus
US20040207600A1 (en) System and method for transforming an ordinary computer monitor into a touch screen
JP4373840B2 (en) Moving object tracking method, moving object tracking program and recording medium thereof, and moving object tracking apparatus
WO2017067342A1 (en) Board card position detection method and apparatus
CN111292228B (en) Lens defect detection method
US20080123906A1 (en) Image Processing Apparatus And Method, Image Sensing Apparatus, And Program
JP2009259036A (en) Image processing device, image processing method, image processing program, recording medium, and image processing system
KR101195917B1 (en) Acquisition method of Tongue Diagnosis Region
US9094617B2 (en) Methods and systems for real-time image-capture feedback
US20080063271A1 (en) Character extracting apparatus, method, and program
JP5304016B2 (en) Position detection apparatus, position detection program, and position detection method
JP2005345290A (en) Streak-like flaw detecting method and streak-like flaw detector
JP2006098217A (en) Image inspection apparatus, image inspection method, and image inspection program
CN112285876A (en) Camera automatic focusing method based on image processing and bubble detection
JP2981382B2 (en) Pattern matching method
JP2005316958A (en) Red eye detection device, method, and program
US20060010582A1 (en) Chin detecting method, chin detecting system and chin detecting program for a chin of a human face
JP2019100937A (en) Defect inspection device and defect inspection method
US5682440A (en) Method of extracting pixels constituting intensity changes in an image and method of identifying collection of intensity changes
JP2007219899A (en) Personal identification device, personal identification method, and personal identification program
JP2007285868A (en) Luminance gradient detection method, flaw detection method, luminance gradient detector and flaw detector
TWI510776B (en) Bubble inspection processing method for glass
JP2006133055A (en) Unevenness defect detection method and device, spatial filter, unevenness defect inspection system, and program for unevenness defect detection method
JP4491922B2 (en) Surface defect inspection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120710

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130610

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees