JP5538179B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP5538179B2
JP5538179B2 JP2010238641A JP2010238641A JP5538179B2 JP 5538179 B2 JP5538179 B2 JP 5538179B2 JP 2010238641 A JP2010238641 A JP 2010238641A JP 2010238641 A JP2010238641 A JP 2010238641A JP 5538179 B2 JP5538179 B2 JP 5538179B2
Authority
JP
Japan
Prior art keywords
image
dimensional image
image processing
measurement area
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010238641A
Other languages
Japanese (ja)
Other versions
JP2012093118A (en
Inventor
眞輪 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Azbil Corp
Original Assignee
Azbil Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Azbil Corp filed Critical Azbil Corp
Priority to JP2010238641A priority Critical patent/JP5538179B2/en
Publication of JP2012093118A publication Critical patent/JP2012093118A/en
Application granted granted Critical
Publication of JP5538179B2 publication Critical patent/JP5538179B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は半導体ウエハなどの対象物を撮像し、得られた2次元画像から対象物の位置などを計測する画像処理装置や画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method for imaging an object such as a semiconductor wafer and measuring the position of the object from an obtained two-dimensional image.

半導体装置や液晶装置などの製造プロセスにおいては、ウエハやガラスなどの基板に複数のプロセス処理を施すために基板を半導体製造装置間にて移動させる。各半導体製造装置では、例えば、基板を所定の治具や処理位置に固定して、パターン露光、プラズマ処理、スパッタリング、CVD、エッチング処理などを行っている。このため、半導体製造装置では所要のプロセスにおいて搬送された基板が所定の位置、例えば前述の治具への取り付け位置や処理位置に正しく位置決めされるように監視し、必要により基板の停止位置や向きのずれを調整する機構を備えているものがある。この基板の位置の監視には、例えば、撮像装置と画像処理装置などが用いられている。   In a manufacturing process of a semiconductor device, a liquid crystal device, or the like, the substrate is moved between the semiconductor manufacturing devices in order to perform a plurality of processes on the substrate such as a wafer or glass. In each semiconductor manufacturing apparatus, for example, a substrate is fixed to a predetermined jig or processing position, and pattern exposure, plasma processing, sputtering, CVD, etching processing, or the like is performed. For this reason, the semiconductor manufacturing apparatus monitors the substrate transported in a required process so that it is correctly positioned at a predetermined position, for example, the mounting position or the processing position on the jig described above, and if necessary, the stop position or orientation of the substrate. Some have a mechanism for adjusting the deviation. For example, an imaging device and an image processing device are used for monitoring the position of the substrate.

例えば、特許文献1には、撮像カメラで搬送対象物としてのウエハを観察し、画像処理によってウエハの位置ずれを計測する画像処理装置が提案されている。また、特許文献2には、ウエハ外周の切り欠き(ノッチ)部を含む3箇所の外周の計測点を2次元画像処理装置により観察してウエハの2次元的な位置やウエハの回転位置を計測してウエハの位置ずれを修正可能としている。   For example, Patent Document 1 proposes an image processing apparatus that observes a wafer as an object to be transferred with an imaging camera and measures the positional deviation of the wafer by image processing. In Patent Document 2, the two-dimensional image processing apparatus is used to observe three outer peripheral measurement points including notches on the outer periphery of the wafer to measure the two-dimensional position of the wafer and the rotational position of the wafer. Thus, the positional deviation of the wafer can be corrected.

特開2009−88184号公報JP 2009-88184 A 特開平9−186061号公報Japanese Patent Laid-Open No. 9-186061

上述したように、半導体製造装置などには搬送対象物としての基板(ウエハ)の位置を計測するために所定の位置に撮像装置(カメラ)が設けられている。画像処理装置は、例えば、撮像装置の視野内に入った対象物の画像の一部を切り出し、当該画像に含まれる対象物の輪郭または対象物の位置・形状を特定可能な計測点、即ちマークを抽出し、これに基づいて基準位置とのずれなどを計測する。画像処理装置が撮影画像全体ではなく、その一部の領域(計測領域)を処理対象とするのは、データ処理量を減らして計測時間の短縮を図ること、画像上のノイズの取り込みを減らして、ノイズによる誤計測を回避することなどの理由による。このため、画像処理において予め撮影画像内に計測領域が設定される。   As described above, an imaging device (camera) is provided at a predetermined position in a semiconductor manufacturing apparatus or the like in order to measure the position of a substrate (wafer) as a transfer object. For example, the image processing apparatus cuts out a part of the image of the target object that falls within the field of view of the imaging apparatus and can measure the contour of the target object or the position / shape of the target object included in the image, that is, the mark And the deviation from the reference position is measured based on this. The reason why the image processing device does not process the entire captured image but a part of it (measurement area) is to reduce the amount of data processing and shorten the measurement time, and to reduce noise on the image. This is due to reasons such as avoiding erroneous measurement due to noise. For this reason, a measurement region is set in advance in the captured image in image processing.

ところで、撮像装置(カメラ)を半導体製造装置などに設置する場合に組み立て上のわずかな誤差が生じ得る。それにより、対象物(基板)が所定の位置に正しく存在する場合であっても撮影画面上での対象物の画像が画面上に設定された計測領域内の予定位置からずれて映る場合が生じ得る。したがって、撮像装置を半導体製造装置などに設置した場合には、組み立て時の調整などにおいて、画像処理装置の撮像画面上に計測領域を適切に設定する作業が必要となる。   By the way, when an imaging device (camera) is installed in a semiconductor manufacturing device or the like, a slight error in assembly may occur. As a result, even when the object (board) is correctly located at a predetermined position, the image of the object on the shooting screen may appear to be shifted from the planned position within the measurement area set on the screen. obtain. Therefore, when the imaging apparatus is installed in a semiconductor manufacturing apparatus or the like, it is necessary to appropriately set a measurement region on the imaging screen of the image processing apparatus in adjustment during assembly.

しかしながら、この調整作業は画面上に表示されている画像の寸法を測るなどして行うために案外に面倒である。
例えば、撮像画面上のマーク等の画像処理対象物は、撮像装置の真下に搬送する際に設置誤差が生じる。画像処理対象物の設置誤差が生じる方向は通常予想できないため、全方向にずれることを想定すると、画像処理対象物の基準位置は計測領域の中心にあることが望ましい。
このため、画像処理装置の設定をする作業者は、撮像画面上で計測領域の端辺から画像処理対象物までの長さを測定し、画像処理対象物の各端辺と計測領域の各端辺との距離が均等になるよう、すなわち計測領域の中心に画像処理対象物がくるように、計測領域の位置を調整する。
However, this adjustment work is unexpectedly troublesome because it is performed by measuring the dimensions of the image displayed on the screen.
For example, an image processing object such as a mark on the imaging screen causes an installation error when it is transported directly below the imaging device. Since the direction in which the installation error of the image processing object occurs is usually unpredictable, it is desirable that the reference position of the image processing object is at the center of the measurement region, assuming that it is shifted in all directions.
For this reason, the operator who sets the image processing apparatus measures the length from the edge of the measurement area to the image processing object on the imaging screen, and each edge of the image processing object and each edge of the measurement area. The position of the measurement region is adjusted so that the distance from the side is equal, that is, the image processing target is at the center of the measurement region.

作業者は長さ測定と計測領域位置変更を繰り返して、計測領域の位置を追い込む作業が発生するため、案外に面倒である。さらに、画像処理対象物の形状が一般的なマークのように円や正方形等ならば、画像処理対象物の中心位置が容易にわかるため、比較的簡単になるが、半導体ウエハの一部視野、例えば円弧のような形状が画像処理対象物の場合、その中心位置が容易にわからないため、計測領域位置を決定するための長さ測定も煩雑になり、面倒である。   Since the operator repeats the length measurement and the measurement area position change to drive the position of the measurement area, it is unexpectedly troublesome. Furthermore, if the shape of the image processing object is a circle or a square like a general mark, the center position of the image processing object can be easily understood, which is relatively simple. For example, when an image processing target has a shape such as an arc, the center position is not easily known, and length measurement for determining the measurement region position becomes complicated and troublesome.

また、このような撮像装置の位置誤差に起因する撮影画面中の画像処理を行うべき計測領域の設定調整は、半導体製造装置のみならず、撮像装置と画像処理装置を使用する計測システムや搬送システムにおいても生じ得る。   Further, the setting adjustment of the measurement region to be subjected to the image processing in the shooting screen due to the position error of the image pickup apparatus is not limited to the semiconductor manufacturing apparatus, but the measurement system and the transport system using the image pickup apparatus and the image processing apparatus. Can also occur.

よって、本発明は画像処理装置における撮影画面中の計測範囲設定の調整を容易にすることを目的とする。   Therefore, an object of the present invention is to facilitate the adjustment of the measurement range setting in the shooting screen in the image processing apparatus.

本発明の画像処理装置の一態様は、カメラの視野内に搬送された対象物の少なくとも一端部を撮像して2次元画像を得る撮像手段と、上記2次元画像を画面に表示する表示手段と、得られた2次元画像から上記対象物の一端部の輪郭を表す輪郭線を抽出する形状抽出手段と、上記輪郭線上の複数の点の位置を抽出する点位置抽出手段と、上記複数の点から上記2次元画像上の対象物の搬送方向における上記輪郭線の位置を代表する代表点の位置を決定する代表位置決定手段と、上記2次元画像内に、上記搬送方向における縦幅n、上記搬送方向と交差する方向における横幅mの、上記一端部の輪郭を含む計測領域を設定する計測領域設定手段と、を備え、上記計測領域設定手段は、上記代表点の位置から上記搬送方向の正逆にそれぞれ(n/2)の縦幅を設定する、ことを特徴とする。
参考例の画像処理装置の一態様は、視野内に搬送された対象物を撮像して2次元画像を得る撮像手段と、上記2次元画像を画面に表示する表示手段と、得られた2次元画像から上記対象物の輪郭を表す輪郭線を抽出する形状抽出手段と、上記輪郭線上の複数の点の位置を抽出する点位置抽出手段と、上記複数の点から上記2次元画像上の対象物の搬送方向における上記輪郭線の位置を代表する代表点の位置を決定する代表位置決定手段と、少なくとも上記代表点の位置と上記2次元画像上の上記対象物の搬送方向において予め設定された計測幅とに基づいて上記輪郭線を含む計測領域を得られた上記2次元画像上に設定する計測領域設定手段と、を備える。
これ等の手段は、コンピュータによる制御プログラム、画像処理プログラムの実行によって実現されるものを含む。また、電気回路、装置などによって実現されるものも含む。
One aspect of the image processing apparatus of the present invention is an imaging means for obtaining a two-dimensional image by imaging at least one end of an object conveyed within the field of view of a camera, and a display means for displaying the two-dimensional image on a screen. Shape extracting means for extracting a contour line representing the contour of one end of the object from the obtained two-dimensional image, point position extracting means for extracting the positions of a plurality of points on the contour line, and the plurality of points. Representative position determining means for determining the position of a representative point representing the position of the contour line in the transport direction of the object on the two-dimensional image, and the vertical width n in the transport direction in the two-dimensional image, Measurement area setting means for setting a measurement area having a width m in the direction intersecting the conveyance direction and including the outline of the one end, and the measurement area setting means is configured to detect the normality of the conveyance direction from the position of the representative point. Conversely (n / 2) each Setting the vertical width, and wherein the.
An aspect of the image processing apparatus of the reference example includes an imaging unit that captures an object conveyed in a field of view to obtain a two-dimensional image, a display unit that displays the two-dimensional image on a screen, and the obtained two-dimensional Shape extracting means for extracting a contour line representing the contour of the object from the image, point position extracting means for extracting the positions of a plurality of points on the contour line, and the object on the two-dimensional image from the plurality of points Representative position determining means for determining the position of the representative point representing the position of the contour line in the transport direction, and at least the position of the representative point and the measurement set in advance in the transport direction of the object on the two-dimensional image Measurement area setting means for setting the measurement area including the contour line on the two-dimensional image obtained based on the width.
These means include those realized by execution of a control program and an image processing program by a computer. Moreover, what is implement | achieved by an electrical circuit, an apparatus, etc. is included.

かかる構成とすることによって、対象物の輪郭を読み取る撮像画像に最適な計測領域を自動的に設定することが可能となる。   By adopting such a configuration, it is possible to automatically set an optimum measurement region for a captured image for reading the contour of the object.

好ましくは、上記画面上の上記対象物の搬送方向と交差する方向における上記計測領域の幅は、上記画面における上記2次元画像の表示領域の大きさに対応して設定される。   Preferably, the width of the measurement area in a direction intersecting the conveyance direction of the object on the screen is set in accordance with the size of the display area of the two-dimensional image on the screen.

好ましくは、上記複数の点には上記2次元画像の座標系における上記輪郭線と上記視野の枠との交点が含まれる。   Preferably, the plurality of points include intersections of the contour line and the field frame in the coordinate system of the two-dimensional image.

好ましくは、上記複数の点には上記2次元画像の座標系における上記輪郭線の凸部又は凹部に位置する点が含まれる。   Preferably, the plurality of points include a point located at a convex portion or a concave portion of the contour line in the coordinate system of the two-dimensional image.

好ましくは、上記代表点の位置には、上記2次元画像の座標系における、上記複数の点の上記対象物の搬送方向における平均位置が含まれる。   Preferably, the position of the representative point includes an average position of the plurality of points in the transport direction of the object in the coordinate system of the two-dimensional image.

好ましくは、上記代表点の位置には、上記2次元画像の座標系における上記複数の点のうち上記対象物の搬送方向において最大離間距離となる2つの点の中間位置が含まれる。   Preferably, the position of the representative point includes an intermediate position between two points having a maximum separation distance in the conveyance direction of the object among the plurality of points in the coordinate system of the two-dimensional image.

好ましくは、上記計測領域設定手段は、更に上記対象物の搬送誤差分に基づいて上記輪郭線を含む計測領域を上記2次元画像上に設定する。   Preferably, the measurement region setting unit further sets a measurement region including the contour line on the two-dimensional image based on the conveyance error of the object.

また、参考例の画像処理装置の一態様は、視野内に搬送された対象物を撮像して2次元画像を得る撮像手段と、上記2次元画像を画面に表示する表示手段と、得られた上記2次元画像から上記対象物に表示されたマークを抽出する形状抽出手段と、上記マークの重心点の上記2次元画像の座標系における位置を抽出する重心位置抽出手段と、少なくとも上記重心の位置と上記2次元画像上の上記対象物の搬送方向において予め設定された計測幅とに基づいて上記重心点を含む計測領域を得られた画像上に設定する計測領域設定手段と、を備える。 In addition, an aspect of the image processing apparatus of the reference example is obtained by an imaging unit that captures an object conveyed in the field of view and obtains a two-dimensional image, and a display unit that displays the two-dimensional image on a screen. Shape extracting means for extracting the mark displayed on the object from the two-dimensional image, centroid position extracting means for extracting the position of the centroid of the mark in the coordinate system of the two-dimensional image, and at least the position of the centroid And a measurement area setting means for setting a measurement area including the barycentric point on the obtained image based on a measurement width set in advance in the conveyance direction of the object on the two-dimensional image.

かかる構成とすることによって、対象物の(アライメント)マークを読み取る最適な計測領域の設定を自動化することが可能となる。   By adopting such a configuration, it becomes possible to automate the setting of the optimum measurement region for reading the (alignment) mark of the object.

好ましくは、上記計測領域設定手段は、更に上記対象物の搬送誤差分に基づいて上記マークを含む計測領域を上記2次元画像上に設定する。   Preferably, the measurement area setting means further sets a measurement area including the mark on the two-dimensional image based on the conveyance error of the object.

また、本発明の画像処理方法の一態様は、カメラの視野内に搬送された対象物の少なくとも一端部を撮像して2次元画を得る撮像過程と、得られた2次元画像から上記対象物の一端部の輪郭を表す輪郭線を抽出する形状抽出過程と、上記輪郭線上の複数の点の位置を抽出する点位置抽出過程と、上記複数の点から上記2次元画像上の対象物の搬送方向における上記輪郭線の位置を代表する代表点の位置を決定する代表位置決定過程と、上記2次元画像内に、上記搬送方向における縦幅n、上記搬送方向と交差する方向における横幅mの、上記一端部の輪郭を含む計測領域を設定する計測領域設定過程と、を含み、上記計測領域設定過程は、上記代表点の位置から上記搬送方向の正逆にそれぞれ(n/2)の縦幅を設定する
また、参考例の画像処理方法の一態様は、視野内に搬送された対象物を撮像して2次元画像を得る撮像過程と、上記2次元画像を画面に表示する表示過程と、得られた2次元画像から上記対象物の輪郭を表す輪郭線を抽出する形状抽出過程と、上記輪郭線上の複数の点の位置を抽出する点位置抽出過程と、上記複数の点から上記2次元画像上の対象物の搬送方向における上記輪郭線の位置を代表する代表点の位置を決定する代表位置決定過程と、少なくとも上記代表点の位置と上記2次元画像上の上記対象物の搬送方向において予め設定された計測幅とに基づいて上記輪郭線を含む計測領域を得られた上記2次元画像上に設定する計測領域設定過程と、を備える。
According to another aspect of the image processing method of the present invention, there is provided an imaging process for obtaining a two-dimensional image by imaging at least one end of an object conveyed in the field of view of the camera, and the object from the obtained two-dimensional image. A shape extraction process for extracting a contour line representing the contour of one end of the image, a point position extraction process for extracting the positions of a plurality of points on the contour line, and transport of an object on the two-dimensional image from the plurality of points A representative position determination process for determining the position of a representative point representing the position of the contour line in the direction, and a vertical width n in the transport direction and a horizontal width m in the direction intersecting the transport direction in the two-dimensional image, A measurement area setting process for setting a measurement area including the outline of the one end, and the measurement area setting process has a vertical width of (n / 2) from the position of the representative point in the forward and reverse directions of the transport direction. Set .
In addition, one aspect of the image processing method of the reference example was obtained as an imaging process for capturing a two-dimensional image by capturing an object conveyed in the field of view, and a display process for displaying the two-dimensional image on the screen. A shape extracting process for extracting a contour line representing the contour of the object from a two-dimensional image, a point position extracting process for extracting the positions of a plurality of points on the contour line, and a plurality of points on the two-dimensional image from the plurality of points. A representative position determination process for determining the position of a representative point representing the position of the contour line in the conveyance direction of the object, and at least the position of the representative point and the conveyance direction of the object on the two-dimensional image are set in advance. A measurement region setting step of setting the measurement region including the contour line on the obtained two-dimensional image based on the measured width.

かかる構成とすることによって、対象物の輪郭を読み取る撮像画像に最適な計測領域を自動的に設定することが可能となる。   By adopting such a configuration, it is possible to automatically set an optimum measurement region for a captured image for reading the contour of the object.

また、参考例の画像処理方法の一態様は、視野内に搬送された対象物を撮像して2次元画像を得る撮像過程と、上記2次元画像を画面に表示する表示過程と、得られた上記2次元画像から上記対象物に表示されたマークを抽出する形状抽出過程と、上記マークの重心点の上記2次元画像の座標系における位置を抽出する重心位置抽出過程と、少なくとも上記重心の位置と上記2次元画像上の上記対象物の搬送方向において予め設定された計測幅とに基づいて上記重心点を含む計測領域を得られた画像上に設定する計測領域設定過程と、を備える。 In addition, one aspect of the image processing method of the reference example was obtained as an imaging process for capturing a two-dimensional image by capturing an object conveyed in the field of view, and a display process for displaying the two-dimensional image on the screen. A shape extracting process for extracting the mark displayed on the object from the two-dimensional image, a centroid position extracting process for extracting a position of the centroid point of the mark in the coordinate system of the two-dimensional image, and at least the position of the centroid And a measurement area setting step for setting a measurement area including the barycentric point on the obtained image based on a measurement width preset in the conveyance direction of the object on the two-dimensional image.

かかる構成とすることによって、対象物の(アライメント)マークを読み取る最適な計測領域の設定を自動化することが可能となる。   By adopting such a configuration, it becomes possible to automate the setting of the optimum measurement region for reading the (alignment) mark of the object.

また、本発明の半導体製造装置の一態様は、上述した画像処理装置を備えることを特徴とする。   According to another aspect of the present invention, there is provided a semiconductor manufacturing apparatus including the above-described image processing apparatus.

本発明によれば、画像処理装置における計測対象となる範囲の設定が画像処理装置によって可及的に最適な範囲に自動的に設定されるので作業員の負担が減少して好ましい。   According to the present invention, the setting of the range to be measured in the image processing apparatus is automatically set to the optimum range as much as possible by the image processing apparatus.

撮像カメラ、画像処理装置を備える半導体製造装置の例を説明する説明図である。It is explanatory drawing explaining the example of a semiconductor manufacturing apparatus provided with an imaging camera and an image processing apparatus. 画像処理装置の構成例を説明するブロック図である。FIG. 2 is a block diagram illustrating a configuration example of an image processing apparatus. 本発明のキャプチャ画像に計測領域を設定する手順を説明するフローチャートである。It is a flowchart explaining the procedure which sets a measurement area | region to the capture image of this invention. 対象上に設定された撮像カメラの視野の例を説明する説明図である。It is explanatory drawing explaining the example of the visual field of the imaging camera set on the object. 撮像カメラの位置が対象物(ウエハ)に対して縦方向にずれた場合のキャプチャ画像を説明する説明図である。It is explanatory drawing explaining the captured image when the position of an imaging camera has shifted | deviated to the vertical direction with respect to the target object (wafer). キャプチャ画像を画面に表示した例を説明する説明図である。It is explanatory drawing explaining the example which displayed the captured image on the screen. キャプチャ画像に最適な計測範囲を設定して例を説明する説明図である。It is explanatory drawing explaining the example by setting the measurement range optimal for a captured image. キャプチャ画像内に計測領域を設定する例を説明する説明図である。It is explanatory drawing explaining the example which sets a measurement area | region within a capture image. 計測領域のP0の座標を決定する例を説明する説明図である。It is an explanatory view for explaining an example of determining the coordinates of P 0 of the measurement area. カメラ位置が対象物に対して近い位置にある場合のキャプチャ画像例を説明する説明図である。It is explanatory drawing explaining the example of a captured image in case a camera position exists in the position close | similar to a target object. カメラ位置が対象物に対して遠い位置にある場合のキャプチャ画像例を説明する説明図である。It is explanatory drawing explaining the example of a captured image in case a camera position exists in a position far from a target object. ウエハ上のアライメントマークのキャプチャ画像Aを説明する説明図である。It is explanatory drawing explaining the capture image A of the alignment mark on a wafer. アライメントマークに計測領域を設定する場合の手順を説明するフローチャートである。It is a flowchart explaining the procedure in the case of setting a measurement area | region to an alignment mark.

以下、図面を参照しつつ、発明の実施形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲に係る発明を限定するものではなく、また、実施形態の中で説明されている特徴の組み合わせのすべてが発明の解決手段に必須であるとは限らない。なお、以下の実施形態では、本発明の画像処理装置を半導体製造装置に適用したものを例に説明するが、本発明の画像処装置が適用されるものはこれに限られず、例えば、ワーク搬送装置等にも使用できる。   Hereinafter, the present invention will be described through embodiments of the invention with reference to the drawings. However, the following embodiments do not limit the invention according to the claims, and are described in the embodiments. Not all combinations of features are essential to the solution of the invention. In the following embodiments, an example in which the image processing apparatus of the present invention is applied to a semiconductor manufacturing apparatus will be described as an example. However, the application of the image processing apparatus of the present invention is not limited to this, for example, workpiece transfer It can also be used for devices.

(実施例1)
以下の発明の実施の形態においては、説明の便宜上、まず、本発明の画像処理措置を用いた半導体装置の概要を説明し、その後に画像処理措置の構成と画像処理装置における計測領域の設定について説明する。
Example 1
In the following embodiments of the invention, for convenience of explanation, first, an outline of a semiconductor device using the image processing measure of the present invention will be described, and then the configuration of the image processing measure and setting of a measurement region in the image processing device will be described. explain.

(半導体処理装置)
図1は、本発明の実施形態による画像処理装置及びこれを利用した半導体製造装置の構成を概略的に示す図である。同図に示すように、画像処理装置1は、枚葉式搬送の半導体製造装置において、ウエハ3の中心位置及びオリフラ部やノッチ部を基準としたウエハ3の回転位置(回転角)を計測する。この半導体製造装置は、トランスファチャンバ(搬送用真空チャンバ)4、プロセスチャンバ(処理チャンバ)5、ロード・アンロード装置6及び制御装置8を備える。
(Semiconductor processing equipment)
FIG. 1 is a diagram schematically showing the configuration of an image processing apparatus and a semiconductor manufacturing apparatus using the same according to an embodiment of the present invention. As shown in FIG. 1, the image processing apparatus 1 measures the center position of the wafer 3 and the rotation position (rotation angle) of the wafer 3 with reference to the orientation flat part or the notch part in a single wafer transfer semiconductor manufacturing apparatus. . The semiconductor manufacturing apparatus includes a transfer chamber (transfer vacuum chamber) 4, a process chamber (processing chamber) 5, a load / unload device 6, and a control device 8.

トランスファチャンバ4には、ウエハ3搬送用のロボットアーム(搬送機構)9が内部に設けられており、ロボットアーム9を用いてプロセスチャンバ5へのウエハ3の出し入れ、ロード・アンロード装置6との間でのウエハ3の受け渡しが行われる。プロセスチャンバ5は複数も受けられるがここでは一つのみを示している。また、トランスファチャンバ4の上部及び下部には、カメラが内部を除くためのビューポート(図示せず)が設けられている。   The transfer chamber 4 is provided with a robot arm (transfer mechanism) 9 for transferring the wafer 3, and the robot arm 9 is used to load / unload the wafer 3 into / from the process chamber 5 and load / unload apparatus 6. The wafer 3 is transferred between them. Although a plurality of process chambers 5 can be received, only one is shown here. In addition, a view port (not shown) for removing the inside of the camera is provided at the upper and lower portions of the transfer chamber 4.

図1の例では、トランスファチャンバ4の上部に設けたビューポートを介したトランスファチャンバ4の外側に撮像カメラ2が取り付けられる。また、トランスファチャンバ4の下部に設けたビューポートを介したトランスファチャンバ4の外側には、図2で後述する透過照明が取り付けられる。この透過照明は、撮像カメラ2の視野A内に位置するウエハ3の外周の一部を、下部のビューポートを介して真下から照らすことができる。これにより、撮像カメラ2は、真下から透過照明で照らされたウエハ3の外周の一部を、上部のビューポートを介して真上から撮像可能である。   In the example of FIG. 1, the imaging camera 2 is attached to the outside of the transfer chamber 4 via a view port provided at the top of the transfer chamber 4. In addition, transmitted illumination, which will be described later with reference to FIG. 2, is attached to the outside of the transfer chamber 4 through a view port provided in the lower part of the transfer chamber 4. This transmitted illumination can illuminate a part of the outer periphery of the wafer 3 located in the visual field A of the imaging camera 2 from directly below through the lower viewport. Thereby, the imaging camera 2 can capture an image of a part of the outer periphery of the wafer 3 illuminated with transmission illumination from directly below from above, via the upper viewport.

なお、図1では、説明の簡単のために、トランスファチャンバ4において、撮像カメラ2と透過照明をプロセスチャンバ5に対応して1つ設けた場合を示しているが、撮像カメラは、図示しない複数のプロセスチャンバ5、ロード・アンロード装置6等に対応して複数設けられる。   For the sake of simplicity, FIG. 1 shows a case where the transfer chamber 4 is provided with one imaging camera 2 and one transmitted illumination corresponding to the process chamber 5, but there are a plurality of imaging cameras not shown. A plurality of process chambers 5 and load / unload apparatuses 6 are provided.

プロセスチャンバ5は、スパッタ、PVD(Physical Vapor Deposition)、エッチャ、CVD等の真空処理の種類ごとに設けられ、トランスファチャンバ4から搬入したウエハ3に対して真空処理が実行される。また、プロセスチャンバ5には、外乱光を避ける等の理由からビューポートは設けられていない。なお、トランスファチャンバ4及びプロセスチャンバ5は、不図示の排気系によって内部が真空状態となっている。
ロード・アンロード装置6は、真空状態のトランスファチャンバ4と外部の間でウエハ3の出し入れを行う。
The process chamber 5 is provided for each type of vacuum processing such as sputtering, PVD (Physical Vapor Deposition), etcher, and CVD, and the vacuum processing is performed on the wafer 3 carried in from the transfer chamber 4. The process chamber 5 is not provided with a view port for the reason of avoiding ambient light. The transfer chamber 4 and the process chamber 5 are in a vacuum state by an exhaust system (not shown).
The load / unload device 6 loads and unloads the wafer 3 between the vacuum transfer chamber 4 and the outside.

制御装置8は、ウエハ搬送用のロボットアーム(搬送機構)9を制御してプロセスチャンバ5へのウエハ3の出し入れ、ロード・アンロード装置6との間でのウエハ3の受け渡し等を行っている。   The control device 8 controls a robot arm (transfer mechanism) 9 for transferring wafers to load / unload the wafers 3 into / from the process chamber 5 and transfer the wafers 3 to / from the load / unload device 6. .

(画像処理装置)
図2は、図1中の画像処理装置1の構成を示すブロック図である。同図において、画像処理装置1は、信号変換部102、撮像画像記憶部104、表示画像記憶部106、信号変換部108、入力インタフェース110、データベース部112、通信制御部114、ROM部116、メインメモリ部118、CPU部120、表示部130、入力部140などによって構成されている。
(Image processing device)
FIG. 2 is a block diagram showing the configuration of the image processing apparatus 1 in FIG. In the figure, the image processing apparatus 1 includes a signal conversion unit 102, a captured image storage unit 104, a display image storage unit 106, a signal conversion unit 108, an input interface 110, a database unit 112, a communication control unit 114, a ROM unit 116, a main unit. The memory unit 118, the CPU unit 120, the display unit 130, the input unit 140, and the like are included.

図2に示すように、チャンバに設けられた図示しないビューポート(のぞき窓)を介してウエハ3の下方から照明光源42によって撮影用の照明がなされる。この照明によってウエハの輪郭が明瞭になる。撮像カメラ2はウエハのエッジ部に視野Aを設定している。この撮像カメラ2の視野Aに関する設定は後述する。撮像カメラ2はCCDアレイなどの2次元センサを備えており、ウエハの画像を画像信号として信号変換部102に送る。信号変換部12は画像信号をウエハ画像の各画素のデータに変換して撮像画像記憶部104に送る。撮像画像記憶部104は画像データを一時的に記憶するメモリである。なお、信号変換器102及び撮像画像記憶部部104は撮像カメラ2側に設けることができる。撮像画像記憶部104の画像データはメインメモリ部118に送られてCPUによる画像処理が行われ、ウエハのエッジの位置、傾きなどの制御装置8により必要とされる制御パラメータが抽出される。   As shown in FIG. 2, the illumination light source 42 illuminates for photographing from below the wafer 3 through a view port (view window) (not shown) provided in the chamber. This illumination makes the outline of the wafer clear. The imaging camera 2 sets a visual field A at the edge portion of the wafer. Settings regarding the field of view A of the imaging camera 2 will be described later. The imaging camera 2 includes a two-dimensional sensor such as a CCD array, and sends an image of the wafer to the signal conversion unit 102 as an image signal. The signal conversion unit 12 converts the image signal into data of each pixel of the wafer image and sends it to the captured image storage unit 104. The captured image storage unit 104 is a memory that temporarily stores image data. The signal converter 102 and the captured image storage unit 104 can be provided on the imaging camera 2 side. The image data in the captured image storage unit 104 is sent to the main memory unit 118 and subjected to image processing by the CPU, and control parameters required by the control device 8 such as the position and inclination of the wafer edge are extracted.

表示画像記憶部106は、メインメモリ部118から出力された表示部130に表示すべき画像データを一時的に記憶するメモリである。信号変換部108はこの画像データを画像信号に変換して表示部130に出力する。表示部130は、例えば、2次元画像を表示するLCD(液晶)表示器であるが、プラズマディスプレイやCRT表示器であっても良く、いわゆるタッチパネル等を画面上に備えるものがより望ましい。なお、表示画像記憶部106及び信号変換部108は表示部130側に設けることができる。   The display image storage unit 106 is a memory that temporarily stores image data to be displayed on the display unit 130 output from the main memory unit 118. The signal conversion unit 108 converts the image data into an image signal and outputs the image signal to the display unit 130. The display unit 130 is, for example, an LCD (liquid crystal) display that displays a two-dimensional image, but may be a plasma display or a CRT display, and more preferably has a so-called touch panel on the screen. The display image storage unit 106 and the signal conversion unit 108 can be provided on the display unit 130 side.

表示部130の近くに入力部140が配置されている。入力部140は指令コードを入力するキーボード(コード入力装置)、画面上に表示されるポインタの位置と画面上の表示情報(アイコンなど)との組み合わせによって所定の指令を入力するマウス(画面入力装置)、画面上の座標を入力するタッチパネル、電源スイッチなどを備える。   An input unit 140 is disposed near the display unit 130. The input unit 140 is a keyboard (code input device) for inputting a command code, and a mouse (screen input device) for inputting a predetermined command by a combination of the position of a pointer displayed on the screen and display information (such as an icon) on the screen. ), A touch panel for inputting coordinates on the screen, a power switch, and the like.

インタフェース110は、入力部140からの操作指令信号を各種の指令や入力データなどに変換して図示しない入出力処理プログラムに伝える。   The interface 110 converts an operation command signal from the input unit 140 into various commands, input data, and the like and transmits the command to an input / output processing program (not shown).

データベース部112は、ウエハなどのカメラ計測の対象となる対象物の形状、輪郭形状、中心位置、形状(輪郭)を示す近似式、アライメントマークの形状、形状認識の特徴点の位置、各種マークの重心位置などのデータを予めデータベースとして記憶している。また、各種の対象物に対応した画像処理プログラム、サブルーチンプログラムなどを記憶している。半導体製造装置が取り扱う、ウエハや基板は予め全体形状や寸法、マーカーの位置、アライメントマークの形状など(設計情報)が予め判っている。   The database unit 112 includes the shape, contour shape, center position, approximate expression indicating the shape (contour), the shape of the alignment mark, the position of the feature point for shape recognition, Data such as the position of the center of gravity is stored in advance as a database. In addition, an image processing program and a subroutine program corresponding to various objects are stored. Wafers and substrates handled by semiconductor manufacturing apparatuses are known in advance in terms of overall shape and dimensions, marker positions, alignment mark shapes, etc. (design information).

通信制御部114は、画像処理装置1と外部の装置である制御装置8やその他ネットワークに接続された装置(例えば、図示しないプロセス制御装置、サーバー装置、ネットワーク記憶装置など)との間のデータ通信を行う。ROM部116は画像処理装置の動作に必要な基本的なプログラムなどを継続的に保持する。   The communication control unit 114 performs data communication between the image processing device 1 and the control device 8 that is an external device or other devices (for example, a process control device, a server device, a network storage device, etc., not shown) connected to the network. I do. The ROM unit 116 continuously holds basic programs necessary for the operation of the image processing apparatus.

メインメモリ部118は、CPUのオペレーティングシステム、画像処理制御プログラム、位置ずれ検出プログラム、画像データなどを記憶し、随時更新する。CPU部120はコンピューターシステムの演算処理部であり、プログラムを実行して撮像した対象物の画像処理を行って所定の出力を行う。CPU部120は同時並行的に複数のプログラムを実行することができる。図示の例では、撮像カメラ2が1台であるが、複数の場所に設けられた各カメラの画像データを処理することができる。その結果は制御装置8などに送られ、ロボットアーム9の停止位置の制御などに使用される。   The main memory unit 118 stores a CPU operating system, an image processing control program, a misregistration detection program, image data, and the like, and updates them as needed. The CPU unit 120 is an arithmetic processing unit of the computer system, and executes a program to perform image processing of a captured object and perform a predetermined output. The CPU unit 120 can execute a plurality of programs concurrently. In the illustrated example, there is one imaging camera 2, but image data of each camera provided at a plurality of locations can be processed. The result is sent to the control device 8 or the like and used for controlling the stop position of the robot arm 9 or the like.

(キャプチャ画像への計測領域設定)
図3は、画像処理装置1において、CPU部120が実行する画像処理のうちキャプチャ画像に計測領域を設定する処理を説明するフローチャートである。
前述したように、半導体製造装置に撮像カメラ2が組み立てられた後などに、撮像カメラ2の視野内に計測領域を設定する。前述したように、カメラ画像の一部を画像処理の対象とすることによって計測時間を短縮することができる。また、対象領域を狭く設定することによって領域内に存在する画像のノイズを減らして誤測定を減らすことができる。
(Measurement area setting for captured images)
FIG. 3 is a flowchart for describing processing for setting a measurement region in a captured image among image processing executed by the CPU unit 120 in the image processing apparatus 1.
As described above, a measurement region is set in the field of view of the imaging camera 2 after the imaging camera 2 is assembled in the semiconductor manufacturing apparatus. As described above, the measurement time can be shortened by setting a part of the camera image as an object of image processing. Further, by setting the target region to be narrow, it is possible to reduce noise in the image existing in the region and reduce erroneous measurement.

図3に示すように、制御プログラムを実行しているCPUは、待機状態や割り込み処理などにおいてキャプチャ画像に計測領域を設定するプログラムの実行の指令を受けると本ルーチンを実行する(ステップS100)。   As shown in FIG. 3, the CPU executing the control program executes this routine when receiving a command to execute the program for setting the measurement area in the captured image in a standby state or an interrupt process (step S100).

(1−1) 画像キャプチャ
このプロセスでは、視野内に搬送された対象物を撮像して2次元画像を得る撮像過程と、2次元画像を画面に表示する表示過程とが行われる(ステップS110)。
まず、ロボットアーム9によって撮像カメラ2の視野A内に搬送されたウエハ3の画像が撮像カメラ2によってキャプチャ(撮像)され、信号変換部102、撮像画像記憶部104を介してメインメモリ部118内にビットマップ画像として取り込まれる。取り込まれた画像は、表示画像記憶部106、信号変換部108を介して表示部130に送られ、キャプチャ画像(モニタ画像)が表示される。なお、必ずしも表示部130はキャプチャ画像そのものを表示する必要はなく、例えば本実施例において後述する処理を行った結果得られる計測領域のみを表示してもよく、また、必要な時以外何らの表示を行わないようにするなど、適宜変更可能であることは言うまでもない。
(1-1) Image Capture In this process, an imaging process for capturing a two-dimensional image by capturing an object conveyed in the field of view and a display process for displaying the two-dimensional image on the screen are performed (step S110). .
First, an image of the wafer 3 transferred into the field of view A of the imaging camera 2 by the robot arm 9 is captured (imaged) by the imaging camera 2 and is stored in the main memory unit 118 via the signal conversion unit 102 and the captured image storage unit 104. As a bitmap image. The captured image is sent to the display unit 130 via the display image storage unit 106 and the signal conversion unit 108, and a captured image (monitor image) is displayed. Note that the display unit 130 does not necessarily display the captured image itself. For example, the display unit 130 may display only the measurement region obtained as a result of performing the processing described later in the present embodiment. Needless to say, it can be changed as appropriate.

図4は、ウエハ3上に設定される撮像カメラ2の2つの視野A,Bの例を示している。画像のビットマップのX,Y座標上にウエハ3の中心O(a,b)が存在し、中心Oを通直線を領域内に含むように視野A,Bが設定される。視野A’は撮像カメラ2の視野Aの設定がずれた場合を示している。   FIG. 4 shows an example of two fields of view A and B of the imaging camera 2 set on the wafer 3. The center O (a, b) of the wafer 3 exists on the X and Y coordinates of the image bitmap, and the visual fields A and B are set so that the center O includes a straight line in the region. A field of view A ′ indicates a case where the setting of the field of view A of the imaging camera 2 is shifted.

図5(A)は、撮像カメラ2の視野Aの位置がウエハ3に対してずれていない場合のモニタ画面の画像例を示している。同図(B)は、撮像カメラ2の視野Aの位置がウエハ3に対してY軸方向にずれている場合A’(図4参照)の画像例を示している。ウエハ3が相対的にモニタ画面の上方向(Y方向)に移動している。   FIG. 5A shows an image example of the monitor screen when the position of the field of view A of the imaging camera 2 is not shifted from the wafer 3. FIG. 4B shows an example of an image A ′ (see FIG. 4) when the position of the visual field A of the imaging camera 2 is shifted in the Y-axis direction with respect to the wafer 3. The wafer 3 is relatively moved upward (Y direction) on the monitor screen.

図6は、表示部130の画面に表示されたキャプチャ画像の例を示している。画面の左側領域及び中央領域は予め選択された撮像カメラ2の視野A内に入ったウエハ3のキャプチャ画像(以後、キャプチャ画像Aともいう。)を表示している。画面の右側領域では選択された撮像カメラの画像処理用のパラメータを表示するパラメータ表示領域132が撮像カメラ2の台数分設けられている。このキャプチャ画像A全体を計測の対象領域とするとデータ処理に時間がかかる。そこで、後述の図7のようにキャプチャ画像Aの一部に最適な計測領域Qを設定し、当該領域の画像データを使用して計測を行うようにするのが本プロセスの目的である。   FIG. 6 shows an example of a captured image displayed on the screen of the display unit 130. The left area and the center area of the screen display a capture image (hereinafter also referred to as capture image A) of the wafer 3 that enters the field of view A of the imaging camera 2 selected in advance. In the right area of the screen, parameter display areas 132 for displaying the parameters for image processing of the selected imaging camera are provided for the number of imaging cameras 2. If the entire captured image A is set as a measurement target area, data processing takes time. Therefore, the purpose of this process is to set an optimal measurement region Q for a part of the captured image A as shown in FIG. 7 described later and perform measurement using image data in the region.

(1−2) 対象物の輪郭計算
このプロセスでは、得られた2次元画像から対象物の輪郭を表す輪郭線を抽出する形状抽出過程が行われる(ステップS112)。
計測対象物の輪郭を表す式(近似式)を求める。図4に示したように、対象物がウエハ3の場合には形状が円形である。ウエハ3のビットマップ画像から輪郭線を抽出する輪郭処理を行い、輪郭線の線を構成する任意の点の座標を求め、真円の式(=(x−a)2+(y−b)2=r2)で近似して、ウエハ3の輪郭を表す(円の)方程式Rを求める。
(1-2) Contour Calculation of Object In this process, a shape extraction process for extracting a contour line representing the contour of the object from the obtained two-dimensional image is performed (step S112).
An expression (approximate expression) representing the contour of the measurement object is obtained. As shown in FIG. 4, when the object is a wafer 3, the shape is circular. Contour processing for extracting a contour line from the bitmap image of the wafer 3 is performed, coordinates of arbitrary points constituting the contour line are obtained, and a true circle formula (= (x−a) 2 + (y−b) 2 = r 2 ) to obtain an equation R (circular) representing the contour of the wafer 3.

(1−3) 最適な計測領域の設定
このプロセスでは、輪郭線上の複数の点の位置を抽出する点位置抽出過程と、複数の点から2次元画像上の対象物の搬送方向における輪郭線の位置を代表する代表点の位置を決定する代表位置決定過程と、少なくとも代表点の位置と2次元画像上の対象物の搬送方向において予め設定された計測幅とに基づいて輪郭線を含む計測領域を得られた2次元画像上に設定する計測領域設定過程と、が行われる(ステップS114)。
(1-3) Optimal measurement region setting In this process, a point position extraction process for extracting the positions of a plurality of points on the contour line, and the contour line in the conveyance direction of the object on the two-dimensional image from the plurality of points. A measurement area including a contour line based on a representative position determination process for determining a position of a representative point representing the position, and at least a position of the representative point and a measurement width preset in the conveyance direction of the object on the two-dimensional image A measurement area setting process for setting the obtained image on the obtained two-dimensional image is performed (step S114).

図8に示すように、キャプチャ画像A内に横幅(横画素数)m×縦幅(縦画素数)nで画定される四角形の計測領域Qを設定する。計測領域QのX方向の横幅mは、例えば、測定精度向上のためにキャプチャ画像Aの領域の横幅値とする。計測領域QのY方向の縦幅nは、例えば、計測時間の短縮などのため、なるべく小さい方が望ましい。縦幅nの最小値は、対象物(ウエハ)のY方向における搬送精度を考慮して定める。対象物の位置にばらつきがあったとしても、対象物の輪郭線(近似円)Rが縦幅n内に収まるようにする。計測領域Qは、例えば、四角形の領域の左上の角部P0の座標位置と、横幅m,縦幅nで表すことができる。 As shown in FIG. 8, a rectangular measurement region Q defined by a horizontal width (the number of horizontal pixels) m × a vertical width (the number of vertical pixels) n is set in the captured image A. The horizontal width m in the X direction of the measurement area Q is, for example, the horizontal width value of the area of the captured image A in order to improve measurement accuracy. The vertical width n in the Y direction of the measurement region Q is preferably as small as possible for shortening the measurement time, for example. The minimum value of the vertical width n is determined in consideration of the conveyance accuracy in the Y direction of the object (wafer). Even if there is variation in the position of the object, the contour line (approximate circle) R of the object is set within the vertical width n. The measurement area Q can be represented by, for example, the coordinate position of the upper left corner P 0 of the quadrangular area, the horizontal width m, and the vertical width n.

次に、角部P0の座標位置P0(x,y)を求める。図9に示すように、視野A内で輪郭線R上の3つの点P1,P2,P3の座標を求める。点P1は、計測領域QのX方向左端の直線と近似円Rとの交点の座標(a1,b1)に設定する。点P2は、計測領域のX方向右端の直線と近似円Rとの交点の座標(a2,b2)に設定する。点P3は、近似円Rの中心Oの座標を(a,b)としたとき(図4参照)、直線X=aと近似円Rとの交点P3の座標(a3,b3)に設定する。点P3は輪郭線の凸部又は凹部に相当する。 Next, the coordinate position P 0 (x, y) of the corner portion P 0 is obtained. As shown in FIG. 9, the coordinates of three points P 1 , P 2 , P 3 on the contour line R in the field of view A are obtained. The point P 1 is set to the coordinates (a 1 , b 1 ) of the intersection of the straight line at the left end in the X direction of the measurement region Q and the approximate circle R. The point P 2 is set to the coordinates (a 2 , b 2 ) of the intersection of the straight line at the right end in the X direction of the measurement region and the approximate circle R. The point P 3 has coordinates (a 3 , b 3 ) of the intersection point P 3 between the straight line X = a and the approximate circle R when the coordinates of the center O of the approximate circle R are (a, b) (see FIG. 4). Set to. Point P 3 corresponds to a convex portion or a concave portion of the contour line.

この場合、計測領域の左上の座標P0のX位置はa1である。座標P0のy位置は、上記nについての必要条件を満たすように、予め定めた式により計算する。一例を挙げれば、点P1,P2,P3のY軸方向の各位置b1,b2,b3の分布の中間的値(輪郭線上の複数の点P1,P2,P3の代表点PRのy値に相当)に縦幅nの半分(n/2)を加えたものとする。 In this case, the X position of the coordinate P 0 at the upper left of the measurement area is a 1 . The y position of the coordinate P 0 is calculated by a predetermined formula so as to satisfy the requirement for n. In one example, the point P 1, P 2, P each position in the Y-axis direction 3 b 1, b 2, b intermediate value (P 1 a plurality of points on the outline of the distribution of 3, P 2, P 3 ) (Corresponding to the y value of the representative point P R )) plus half (n / 2) of the vertical width n.

例えば、「点P1,P2の平均値」と「点P3」との平均値(代表点PRのy値に相当)に半幅(n/2)を加えてP0のy位置を求める、式〈[{(b1+b2)/2}+b3]/2〉+(n/2) により計算する。当該式はデータベース部112に対象物に対応して予め記憶されている。 For example, an "average value of the point P 1, P 2" the average y-position of the half width (the representative point P corresponds to the y value of R) (n / 2) was added to P 0 and "point P 3 ' The calculation is made according to the equation <[{(b 1 + b 2 ) / 2} + b 3 ] / 2> + (n / 2). The formula is stored in advance in the database unit 112 corresponding to the object.

また、計測領域の横幅mについては、図中に示すように、近似円Rがキャプチャ画像Aの両側端縁と交差する場合、キャプチャ画像Aにおける最大の幅と等しい値とすることが好ましい。仮にmが当該最大の幅未満の値を取る場合、近似円Rの一部が計測領域から外れることとなり、測定精度の低下を招くおそれがあるためである。これに対して、近似円Rがキャプチャ画像Aの上側縁と交差し、両側端縁のいずれか又は両方と交差しない場合であれば、近似円Rとキャプチャ画像Aとが交差する2点間の幅の大きさに、更に必要に応じて対象物(ウエハ)のX方向における搬送精度を加えて決定すれば良い。以降、特に指摘のない限りは近似円Rがキャプチャ画像Aの両側端縁と交差する場合のみに限定して説明する。
(1) 上記第1の例の場合の計測領域Qは、次のように定義される。
(a)計測領域の横幅m:予め作業者指定(キャプチャ領域最大)
(b)計測領域の縦幅n:予め作業者指定(通常、搬送装置が対象物(ウエハ)を撮像カメラ2の下へ設置する精度から決まる)
(c)計測領域の左上座標P0(x,y)=(a1,〈[{(b1+b2)/2}+b3]/2〉+(n/2))
The horizontal width m of the measurement region is preferably set to a value equal to the maximum width in the captured image A when the approximate circle R intersects both side edges of the captured image A as shown in the drawing. This is because if m takes a value less than the maximum width, a part of the approximate circle R is out of the measurement region, which may cause a reduction in measurement accuracy. On the other hand, if the approximate circle R intersects the upper edge of the captured image A and does not intersect either or both of the side edges, between the two points where the approximate circle R and the captured image A intersect. It may be determined by adding the accuracy of conveyance of the object (wafer) in the X direction to the size of the width as necessary. Hereinafter, unless otherwise specified, the description will be limited to the case where the approximate circle R intersects both side edges of the captured image A.
(1) The measurement region Q in the case of the first example is defined as follows.
(a) Width m of measurement area: Pre-specified by worker (maximum capture area)
(b) Vertical width n of the measurement area: designated by the operator in advance (usually determined from the accuracy with which the transfer device installs the object (wafer) under the imaging camera 2)
(c) Upper left coordinate P 0 (x, y) = (a 1 , <[{(b 1 + b 2 ) / 2} + b 3 ] / 2> + (n / 2)) of the measurement area

計測領域Qについての最適位置の定義は様々な考え方があっても良く、例えば、以下のような例でも良い。
(2) 第2の例の場合
点P1とP2がb1≧b2である場合、左上座標P0のyを、b1とb3の平均値(代表点PRのy値に相当)に半幅(n/2)を加えたものとする。
(a)計測領域の横幅m:予め作業者指定(キャプチャ領域最大)
(b)計測領域の縦幅n:予め作業者指定(通常、装置がウエハをカメラの下へ設置する精度から決まる)
(c)計測領域の左上座標P0(x,y)=(a1,{(b1+b3)/2}+(n/2))
The definition of the optimum position for the measurement region Q may have various ways of thinking, for example, the following examples.
(2) If If point P 1 and P 2 of the second embodiment is b 1 ≧ b 2, the y of the upper left coordinates P 0, the average value of b 1 and b 3 (the y value of the representative point P R Equivalent)) plus half width (n / 2).
(a) Width m of measurement area: Pre-specified by worker (maximum capture area)
(b) Vertical width n of the measurement area: designated by the operator in advance (usually determined by the accuracy with which the apparatus places the wafer under the camera)
(c) Upper left coordinate P 0 (x, y) = (a 1 , {(b 1 + b 3 ) / 2} + (n / 2)) of the measurement area

(3) 第3の例の場合
点P1とP2がb1≦b2である場合、左上座標P0のyを、b2とb3の平均値(代表点PRのy値に相当)に半幅(n/2)を加えたものとする。
(a)計測領域の横幅m:予め作業者指定(キャプチャ領域最大)
(b)計測領域の縦幅n:予め作業者指定(通常、装置がウエハをカメラの下へ設置する精度から決まる)
(c)計測領域の左上座標P0(x,y)=(a1,{(b2+b3)/2}+(n/2))
(3) If the case point P 1 and P 2 of the third example is b 1 ≦ b 2, the y of the upper left coordinates P 0, the average value of b 2 and b 3 (the y value of the representative point P R Equivalent)) plus half width (n / 2).
(a) Width m of measurement area: Pre-specified by worker (maximum capture area)
(b) Vertical width n of the measurement area: designated by the operator in advance (usually determined by the accuracy with which the apparatus places the wafer under the camera)
(c) Upper left coordinate P 0 (x, y) = (a 1 , {(b 2 + b 3 ) / 2} + (n / 2)) of the measurement area

(4) 第4の例の場合
左上座標P0のyを、点P1,P2,P3のY座標値b1,b2,b3の単純平均値(代表点PRのy値に相当)に半幅(n/2)を加えたものとする。
(a)計測領域の横幅m:予め作業者指定(キャプチャ領域最大)
(b)計測領域の縦幅n:予め作業者指定(通常、装置がウエハをカメラの下へ設置する精度から決まる)
(c)計測領域の左上座標P0(x,y)=(a1,{(b1+b2+b3)/3}+(n/2))
このようにして、輪郭線上の複数の点の代表点PRのY軸上の位置に上下に(n/2)の縦幅を設定し、X軸方向に横幅mを設定して撮像カメラのキャプチャ画像に計測領域Qが設定される。
(4) a case y of the upper left coordinates P 0 of the fourth example, the simple average value of the point P 1, P 2, Y coordinate values b1 of P 3, b 2, b 3 ( the y value of the representative point P R Equivalent)) plus half width (n / 2).
(a) Width m of measurement area: Pre-specified by worker (maximum capture area)
(b) Vertical width n of the measurement area: designated by the operator in advance (usually determined by the accuracy with which the apparatus places the wafer under the camera)
(c) Upper left coordinate P 0 (x, y) = (a 1 , {(b 1 + b 2 + b 3 ) / 3} + (n / 2)) of the measurement area
In this manner, up and down positions on the Y axis of the representative point P R of points on the contour line (n / 2) the vertical width settings, X-axis direction of the imaging camera by setting the width m A measurement area Q is set in the captured image.

(1−4) 実値変換係数計算
次に、図3に戻り、CPUは実値変換係数を計算する(ステップS116)。
これはX−Y平面に存在するウエハ3に対してウエハ3の上方(Z軸方向)に存在する撮像カメラ2の高さ位置(ウエハとカメラとの距離)に誤差がある場合、撮像画像の大きさ(一画素の大きさ)が異なってくるのでこれを修正できるようにするものである。
図10は、撮像カメラ2とウエハ3との距離が相対的に近い場合の対象物の撮像例を示している。距離が近いと撮像された画像は相対的に大きくなる。また、図11は、カメラ2とウエハ3との距離が相対的に遠い場合の対象物の撮像例を示している。距離が遠いと画像は相対的に小さくなる。撮像カメラにこのようなZ方向の誤差(ばらつき)があると、複数の撮像カメラを用いた場合、画像の一画素に相当する対象物(ウエハ)上の寸法(長さ)が撮像カメラによって異なることになる。半導体製造においては、撮像カメラを用いた複数の半導体製造装置が使用される。また、一つの半導体製造装置内において複数の撮像カメラが使用されるのが一般的である。したがって、各撮像カメラの画像から対象物の寸法や対象物の位置のずれ量などを正確に測定できるようにする必要があり、各撮像カメラの実値変換係数が計算される。
(1-4) Real Value Conversion Coefficient Calculation Next, returning to FIG. 3, the CPU calculates the real value conversion coefficient (step S116).
This is because when there is an error in the height position (distance between the wafer and the camera) of the imaging camera 2 existing above the wafer 3 (Z-axis direction) with respect to the wafer 3 existing in the XY plane, Since the size (size of one pixel) is different, this can be corrected.
FIG. 10 shows an example of imaging an object when the distance between the imaging camera 2 and the wafer 3 is relatively short. When the distance is short, the captured image becomes relatively large. FIG. 11 shows an example of imaging an object when the distance between the camera 2 and the wafer 3 is relatively long. The image becomes relatively small when the distance is long. If there are such errors (variations) in the Z direction in the imaging camera, when a plurality of imaging cameras are used, the size (length) on the object (wafer) corresponding to one pixel of the image differs depending on the imaging camera. It will be. In semiconductor manufacturing, a plurality of semiconductor manufacturing apparatuses using an imaging camera are used. In general, a plurality of imaging cameras are used in one semiconductor manufacturing apparatus. Therefore, it is necessary to be able to accurately measure the size of the object, the amount of displacement of the position of the object, and the like from the image of each imaging camera, and the actual value conversion coefficient of each imaging camera is calculated.

実値変換係数は、対象物の実際の寸法r0[mm]と、画面座標系(画像)における同一対象物の寸法r[画素数]の比kによって定義される。なお、対象物の実際の寸法の単位はcmやμmなど適宜に選定される。
実値変換係数kは、k=(r0/r) [mm/pix]によって計算される。
対象物の実際の寸法r0(mm)は、例えば、ウエハの場合、ウエハの半径が150mm(12インチ)、100mm(8インチ)など予め判っており、データベース部112に記憶されている。また、必要により対象物の所定寸法を実測してデータベース部112に記憶しておく。画像における対象物の寸法は、上述した対象物の輪郭計算において求めた方程式Rのrを使用することができる。
The actual value conversion coefficient is defined by a ratio k between the actual dimension r 0 [mm] of the object and the dimension r [number of pixels] of the same object in the screen coordinate system (image). The unit of the actual dimension of the object is appropriately selected such as cm or μm.
The real value conversion coefficient k is calculated by k = (r 0 / r) [mm / pix].
For example, in the case of a wafer, the actual dimension r 0 (mm) of the object is known in advance such as a wafer radius of 150 mm (12 inches) or 100 mm (8 inches), and is stored in the database unit 112. Further, if necessary, a predetermined dimension of the object is measured and stored in the database unit 112. As the size of the object in the image, r of equation R obtained in the above-described contour calculation of the object can be used.

(1−5) 画像処理パラメータ保存
CPUは、上記ステップで決定した画像処理の各種パラメータを保存する(ステップS118)。
図7は、CPUが上述した処理を行って、撮像カメラ2のキャプチャ画像Aから対象物の輪郭を略中央に含む最適な計測領域Q(左上座標P0,表示領域m×n)を切り出して、当該部分を表示器130に表示した状態を示している。パラメータ表示領域132には、各撮像カメラについての最適な計測領域の左上座標P0(x,y)、縦幅n、実値変換係数kなどのパラメータが表示される。作業員は、表示器130の表示内容を確認し、問題なければ画像処理のパラメータ保存をCPUに指令する。このパラメータはROM部116、あるいはデータベース部112などに不揮発に記憶される。問題があれば、ステップS110乃至S118を繰り返して最適な計測領域Qを設定する。
(1-5) Image processing parameter storage The CPU stores various parameters of the image processing determined in the above steps (step S118).
In FIG. 7, the CPU performs the above-described processing to cut out an optimum measurement region Q (upper left coordinate P 0 , display region m × n) that includes the outline of the object from the captured image A of the imaging camera 2 at the approximate center. The state which displayed the said part on the indicator 130 is shown. The parameter display area 132 displays parameters such as the upper left coordinate P 0 (x, y), the vertical width n, and the actual value conversion coefficient k of the optimum measurement area for each imaging camera. The worker confirms the display contents of the display unit 130, and if there is no problem, instructs the CPU to save image processing parameters. This parameter is stored in a nonvolatile manner in the ROM unit 116, the database unit 112, or the like. If there is a problem, steps S110 to S118 are repeated to set an optimal measurement region Q.

このようなパラメータ設定操作を各撮像カメラについて行う。各処理の終了後、CPUはメインプログラムに戻る(ステップS120)。   Such parameter setting operation is performed for each imaging camera. After completion of each process, the CPU returns to the main program (step S120).

このようにして設定された計測領域Qによって、例えば、特開2009−88184号公報に記載されるような画像処理装置によるウエハの輪郭位置の計測などが行われる。   For example, measurement of the contour position of the wafer by an image processing apparatus as described in JP-A-2009-88184 is performed by the measurement region Q set in this way.

本発明の第1の実施例によれば、撮像カメラによる観察対象物のキャプチャ画像中に計測領域Qを簡単に設定することができるので、作業員の負担が軽減されて具合がよい。   According to the first embodiment of the present invention, the measurement area Q can be easily set in the captured image of the observation object by the imaging camera, so that the burden on the worker is reduced and the condition is good.

(実施例2)
次に、本発明をアライメントマークの認識に適用した例について図12及び図13を参照して説明する。上述した本発明の第1の実施例では対象物の輪郭線がキャプチャ画像Aと交差する場合について述べたが、本実施例においては対象物の輪郭線がキャプチャ画像Aと交差しない場合について述べるものであり、両者は2次元画像上において対象物の(アライメント)マークを読み取るための最適な計測領域の設定に係るものである点において共通する。
(Example 2)
Next, an example in which the present invention is applied to alignment mark recognition will be described with reference to FIGS. In the first embodiment of the present invention described above, the case where the contour line of the object intersects the captured image A has been described. In this embodiment, the case where the contour line of the object does not intersect the captured image A is described. Both are common in that they relate to the setting of the optimum measurement region for reading the (alignment) mark of the object on the two-dimensional image.

図12は対象物(ウエハ)上に形成されたアライメントマークを撮像カメラでキャプチャした例を説明する説明図である。図13は、アライメントマークに対する計測領域の設定手順を図3に対応して説明するフローチャートである。
上述した本発明の第1の実施例では、半導体装置の製造工程のうち、回路パターン形成前のウエハを対象としているが、本発明は、アライメントマークが形成されたウエハの画像処理をする場合や、液晶ガラス基板などに形成されているマークを使用して画像処理をする場合にも応用が可能である。
FIG. 12 is an explanatory diagram illustrating an example in which an alignment mark formed on an object (wafer) is captured by an imaging camera. FIG. 13 is a flowchart for explaining the measurement region setting procedure for the alignment mark corresponding to FIG.
In the first embodiment of the present invention described above, the wafer before circuit pattern formation is targeted in the manufacturing process of the semiconductor device. However, the present invention is applicable to image processing of a wafer on which alignment marks are formed. The present invention can also be applied when image processing is performed using marks formed on a liquid crystal glass substrate or the like.

図12に示すように、画像処理装置1は撮像カメラ2で対象物のアライメントマークMを含む領域をキャプチャし、メインメモリ内に取り込む。また、キャプチャ画像Aを表示部130に表示する。この例ではアライメントマークMは円形で、大きさ(直径)がaである。なお、後述のように像カメラ2の視野A内へ対象物を設置する精度は、±b[mm]とする。   As shown in FIG. 12, the image processing apparatus 1 captures an area including the alignment mark M of the object with the imaging camera 2 and captures it in the main memory. Further, the captured image A is displayed on the display unit 130. In this example, the alignment mark M is circular and the size (diameter) is a. As will be described later, the accuracy of installing the object in the field of view A of the image camera 2 is ± b [mm].

このアライメントマークMを略中央部に含んで計測領域(例えば、四角形の領域)Qが設定される。計測領域Qの左上角P0の座標(x,y)、横幅m、縦幅nを実施例1と同様に適切に設定する。それによって計測におけるデータ処理量を減らして計測時間を短縮する。また、対象領域を狭く設定することによって領域内に存在する画像のノイズを減らして誤測定を減らす。 A measurement region (for example, a quadrangular region) Q is set including the alignment mark M substantially in the center. The coordinates (x, y), the horizontal width m, and the vertical width n of the upper left corner P 0 of the measurement region Q are appropriately set as in the first embodiment. Thereby, the amount of data processing in measurement is reduced and the measurement time is shortened. In addition, by setting the target area to be narrow, the noise of the image existing in the area is reduced to reduce erroneous measurement.

次に、CPUによる画像処理手順を説明する。図13に示すように、制御プログラムを実行しているCPUは、待機状態や割り込み処理などにおいてキャプチャ画像に計測領域を設定するプログラムの実行の指令を受けると本ルーチンを実行する(ステップS200)。   Next, an image processing procedure by the CPU will be described. As shown in FIG. 13, the CPU executing the control program executes this routine when receiving a command to execute a program for setting a measurement area in a captured image in a standby state or an interrupt process (step S200).

(2−1) 画像キャプチャ
このプロセスでは、視野内に搬送された対象物を撮像して2次元画像を得る撮像過程と、2次元画像を画面に表示する表示過程とが行われる(ステップS210)。
CPUは、ロボットアーム9によって撮像カメラ2の視野A内に搬送されたウエハ3の画像を撮像カメラ2にキャプチャ(撮像)させ、メインメモリ部118内にビットマップ画像として取り込む。取り込まれた画像は表示部130にも送られ、キャプチャ画像(モニタ画像)が表示される。
(2-1) Image Capture In this process, an imaging process for capturing a two-dimensional image by capturing an object conveyed in the field of view and a display process for displaying the two-dimensional image on the screen are performed (step S210). .
The CPU causes the imaging camera 2 to capture (capture) an image of the wafer 3 that has been transferred into the field of view A of the imaging camera 2 by the robot arm 9 and capture it as a bitmap image in the main memory unit 118. The captured image is also sent to the display unit 130, and a captured image (monitor image) is displayed.

(2−2) マークの重心位置演算
CPUはアライメントマークMの重心位置を計算する(ステップS212)。このプロセスでは、2次元画像から対象物に表示されたマークを抽出する形状抽出過程と、マークの重心点の2次元画像の座標系における位置を抽出する重心位置抽出過程とが行われる(ステップS212)。
(2-2) Mark Center of Gravity Calculation The CPU calculates the center of gravity position of the alignment mark M (step S212). In this process, a shape extraction process for extracting the mark displayed on the object from the two-dimensional image and a centroid position extraction process for extracting the position of the centroid point of the mark in the coordinate system of the two-dimensional image are performed (step S212). ).

例えば、アライメントマークMの2次元形状が略真円ならば真円近似でも良いが、マークMの形が真円以外、例えば多角形を含む不特定形状の場合、重心位置演算を用いると都合がよい。重心位置演算は、例えば、アライメントマークMの面積を構成する画素データを抽出し、画素の輝度や色情報に2値化処理を施してマークMの部分が黒、その他の部分(背景)が白となるように分離する。そして、周知の重心の計算式によって黒部分の各画素位置を代表する重心位置Pgを計算することにより求めることができる。
なお、さらに重心位置の精度を上げるために、アライメントマークMのエッジ近傍の画素の輝度値から線形補間等の処理により詳細なエッジ位置座標を求め、その重心を求めることとしても良い。
For example, if the two-dimensional shape of the alignment mark M is a substantially perfect circle, a perfect circle approximation may be used. However, if the shape of the mark M is other than a perfect circle, for example, an unspecified shape including a polygon, it is convenient to use the centroid position calculation. Good. The center-of-gravity position calculation is performed, for example, by extracting pixel data that constitutes the area of the alignment mark M, and performing binarization processing on the luminance and color information of the pixel so that the mark M portion is black and the other portion (background) is white. Separate them so that Then, it can be obtained by calculating the center-of-gravity position P g representing each pixel position of the black portion by formulas known centroid.
In order to further improve the accuracy of the centroid position, detailed edge position coordinates may be obtained from the luminance values of pixels near the edge of the alignment mark M by processing such as linear interpolation, and the centroid may be obtained.

(2−3) 最適な計測領域の計算
CPUはアライメントマークMの周りの最適な計測領域Qを計算する(ステップS214)。このプロセスでは、重心の位置と2次元画像上の対象物の搬送方向において予め設定された計測幅とに基づいて重心点を含む計測領域を読み取り画像上に設定する計測領域設定過程が行われる(ステップS214)。
(2-3) Calculation of Optimal Measurement Area The CPU calculates an optimal measurement area Q around the alignment mark M (step S214). In this process, a measurement region setting process is performed in which a measurement region including a centroid point is read and set on an image based on the position of the center of gravity and a measurement width set in advance in the conveyance direction of the object on the two-dimensional image ( Step S214).

アライメントマークMの重心位置Pgの座標(x,y)、アライメントマークの大きさa [pix]、カメラの下へ計測対象物を設置する精度±b、とすると、例えば、最適な計測領域は以下のように表される。
(a)計測領域の横幅m: m=a+2b
(b)計測領域の縦幅n: n=a+2b
(c)計測領域の中心位置Pgの座標:(x,y)
(d)計測領域の左上P0の座標:(x−(m/2),y+(n/2))
CPUは、このようにして定められた計測領域Qをキャプチャ画面A内に表示する。
Center-of-gravity position P g of coordinates of the alignment mark M (x, y), the size of the alignment mark a [pix], accuracy ± b to install a measurement object to below the camera, and when, for example, the optimal measurement region It is expressed as follows.
(a) Width of measurement area m: m = a + 2b
(b) Vertical width n of measurement area: n = a + 2b
(c) of the center position P g of the measuring area coordinates: (x, y)
(d) Coordinate of upper left P 0 of measurement area: (x− (m / 2), y + (n / 2))
The CPU displays the measurement area Q thus determined in the capture screen A.

(2−4) 実値変換係数の計算
CPUは実値変換係数の計算を行う(ステップS216)。
まず、画像処理により読み取り画像からアライメントマークMの大きさ(画像座標系)を求める。例えば、画像データの2値化処理にてアライメントマークMを黒とした場合、例えば、最も左端にある黒画素と最も右端にある黒画素との距離b[pix]がアライメントマークの大きさに相当すると見ることができる。この距離情報と既知のアライメントマークの大きさa [mm]から実値変換係数kを求めることができる。対象物のアライメントマークMの大きさaは予め設計情報としてデータベース部112に記憶されている。なお、対象物のアライメントマークの寸法の単位はcmやμmなど適宜に選定される。
実値変換係数k=a/b [mm/pix]
(2-4) Calculation of real value conversion coefficient The CPU calculates the real value conversion coefficient (step S216).
First, the size (image coordinate system) of the alignment mark M is obtained from the read image by image processing. For example, when the alignment mark M is set to black in the binarization processing of the image data, for example, the distance b [pix] between the leftmost black pixel and the rightmost black pixel corresponds to the size of the alignment mark. Then you can see. From this distance information and the known alignment mark size a [mm], the actual value conversion coefficient k can be obtained. The size a of the alignment mark M of the object is stored in advance in the database unit 112 as design information. The unit of the dimension of the alignment mark of the object is appropriately selected such as cm or μm.
Real value conversion coefficient k = a / b [mm / pix]

(2−5) 画像処理装置のパラメータ保存
CPUは、上記ステップで決定した画像処理の各種パラメータを保存する(ステップS218)。作業員は、表示器130の表示内容を確認し、問題なければ画像処理のパラメータ保存をCPUに指令する。このパラメータはROM部116、あるいはデータベース部112などに不揮発に記憶される。問題があれば、ステップS210乃至S218を繰り返して最適な計測領域Qを設定する。
(2-5) Parameter storage of image processing apparatus The CPU stores various parameters of the image processing determined in the above steps (step S218). The worker confirms the display contents of the display unit 130, and if there is no problem, instructs the CPU to save image processing parameters. This parameter is stored in a nonvolatile manner in the ROM unit 116, the database unit 112, or the like. If there is a problem, steps S210 to S218 are repeated to set an optimal measurement region Q.

このようなパラメータ設定操作を各撮像カメラについて行う。各処理の終了後、CPUはメインプログラムに戻る(ステップS220)。   Such parameter setting operation is performed for each imaging camera. After completion of each process, the CPU returns to the main program (step S220).

(実施例3)
(カメラの下へ計測対象物を設置する精度を求める方法及び計測対象物の基準位置を求める方法)
実施例1及び2では、計測の対象物をカメラの視野内に搬送する際の設置位置について、対象物を設置すべき、または当該対象物におけるマークが位置すべき絶対位置座標(基準位置)と、実際に計測対象物が設置された、またはマークが位置する位置座標との誤差が既知であったが、誤差が既知でない場合に、位置誤差を求める過程も含めて自動化することも可能である。例えば、
(Example 3)
(Method for obtaining the accuracy of placing the measurement object under the camera and method for obtaining the reference position of the measurement object)
In the first and second embodiments, the absolute position coordinates (reference position) where the target object should be set or the mark on the target position should be set with respect to the installation position when the measurement target is transported within the field of view of the camera. When the measurement object is actually installed or the error from the position coordinates where the mark is located is known, it is possible to automate the process including the process of obtaining the position error when the error is not known. . For example,

(1) 対象物を搬送前の位置からカメラの下へ搬送し、所定位置に対象物を設置する。
(2) この位置で対象物のアライメントマークMの重心位置計測(真円近似計測)を行う。
(3) 対象物を搬送前の位置へ搬送する(元に戻す)。
(1) Transfer the object from the position before transfer to the bottom of the camera, and place the object at the specified position.
(2) The position of the center of gravity of the alignment mark M of the object is measured (round circle approximate measurement) at this position.
(3) Transport the object to the position before transport (return it to the original position).

上記(1)〜(3)の処理を、任意の回数(サンプル数が大きい程精度が良い)、例えば100回程度繰り返し、(2)で求めた重心位置の最大値と最小値との差をカメラの下へ計測対象物を設置する場合の精度とする。この値に余裕を持たせるために更に+α増加することとしても良い。   Repeat the above steps (1) to (3) any number of times (the greater the number of samples, the better the accuracy), for example, about 100 times, and calculate the difference between the maximum and minimum values of the center of gravity obtained in (2) This is the accuracy when placing the measurement object under the camera. In order to give a margin to this value, it may be further increased by + α.

さらに、(2)で求めた、例えば100個の重心位置座標に対し、さらに各座標の重心となる位置又は単に各座標の平均となる点(代表点)を算出することで、これを基準位置とすることができ、当該基準位置はそのまま最適な計測領域の中心位置座標とすることができる。これは画像処理対象物の外形状が例えば円弧状であったとしても、その凸部もしくは凹部の座標を基準にすることで、本発明の各種計算への応用が可能である。   Further, for example, with respect to the 100 center of gravity position coordinates obtained in (2), a position that becomes the center of gravity of each coordinate or a point (representative point) that is simply the average of each coordinate is calculated, thereby obtaining this as the reference position. The reference position can be used as the center position coordinate of the optimum measurement region as it is. Even if the outer shape of the image processing object is, for example, an arc shape, the present invention can be applied to various calculations by using the coordinates of the convex portion or concave portion as a reference.

このように、本発明の実施例によれば、画像処理装置がキャプチャ画像A内に最適な計測領域を設定するので、画像処理におけるデータ処理量を減らして計測時間の短縮を図ること、画像上のノイズの取り込みを減らして、ノイズによる誤計測を回避することなどの利点を享受しつつ作業員の労力を減少させることが可能となるので好ましい。   As described above, according to the embodiment of the present invention, since the image processing apparatus sets an optimal measurement region in the captured image A, the data processing amount in the image processing can be reduced to shorten the measurement time. Therefore, it is possible to reduce the labor of the worker while enjoying the advantages such as avoiding the erroneous measurement due to the noise by reducing the noise intake.

上記発明の実施の形態を通じて説明された実施例や応用例は、用途に応じて適宜に組み合わせて、又は変更若しくは改良を加えて用いることができ、本発明は上述した実施形態の記載に限定されるものではない。そのような組み合わせ又は変更若しくは改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   The examples and application examples described through the embodiments of the present invention can be used in appropriate combination according to the application, or can be used with modifications or improvements, and the present invention is limited to the description of the above-described embodiments. It is not something. It is apparent from the description of the scope of claims that the embodiments added with such combinations or changes or improvements can be included in the technical scope of the present invention.

1 画像処理装置、2 撮像カメラ、3 ウエハ(対象物)、4 トランスファチャンバ、5 プロセスチャンバ、6 ロード・アンロード装置、8 制御装置、102 信号変換部、104 撮像画像記憶部、106 表示画像記憶部、108 信号変換部、110 インタフェース、112 データベース部、114 通信制御部、116 ROM部、118 メインメモリ部、120 CPU部、130 表示部、140 入力部 DESCRIPTION OF SYMBOLS 1 Image processing apparatus, 2 Imaging camera, 3 Wafer (object), 4 Transfer chamber, 5 Process chamber, 6 Load / unload apparatus, 8 Control apparatus, 102 Signal conversion part, 104 Captured image storage part, 106 Display image storage Unit, 108 signal conversion unit, 110 interface, 112 database unit, 114 communication control unit, 116 ROM unit, 118 main memory unit, 120 CPU unit, 130 display unit, 140 input unit

Claims (9)

カメラの視野内に搬送された対象物の少なくとも一端部を撮像して2次元画像を得る撮像手段と、
前記2次元画像を画面に表示する表示手段と、
得られた2次元画像から前記対象物の一端部の輪郭を表す輪郭線を抽出する形状抽出手段と、
前記輪郭線上の複数の点の位置を抽出する点位置抽出手段と、
前記複数の点から前記2次元画像上の対象物の搬送方向における前記輪郭線の位置を代表する代表点の位置を決定する代表位置決定手段と、
前記2次元画像内に、前記搬送方向における縦幅n、前記搬送方向と交差する方向における横幅mの、前記一端部の輪郭を含む計測領域を設定する計測領域設定手段と、を備え
前記計測領域設定手段は、前記代表点の位置から前記搬送方向の正逆にそれぞれ(n/2)の縦幅を設定する、ことを特徴とする画像処理装置。
Imaging means for obtaining a two-dimensional image by imaging at least one end of an object conveyed in the field of view of the camera ;
Display means for displaying the two-dimensional image on a screen;
Shape extraction means for extracting a contour line representing the contour of one end of the object from the obtained two-dimensional image;
Point position extracting means for extracting positions of a plurality of points on the contour line;
Representative position determining means for determining the position of a representative point representing the position of the contour line in the conveyance direction of the object on the two-dimensional image from the plurality of points;
A measurement area setting means for setting a measurement area including the outline of the one end of the vertical dimension n in the conveyance direction and a horizontal width m in the direction intersecting the conveyance direction in the two-dimensional image ;
The image processing apparatus, wherein the measurement region setting means sets a vertical width of (n / 2) from the position of the representative point in the forward and reverse directions of the transport direction .
前記計測領域の横幅mは、前記画面における前記2次元画像の表示領域の横幅の大きさに対応して設定される、請求項1に記載の画像処理装置。 The width m of the measurement area is set corresponding to the size of the horizontal width of the display area of the two-dimensional image in the screen, the image processing apparatus according to claim 1. 前記複数の点には、前記2次元画像の座標系における前記輪郭線と前記視野の枠との交点が含まれる、請求項1又は2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the plurality of points include intersections of the contour line and the field frame in the coordinate system of the two-dimensional image. 前記複数の点には、前記2次元画像の座標系における前記輪郭線の凸部又は凹部に位置する点が含まれる、請求項1又は2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the plurality of points include points located at a convex portion or a concave portion of the contour line in the coordinate system of the two-dimensional image. 前記代表点の位置は、前記2次元画像の座標系における、前記複数の点の前記対象物の搬送方向における平均位置である、請求項1乃至4のいずれかに記載の画像処理装置。   5. The image processing apparatus according to claim 1, wherein the position of the representative point is an average position of the plurality of points in the transport direction of the object in the coordinate system of the two-dimensional image. 前記代表点の位置は、前記2次元画像の座標系における前記複数の点のうち前記対象物の搬送方向において最大離間距離となる2つの点の中間位置である、請求項1乃至4のいずれかに記載の画像処理装置。   The position of the representative point is an intermediate position between two points having a maximum separation distance in the conveyance direction of the object among the plurality of points in the coordinate system of the two-dimensional image. An image processing apparatus according to 1. 前記計測領域設定手段は、更に前記対象物の搬送誤差分に基づいて前記輪郭線を含む計測領域を前記2次元画像上に設定する、請求項1乃至6のいずれかに記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the measurement area setting unit further sets a measurement area including the contour line on the two-dimensional image based on a conveyance error of the object. カメラの視野内に搬送された対象物の少なくとも一端部を撮像して2次元画を得る撮像過程と、
得られた2次元画像から前記対象物の一端部の輪郭を表す輪郭線を抽出する形状抽出過程と、
前記輪郭線上の複数の点の位置を抽出する点位置抽出過程と、
前記複数の点から前記2次元画像上の対象物の搬送方向における前記輪郭線の位置を代表する代表点の位置を決定する代表位置決定過程と、
前記2次元画像内に、前記搬送方向における縦幅n、前記搬送方向と交差する方向における横幅mの、前記一端部の輪郭を含む計測領域を設定する計測領域設定過程と、を含み、
前記計測領域設定過程は、前記代表点の位置から前記搬送方向の正逆にそれぞれ(n/2)の縦幅を設定する、
画像処理方法。
An imaging process for obtaining a two-dimensional image by imaging at least one end of an object conveyed within the field of view of the camera ;
The shape extraction step of the resulting et al two-dimensional image to extract a contour line representing the contour of one end portion of the object,
A point position extraction process for extracting positions of a plurality of points on the contour line;
A representative position determining process for determining the position of a representative point representing the position of the contour line in the conveyance direction of the object on the two-dimensional image from the plurality of points;
In the two-dimensional image, a measurement area setting process for setting a measurement area including the outline of the one end part of the vertical width n in the transport direction and the lateral width m in the direction intersecting the transport direction,
In the measurement area setting process, a vertical width of (n / 2) is set from the position of the representative point in the forward and reverse directions of the transport direction.
Image processing method.
請求項1乃至のいずれかに記載の画像処理装置を備える半導体製造装置。 A semiconductor manufacturing apparatus including an image processing apparatus according to any one of claims 1 to 7.
JP2010238641A 2010-10-25 2010-10-25 Image processing apparatus and image processing method Expired - Fee Related JP5538179B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010238641A JP5538179B2 (en) 2010-10-25 2010-10-25 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010238641A JP5538179B2 (en) 2010-10-25 2010-10-25 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2012093118A JP2012093118A (en) 2012-05-17
JP5538179B2 true JP5538179B2 (en) 2014-07-02

Family

ID=46386621

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010238641A Expired - Fee Related JP5538179B2 (en) 2010-10-25 2010-10-25 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP5538179B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6117724B2 (en) 2014-03-26 2017-04-19 東京エレクトロン株式会社 Coating apparatus and coating method
TWI618179B (en) * 2016-09-20 2018-03-11 錫宬國際有限公司 Wafer transport system and operating method thereof
JP6858460B2 (en) * 2018-02-27 2021-04-14 東芝三菱電機産業システム株式会社 Working position detector
JP7248848B2 (en) * 2018-08-28 2023-03-29 株式会社Screenホールディングス Movable part position detection method, substrate processing method, substrate processing apparatus, and substrate processing system
JP2020034344A (en) * 2018-08-28 2020-03-05 株式会社Screenホールディングス Moving part position detection method, substrate processing method, substrate processing device, and substrate processing system
WO2021172256A1 (en) 2020-02-27 2021-09-02 ファナック株式会社 Three-dimensional imaging device and imaging condition adjustment method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57144406A (en) * 1981-02-28 1982-09-07 Matsushita Electric Works Ltd Inspecting device for product shape
JP2000163579A (en) * 1998-11-26 2000-06-16 Toshiba Corp Appearance inspection method and device
JP4884345B2 (en) * 2007-09-28 2012-02-29 株式会社山武 Image processing device

Also Published As

Publication number Publication date
JP2012093118A (en) 2012-05-17

Similar Documents

Publication Publication Date Title
JP5538179B2 (en) Image processing apparatus and image processing method
US20060106497A1 (en) Carriage robot system and its controlling method
JP4137862B2 (en) Measuring device and robot control device
JP2020116734A (en) System and method for automatic hand-eye calibration of vision system for robot motion
CN102782721B (en) System and method for runtime determination of camera calibration errors
US6728417B1 (en) Measurement apparatus
US20190355148A1 (en) Imaging control device, imaging control method, and program
JP4446609B2 (en) Image processing method and apparatus
EP1524492B1 (en) Three-dimensional measurement apparatus
WO2005088250A1 (en) Method and system of measuring an object in a digital image
CN104735444A (en) System and method for performing vision system planar hand-eye calibration from straight line features
WO2010128759A2 (en) Vision inspection system and coordinate conversion method using same
TWI390660B (en) Method and apparatus for semiconductor wafer alignment
KR101202320B1 (en) Instrumentation system using alignment scope and method for determining system parameters of alignment scope
JP2006276454A (en) Image correcting method and pattern defect inspecting method using same
JP2002319028A (en) Image processing method and device therefor, and bonding device
JP2007059640A (en) Visual inspection equipment
JP2007311430A (en) Method for moving object to be imaged, recording medium on which the method is recorded, and processing device using them
JP2012104154A (en) Method of moving object to be imaged and processing apparatus employing the method
JP4485771B2 (en) Method of aligning rotation axis of chuck table and center of microscope in cutting apparatus
JP5409080B2 (en) Method for estimating center position of disk-shaped member and image processing apparatus
KR101626374B1 (en) Precision position alignment technique using edge based corner estimation
JP2010283088A (en) Wafer appearance inspection device
JP4401126B2 (en) Method for registering predetermined part of dimension measuring device
JP2005186193A (en) Calibration method and three-dimensional position measuring method for robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130326

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140307

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140407

R150 Certificate of patent or registration of utility model

Ref document number: 5538179

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140428

LAPS Cancellation because of no payment of annual fees