JP4382649B2 - Alignment mark recognition method, alignment mark recognition device and joining device - Google Patents

Alignment mark recognition method, alignment mark recognition device and joining device Download PDF

Info

Publication number
JP4382649B2
JP4382649B2 JP2004352475A JP2004352475A JP4382649B2 JP 4382649 B2 JP4382649 B2 JP 4382649B2 JP 2004352475 A JP2004352475 A JP 2004352475A JP 2004352475 A JP2004352475 A JP 2004352475A JP 4382649 B2 JP4382649 B2 JP 4382649B2
Authority
JP
Japan
Prior art keywords
alignment mark
alignment
camera
template data
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004352475A
Other languages
Japanese (ja)
Other versions
JP2006165159A (en
Inventor
和巳 須藤
行雄 尾崎
和之 伊倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2004352475A priority Critical patent/JP4382649B2/en
Publication of JP2006165159A publication Critical patent/JP2006165159A/en
Application granted granted Critical
Publication of JP4382649B2 publication Critical patent/JP4382649B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Die Bonding (AREA)

Description

本発明は,カメラにより撮像されたアライメントマークの画像とあらかじめ登録されたテンプレートデータとを比較処理することにより,アライメントマークの位置を認識するアライメントマーク認識方法に関するものである。   The present invention relates to an alignment mark recognition method for recognizing the position of an alignment mark by comparing an alignment mark image captured by a camera with template data registered in advance.

この技術は,ボンディング装置等に適用することができる。   This technique can be applied to a bonding apparatus or the like.

通常,半導体チップやプリント基板などに載っているアライメントマーク(大きさは50μm〜100μm程度,形状は十字型,四角等いろいろある)は,非常に小さいものであり,ある程度の厚みを持っている。   Usually, an alignment mark (a size is about 50 μm to 100 μm, there are various shapes such as a cross shape, a square, etc.) placed on a semiconductor chip or a printed circuit board is very small and has a certain thickness.

図12は,アライメントマークの例を示す図である。図12に示すアライメントマークは,十字型のアライメントマークの例である。   FIG. 12 is a diagram illustrating an example of alignment marks. The alignment mark shown in FIG. 12 is an example of a cross-shaped alignment mark.

このようなアライメントマークの位置を認識する技術には,様々なものがある。例えば,特許文献1,特許文献2には,アライメントマーク等のあるウエハ上にスリット状のスポット光を投射し,このスポット光に照射されたマークパターンからの回折光や散乱光を検出し,アライメントマーク等の認識を行う技術が記載されている。この特許文献1,特許文献2に記載されている技術は,焦点計測用マークの認識によってベストフォーカス位置を検出することを目的としている。   There are various techniques for recognizing the position of such an alignment mark. For example, in Patent Document 1 and Patent Document 2, slit-shaped spot light is projected onto a wafer having an alignment mark or the like, and diffracted light or scattered light from a mark pattern irradiated to the spot light is detected, and alignment is performed. A technique for recognizing a mark or the like is described. The techniques described in Patent Documents 1 and 2 are intended to detect the best focus position by recognizing a focus measurement mark.

また,アライメントマークをカメラにより撮像し,得られた画像を解析することによりあるスライスレベルでのアライメントマークの形状を求め,その求めたアライメントマークの形状をテンプレートデータと比較することにより,アライメントマークの位置を認識する技術がある。この技術において,求められたアライメントマークの形状やテンプレートデータは,2次元(以下,2Dともいう)のデータである。   In addition, the alignment mark shape is obtained by imaging the alignment mark with a camera, analyzing the obtained image, and obtaining the alignment mark shape at a certain slice level, and comparing the obtained alignment mark shape with the template data. There is a technology to recognize the position. In this technique, the obtained alignment mark shape and template data are two-dimensional (hereinafter also referred to as 2D) data.

図13は,アライメントマークのスライスイメージを示す図である。図13は,図12のアライメントマークをあるスライスレベルでスライスしたときの形状を表している。図13中の色の濃い部分が,このスライスレベルでのアライメントマークの形状である。
特開平09−082620号公報 特開平06−216004号公報
FIG. 13 is a diagram showing a slice image of the alignment mark. FIG. 13 shows a shape when the alignment mark of FIG. 12 is sliced at a certain slice level. The dark part in FIG. 13 is the shape of the alignment mark at this slice level.
JP 09-082620 A Japanese Patent Laid-Open No. 06-216004

メッキ等の厚みのあるアライメントマークは,その材質や製造工程においてエッジを精鋭化することが困難であり,エッジ部分に丸みが発生してしまうため,どこがエッジ部分であるのかがはっきりとわからなくなってしまう場合がある。図12の例でも,アライメントマークのエッジ部分は丸みを帯びている。このようなエッジの丸みは,アライメントマークの製造上の変形やキズなどにより,一様ではなく,アライメントマークごとにバラツキがあるのが普通である。   Thick alignment marks such as plating are difficult to sharpen the edges in the material and manufacturing process, and the edges are rounded, so it is not clear where the edges are. May end up. Also in the example of FIG. 12, the edge portion of the alignment mark is rounded. Such roundness of the edge is not uniform due to deformation or scratches in the manufacturing of the alignment mark, and usually there is variation among the alignment marks.

前述の2Dのアライメントマークの形状からアライメントマークの位置を認識する技術では,取得したスライスレベルでアライメントマークの形状に凹みや欠けなどがあった場合に,真の位置でのアライメントマークの認識ができなくなってしまう可能性がある。   The technology for recognizing the position of the alignment mark from the shape of the 2D alignment mark described above can recognize the alignment mark at the true position when the alignment mark has a dent or chip at the acquired slice level. There is a possibility of disappearing.

本発明は,上記の問題点の解決を図り,形状が完全には一様でないアライメントマークでも,高い精度でアライメントマークの位置を認識することが可能なアライメントマーク認識方法を提供することを目的とする。   An object of the present invention is to solve the above problems and to provide an alignment mark recognition method capable of recognizing the position of an alignment mark with high accuracy even with an alignment mark whose shape is not completely uniform. To do.

本発明は,上記の課題を解決するため,複数の画像データからアライメントマークの3次元(以下,3Dともいう)のデータを取得し,それと3次元のテンプレートデータとを照合することにより,アライメントマークの位置を認識することを特徴とする。   In order to solve the above-described problems, the present invention acquires alignment mark three-dimensional (hereinafter also referred to as 3D) data from a plurality of image data, and collates it with three-dimensional template data. It is characterized by recognizing the position of.

本発明では,まず,カメラの高さを変化させてアライメントマークを撮像することで,複数のスライスレベルでの画像を取得する。それぞれのスライスレベルで撮像した画像について,アライメントマークの形状を特定する。次に,各スライスレベルの画像から求められたアライメントマークの形状をもとにアライメントマークの3次元モデルを生成し,それとあらかじめ登録されたアライメントマークの3次元のテンプレートデータとを照合することにより,アライメントマークの位置を認識する。   In the present invention, first, images at a plurality of slice levels are acquired by imaging the alignment mark by changing the height of the camera. The shape of the alignment mark is specified for the image captured at each slice level. Next, by generating a 3D model of the alignment mark based on the shape of the alignment mark obtained from the image at each slice level, and collating it with the 3D template data of the alignment mark registered in advance, Recognize the position of the alignment mark.

また,それぞれのスライスレベルの形状から生成された3次元のモデルを用いて3次元のテンプレートデータを照合するのではなく,各スライスレベルごとにアライメントマークのエッジの位置や形状の特徴を示す特徴点の位置を求め,それらのエッジや特徴点の位置とあらかじめ登録された3次元のテンプレートデータとを照合することにより,アライメントマークの位置を認識するようにしてもよい。   In addition, the feature point indicating the feature of the position and shape of the edge of the alignment mark for each slice level, instead of matching the three-dimensional template data using the three-dimensional model generated from the shape of each slice level. The positions of the alignment marks may be recognized by comparing the positions of the edges and feature points with the three-dimensional template data registered in advance.

また,単に撮像した画像の輝度情報を用いて3次元のモデルを作成するのではなく,カラーで撮像した画像を複数の色(例えば,R・G・Bの3原色)の画像に分解し,それぞれの色について別々に3次元のモデルを作成して3次元のテンプレートデータと照合することにより,アライメントマークの位置を認識するようにしてもよい。   Also, rather than simply creating a three-dimensional model using the luminance information of the captured image, the image captured in color is decomposed into images of a plurality of colors (for example, three primary colors of R, G, and B) The position of the alignment mark may be recognized by separately creating a three-dimensional model for each color and collating it with the three-dimensional template data.

また,カメラの高さを変化させて撮像することにより複数のスライスレベルでの画像を取得するのではなく,レンズのフォーカス位置を変化させて撮像することにより複数のスライスレベルでの画像を取得し,それらの画像を用いてアライメントマークの位置を認識するようにしてもよい。   Also, instead of acquiring images at multiple slice levels by changing the camera height, images at multiple slice levels are acquired by changing the focus position of the lens. The position of the alignment mark may be recognized using these images.

また,1台のカメラでの撮像によりアライメントマークの3次元データを取得するのではなく,複数のカメラを用いた撮像によりアライメントマークの3次元データを取得し,アライメントマークの位置を認識するようにしても,高精度に位置を認識することができる。   Also, instead of acquiring the three-dimensional data of the alignment mark by imaging with one camera, the three-dimensional data of the alignment mark is acquired by imaging using a plurality of cameras, and the position of the alignment mark is recognized. However, the position can be recognized with high accuracy.

本発明によって,輪郭が不明瞭なために生じる位置認識誤差を低減することができる。また,照明の照射具合やアライメントマークの表面の光沢の変化などにより生じる位置認識誤差を低減することができる。さらに,色別に情報を比較することで,アライメントマークの材質の違いを判別することができる。   According to the present invention, it is possible to reduce a position recognition error caused by an unclear outline. In addition, it is possible to reduce position recognition errors caused by illumination conditions and changes in the gloss of the surface of the alignment mark. Furthermore, the difference in the material of the alignment mark can be determined by comparing the information for each color.

このように,2次元データに比べて3次元データでは情報量が多いため,一部の情報が欠落していても,安定したアライメントマークの認識を行うことができる。   As described above, since the amount of information in the three-dimensional data is larger than that in the two-dimensional data, the stable alignment mark can be recognized even if some information is missing.

以下,本発明の実施の形態について,図を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

〔実施の形態1〕
本発明の実施の形態1では,カメラの高さを変えながらアライメントマークを撮像し,それらの画像から,高さが異なる複数のスライスレベルでのアライメントマークの形状を測定し,その測定データから3Dモデルを生成して3Dテンプレートデータと比較することにより,アライメントマークの位置を認識する。
[Embodiment 1]
In Embodiment 1 of the present invention, the alignment mark is imaged while changing the height of the camera, the shape of the alignment mark at a plurality of slice levels having different heights is measured from these images, and 3D is obtained from the measurement data. The position of the alignment mark is recognized by generating a model and comparing it with the 3D template data.

図1は,本発明の実施の形態1におけるアライメントマーク認識装置の構成例を示す図である。図1の例のアライメントマーク認識装置は,コンピュータとソフトウェアプログラム等によって構成される画像処理部10と,プリント基板上のアライメントマークを撮像するカメラやレンズ等からなる撮像ユニット20と,プリント基板を搭載するアライメントステージ30とから構成される。   FIG. 1 is a diagram showing a configuration example of an alignment mark recognition apparatus according to Embodiment 1 of the present invention. The alignment mark recognition apparatus in the example of FIG. 1 includes an image processing unit 10 configured by a computer and a software program, an imaging unit 20 including a camera and a lens that captures an alignment mark on the printed circuit board, and a printed circuit board. The alignment stage 30 is configured.

画像処理部10は,画像入力部11と,形状認識処理部12と,カメラ位置制御部13と,測定データ記憶部14と,3Dモデル生成部15と,3D相関演算部16と,3Dテンプレートデータ記憶部17とを備える。   The image processing unit 10 includes an image input unit 11, a shape recognition processing unit 12, a camera position control unit 13, a measurement data storage unit 14, a 3D model generation unit 15, a 3D correlation calculation unit 16, and 3D template data. And a storage unit 17.

画像入力部11は,撮像ユニット20により撮像されたアライメントマークの画像を入力する。形状認識処理部12は,画像入力部11が入力した画像からアライメントマークの形状を測定し,その測定データを測定データ記憶部14に格納する。カメラ位置制御部13は,撮像ユニット20のカメラの位置(高さ)を制御する。   The image input unit 11 inputs an image of the alignment mark imaged by the imaging unit 20. The shape recognition processing unit 12 measures the shape of the alignment mark from the image input by the image input unit 11 and stores the measurement data in the measurement data storage unit 14. The camera position control unit 13 controls the camera position (height) of the imaging unit 20.

3Dモデル生成部15は,測定データ記憶部14の測定データをもとに,アライメントマークの3Dモデルを生成する。3D相関演算部16は,生成された3Dモデルと3Dテンプレートデータ記憶部17にあらかじめ記憶された3Dテンプレートデータとの相関処理を行い,その結果を出力する。   The 3D model generation unit 15 generates a 3D model of the alignment mark based on the measurement data in the measurement data storage unit 14. The 3D correlation calculation unit 16 performs a correlation process between the generated 3D model and 3D template data stored in advance in the 3D template data storage unit 17 and outputs the result.

図2は,本実施の形態1におけるアライメントマーク認識処理フローチャートである。ここでは,カメラの高さを変えてアライメントマークをN回撮像する。このとき,カメラのフォーカス位置は固定とする。また,カメラ高さ変数iを用いて,カメラの高さをh[i](i=0,1,... ,N−1)と表すものとする。   FIG. 2 is an alignment mark recognition processing flowchart according to the first embodiment. Here, the alignment mark is imaged N times by changing the height of the camera. At this time, the focus position of the camera is fixed. Further, the camera height variable i is used to represent the camera height as h [i] (i = 0, 1,..., N−1).

まず,カメラ高さ変数iを初期化(ここでは,i=0)する(ステップS10)。次に,カメラの高さをh[i]に設定し(ステップS11),アライメントマークを撮像する(ステップS12)。   First, the camera height variable i is initialized (here, i = 0) (step S10). Next, the camera height is set to h [i] (step S11), and the alignment mark is imaged (step S12).

得られた画像においてフォーカスが合っている箇所を選定し,その画像でのアライメントマークの形状を求める(ステップS13)。画像上では,エッジ部分においてフォーカスが合っている部分は輝度の変化が急峻になり,フォーカスが合っていない部分はなだらかになる。そこで,画像解析を行い,輝度の変化が急峻になる位置を求めることにより,アライメントマークの形状を求めることができる。求めたアライメントマークの形状を,そのスライスレベルでの測定データとして,測定データ記憶部14に格納する(ステップS14)。   In the obtained image, an in-focus position is selected, and the shape of the alignment mark in the image is obtained (step S13). On the image, the brightness changes sharply in the in-focus portion of the edge portion, and the out-of-focus portion becomes gentle. Therefore, the shape of the alignment mark can be obtained by performing image analysis and obtaining the position where the change in brightness is steep. The obtained alignment mark shape is stored in the measurement data storage unit 14 as measurement data at the slice level (step S14).

カメラ高さ変数iをインクリメントし(ステップS15),すべての測定が完了したか(i≧Nであるか)を判定し(ステップS16),まだ完了していなければ,ステップS11からステップS15の処理を繰り返す。このように,カメラの高さを変えて順々に各スライスレベルのアライメントマークの形状を求め,その測定データを測定データ記憶部14に格納していく。   The camera height variable i is incremented (step S15), and it is determined whether all measurements are completed (i ≧ N) (step S16). If not completed yet, the processing from step S11 to step S15 is performed. repeat. In this way, the shape of the alignment mark at each slice level is obtained in order by changing the height of the camera, and the measurement data is stored in the measurement data storage unit 14.

ステップS16においてすべての測定が完了していれば,測定データ記憶部14に格納された各スライスレベルでの測定データから,アライメントマークの3Dモデルを生成する(ステップS17)。各スライスレベルでの測定データは,アライメントマークのエッジ部分のデータであるので,それらを積み上げることにより,アライメントマークの3Dの形状のモデルができあがる。   If all the measurements are completed in step S16, a 3D model of the alignment mark is generated from the measurement data at each slice level stored in the measurement data storage unit 14 (step S17). Since the measurement data at each slice level is data of the edge portion of the alignment mark, a model of the 3D shape of the alignment mark is completed by stacking them.

図3は,本実施の形態1におけるアライメントマークの3Dモデルの例を説明する図である。例えば,図12に示すような十字型のアライメントマークを側面から見ると,図3(A)のようになる。ここで,カメラの高さを高い方から低い方に3段階で変えてアライメントマークの撮像を行い,フォーカスが合う位置のスライスレベルを,カメラ位置の高い順に,スライスレベル1,スライスレベル2,スライスレベル3とする。   FIG. 3 is a diagram for explaining an example of the 3D model of the alignment mark according to the first embodiment. For example, when a cross-shaped alignment mark as shown in FIG. 12 is viewed from the side, it is as shown in FIG. Here, the height of the camera is changed from high to low in three steps, the alignment mark is imaged, and the slice level at the in-focus position is changed to the slice level 1, slice level 2, slice in descending order of the camera position. Level 3 is assumed.

それぞれのスライスレベルでのアライメントマークの形状は,図3(B)のようになる。それらの形状データを積み上げることにより,図3(C)に示すようなアライメントマークの3Dモデルを生成することができる。   The shape of the alignment mark at each slice level is as shown in FIG. By accumulating the shape data, a 3D model of an alignment mark as shown in FIG. 3C can be generated.

生成された3Dモデルと,3Dテンプレートデータ記憶部17にあらかじめ登録された3Dテンプレートデータとの相関処理を行い(ステップS18),最も相関度が高い位置を求めることにより(ステップS19),アライメントマークの位置を認識する。   Correlation processing between the generated 3D model and 3D template data registered in advance in the 3D template data storage unit 17 is performed (step S18), and the position with the highest degree of correlation is obtained (step S19). Recognize position.

ここで,3Dモデルと3Dテンプレートデータとの相関処理について説明する。   Here, a correlation process between the 3D model and the 3D template data will be described.

図4は,3Dテンプレートデータの例を説明する図である。本実施の形態1で用いているアライメントマークは,十字型の形状であるが,ここでは説明をわかりやすくするために,3Dテンプレートデータとして,図4に示すような面F1からF5で構成される構造体の例で説明する。下面は上方から撮像した場合に死角になるため,データから除外している。   FIG. 4 is a diagram illustrating an example of 3D template data. The alignment mark used in the first embodiment has a cross shape, but here, in order to make the explanation easy to understand, it is composed of planes F1 to F5 as shown in FIG. 4 as 3D template data. An example of a structure will be described. Since the bottom surface is a blind spot when imaged from above, it is excluded from the data.

3Dテンプレートデータを,各面を構成する座標と輝度のデータとする。平面を構成する点データの集合としてもよい。3DテンプレートデータをFnの集合とし,
Tf={F1,F2,... ,F5}
Fn={頂点座標,面の輝度値}
と定義する。
Let the 3D template data be the data of coordinates and brightness constituting each surface. It is good also as a set of point data which constitutes a plane. Let 3D template data be a set of Fn,
Tf = {F1, F2,..., F5}
Fn = {vertex coordinates, surface brightness value}
It is defined as

アライメントマークの測定データ(3Dモデル)は,カメラの高さをz方向にdzずつ変化させたときに得られるアライメントマークの形状情報,すなわち,輝度変化の大きい点PD(x,y,z)の集合である。   The alignment mark measurement data (3D model) is the alignment mark shape information obtained when the camera height is changed by dz in the z direction, that is, the point PD (x, y, z) having a large luminance change. It is a set.

ここで,3Dテンプレートデータを点PT(x,y,z)の集合とし,PT(x,y,z)を上記のTfから抽出する。このとき,3Dテンプレートデータの形状内部の座標にも,あらかじめ定められた輝度値を設定する。   Here, the 3D template data is set as a set of points PT (x, y, z), and PT (x, y, z) is extracted from the above Tf. At this time, a predetermined luminance value is also set to the coordinates inside the shape of the 3D template data.

PD(x,y,z),PT(x,y,z)は,例えば,モノクロの場合には,8bit データで0〜255の256階調の明るさで表される。また,カラーの場合には,24bit データで,R・G・Bがそれぞれ8bit で表される。   For example, in the case of monochrome, PD (x, y, z) and PT (x, y, z) are represented by brightness of 256 gradations of 0 to 255 with 8-bit data. In the case of color, 24 bit data is used, and R, G, and B are each represented by 8 bits.

PD(x,y,z)とPT(x,y,z)の各構成点が持つ輝度値の誤差の二乗和をD(u,v,q,α,β,γ)とすると,D(u,v,q,α,β,γ)は以下の式(1)で表すことができる。なお,3Dモデルと3Dテンプレートデータとの大きさが異なる場合には,3Dテンプレートデータを拡大・縮小してから以下の計算を行うものとする。   If D (u, v, q, α, β, γ) is D (u, v, q, α, β, γ), D (u, v, q, α, β, γ) u, v, q, α, β, γ) can be expressed by the following equation (1). When the 3D model and the 3D template data are different in size, the following calculation is performed after the 3D template data is enlarged / reduced.

Figure 0004382649
Figure 0004382649

ただし,
PD(x,y,z):測定データ(輝度値)
PT(x,y,z):3Dテンプレートデータ(輝度値)
G(α,β,γ) :回転アフィン変換係数
とし,G(α,β,γ)≠0とする。
However,
PD (x, y, z): Measurement data (luminance value)
PT (x, y, z): 3D template data (luminance value)
G (α, β, γ): Rotation affine transformation coefficient, G (α, β, γ) ≠ 0.

式(1)において,D(u,v,q,α,β,γ)が最小となる座標(u,v,q),回転姿勢(α,β,γ)が,最も相関がとれていると言える。これらの結果から,図1に示すアライメントステージ30上のアライメントマークの正確な位置を決定することができる。   In equation (1), the coordinates (u, v, q) and rotational orientation (α, β, γ) that minimize D (u, v, q, α, β, γ) are most correlated. It can be said. From these results, the exact position of the alignment mark on the alignment stage 30 shown in FIG. 1 can be determined.

〔実施の形態2〕
本発明の実施の形態2では,カメラの高さを変えながらアライメントマークを撮像し,それらの画像からアライメントマークの特徴点の位置を測定し,その測定データ(3Dの特徴点の位置)と3Dテンプレートデータとを比較することにより,アライメントマークの位置を認識する。
[Embodiment 2]
In the second embodiment of the present invention, the alignment mark is imaged while changing the height of the camera, the position of the feature point of the alignment mark is measured from these images, the measurement data (position of the 3D feature point) and 3D The position of the alignment mark is recognized by comparing with the template data.

図5は,本発明の実施の形態2におけるアライメントマーク認識装置の構成例を示す図である。図5の例のアライメントマーク認識装置は,コンピュータとソフトウェアプログラム等によって構成される画像処理部40と,プリント基板上のアライメントマークを撮像するカメラ,レンズ等からなる撮像ユニット20と,プリント基板を搭載するアライメントステージ30とから構成される。   FIG. 5 is a diagram illustrating a configuration example of the alignment mark recognition apparatus according to the second embodiment of the present invention. The alignment mark recognition apparatus in the example of FIG. 5 includes an image processing unit 40 configured by a computer and a software program, an imaging unit 20 including a camera, a lens, and the like that captures an alignment mark on the printed circuit board, and a printed circuit board. The alignment stage 30 is configured.

画像処理部40は,画像入力部41と,特徴点認識処理部42と,カメラ位置制御部43と,測定データ記憶部44と,マッチング処理部45と,3Dテンプレートデータ記憶部46とを備える。   The image processing unit 40 includes an image input unit 41, a feature point recognition processing unit 42, a camera position control unit 43, a measurement data storage unit 44, a matching processing unit 45, and a 3D template data storage unit 46.

画像入力部41は,撮像ユニット20により撮像されたアライメントマークの画像を入力する。特徴点認識処理部42は,画像入力部41が入力した画像からアライメントマークの特徴点の位置を測定し,その測定データを測定データ記憶部44に格納する。カメラ位置制御部43は,撮像ユニット20のカメラの位置(高さ)を制御する。   The image input unit 41 inputs an image of the alignment mark imaged by the imaging unit 20. The feature point recognition processing unit 42 measures the position of the feature point of the alignment mark from the image input by the image input unit 41 and stores the measurement data in the measurement data storage unit 44. The camera position control unit 43 controls the camera position (height) of the imaging unit 20.

マッチング処理部45は,最小二乗法の計算方法を応用することにより,測定データ記憶部44の測定データと,3Dテンプレートデータ記憶部46にあらかじめ記憶された3Dテンプレートデータとのマッチング処理を行い,その結果を出力する。   The matching processing unit 45 performs a matching process between the measurement data in the measurement data storage unit 44 and the 3D template data stored in advance in the 3D template data storage unit 46 by applying the calculation method of the least square method. Output the result.

図6は,本実施の形態2におけるアライメントマーク認識処理フローチャートである。この例は,カメラの高さを変えてアライメントマークをN回撮像し,それぞれの画像のアライメントマークのエッジ等に現れる特徴点の位置を抽出する場合の例である。ここでは,カメラ高さ変数iを用いて,カメラの高さをh[i](i=0,1,... ,N−1)と表すものとする。   FIG. 6 is a flowchart of alignment mark recognition processing in the second embodiment. In this example, the alignment mark is imaged N times while changing the height of the camera, and the position of the feature point appearing at the edge of the alignment mark of each image is extracted. Here, the camera height variable i is used to represent the camera height as h [i] (i = 0, 1,..., N−1).

まず,カメラ高さ変数iを初期化(ここでは,i=0)する(ステップS20)。次に,カメラの高さをh[i]に設定し(ステップS21),アライメントマークを撮像する(ステップS22)。   First, the camera height variable i is initialized (here, i = 0) (step S20). Next, the camera height is set to h [i] (step S21), and the alignment mark is imaged (step S22).

得られた画像において,エッジ等の特徴点の位置を算出する(ステップS23)。例えば,自己相関をとることにより,画像から特徴点を抽出することができる。画像から特徴点を抽出する方法は,種々のものが既に知られており,どのような方法を用いてもよい。抽出された特徴点の位置のデータを測定データとして測定データ記憶部44に格納する(ステップS24)。   In the obtained image, the position of a feature point such as an edge is calculated (step S23). For example, feature points can be extracted from an image by taking autocorrelation. Various methods for extracting feature points from an image are already known, and any method may be used. The extracted feature point position data is stored as measurement data in the measurement data storage unit 44 (step S24).

カメラ高さ変数iをインクリメントし(ステップS25),すべての測定が完了したか(i≧Nであるか)を判定し(ステップS26),まだ完了していなければ,ステップS21からステップS25の処理を繰り返す。このように,カメラの高さを変えて3次元的にアライメントマークの特徴点の位置を取得し,その測定データを測定データ記憶部44に格納していく。   The camera height variable i is incremented (step S25), and it is determined whether all measurements are completed (i ≧ N) (step S26). If not completed yet, the processing from step S21 to step S25 is performed. repeat. In this manner, the position of the feature point of the alignment mark is acquired three-dimensionally by changing the height of the camera, and the measurement data is stored in the measurement data storage unit 44.

ステップS26においてすべての測定が完了していれば,測定データ記憶部44に格納された測定データ(特徴点の位置データ)と,3Dテンプレートデータ記憶部46にあらかじめ登録された3Dテンプレートデータとの距離を,最小二乗法の計算方法の応用によって求め(ステップS27),その結果が最小となる位置を求めることにより(ステップS28),アライメントマークの位置を認識する。   If all the measurements are completed in step S26, the distance between the measurement data (feature point position data) stored in the measurement data storage unit 44 and the 3D template data registered in advance in the 3D template data storage unit 46 Is obtained by applying the least squares calculation method (step S27), and the position where the result is minimum is obtained (step S28), thereby recognizing the position of the alignment mark.

ここで,ステップS23の特徴点の決め方について説明する。特徴点を決める方法は複数あるが,ここでは局所相関演算を用いて求める方法を例として示す。   Here, how to determine the feature point in step S23 will be described. Although there are a plurality of methods for determining feature points, here, a method of obtaining using feature of local correlation is shown as an example.

図7は,局所相関演算の例を説明する図である。図7に示す画像において,局所領域R(m×n画素)について考える。ここでの局所相関演算とは,図7に示す画像の任意の局所領域R(m×n画素)について,その周辺の領域S(−p〜+q,−p〜+q)内のm×n画素領域との輝度差の総和を求めることである。領域Rの輝度値をI(x,y)とし,その周辺領域S内のm×n画素領域の輝度値をI(x+u,y+v)とすると,領域Rとその周辺領域S内のm×n画素領域との輝度差の総和D(u,v)は,以下の式(2)で表される。ただし,−p≦u≦q,−p≦v≦qである。   FIG. 7 is a diagram illustrating an example of local correlation calculation. Consider the local region R (m × n pixels) in the image shown in FIG. The local correlation calculation here refers to an m × n pixel in a region S (−p to + q, −p to + q) around the arbitrary local region R (m × n pixels) of the image shown in FIG. It is to obtain the sum of luminance differences from the area. If the luminance value of the region R is I (x, y) and the luminance value of the m × n pixel region in the peripheral region S is I (x + u, y + v), then m × n in the region R and the peripheral region S. The sum D (u, v) of the luminance difference from the pixel area is expressed by the following equation (2). However, -p <= u <= q and -p <= v <= q.

Figure 0004382649
Figure 0004382649

式(2)によって,−p≦u≦q,−p≦v≦qを満たすすべてのuとvの組み合わせについてD(u,v)を求めることにより,領域Rの領域S内での相関値マップを得る。特徴判定には,自己相関値分布を用いる。ここでの自己相関値分布とは,上記の局所相関演算により得られた相関値マップを示す。この相関値マップに対し,以下の判定処理を行う。
(1)相関値マップの,原点8近傍(原点を除く)の最小相関値D1を得る。
(2)原点の±eの範囲を囲む四角形の4辺上での最小相関値D0を求める。
(3)D=D0−D1を特徴度とする。
By calculating D (u, v) for all combinations of u and v satisfying −p ≦ u ≦ q and −p ≦ v ≦ q by the equation (2), the correlation value in the region S of the region R Get the map. An autocorrelation value distribution is used for feature determination. The autocorrelation value distribution here indicates a correlation value map obtained by the above-described local correlation calculation. The following determination process is performed on this correlation value map.
(1) A minimum correlation value D1 near the origin 8 (excluding the origin) of the correlation value map is obtained.
(2) Find the minimum correlation value D0 on the four sides of the rectangle surrounding the range of ± e of the origin.
(3) Let D = D0-D1 be a feature.

ここで,特徴度Dは大きいほど特徴があることを意味する。D>Dtの場合について座標(x,y)は特徴点とする。なお,Dtは判定の閾値であり,任意の値が設定されているものとする。以上のように,画面全体を細分化した各局所領域について各々特徴判定を行なうことで,特徴点を求めることができる。   Here, it means that there is a characteristic, so that the characteristic degree D is large. In the case of D> Dt, the coordinates (x, y) are feature points. Note that Dt is a threshold value for determination, and an arbitrary value is set. As described above, a feature point can be obtained by performing feature determination for each local region obtained by subdividing the entire screen.

次に,ステップS27,ステップS28における測定データと3Dテンプレートデータとのマッチング処理の手法について説明する。この手法は,最小二乗法の計算方法を応用したものである。   Next, a method of matching processing between measurement data and 3D template data in step S27 and step S28 will be described. This method is an application of the least square method.

図8は,本実施の形態2における測定データと3Dテンプレートデータとのマッチング処理を説明する図である。3Dテンプレートデータをある高さでスライスしたものは,テンプレート図形を構成する頂点座標をもとに算出された線分の集合で表現することができる。例えば,前述の図4のような形状の3Dテンプレートデータを,高さZ=h1でスライスした場合の平面で考える。この場合,スライス平面でのテンプレートは,図8に示すような直線fn(n=1,2,3,4)の集合で表現できる。   FIG. 8 is a diagram for explaining a matching process between measurement data and 3D template data according to the second embodiment. A slice obtained by slicing 3D template data at a certain height can be expressed by a set of line segments calculated based on vertex coordinates constituting the template figure. For example, a 3D template data having a shape as shown in FIG. 4 is considered as a plane when sliced at a height Z = h1. In this case, the template on the slice plane can be expressed by a set of straight lines fn (n = 1, 2, 3, 4) as shown in FIG.

ここで,高さZ=h1のスライスでの測定データ(特徴点の位置データ)をDi(x,y,z)とする。また,各測定データDiについて,それぞれどの直線fnに対応するかを決めておく。   Here, it is assumed that measurement data (position data of feature points) in a slice having a height Z = h1 is Di (x, y, z). In addition, for each measurement data Di, it is determined which line fn corresponds to each measurement data Di.

各直線fnについて,対応する各測定データDiとの距離を計測し,直線fnに対応するすべての測定データDiとの距離の積算値Sn(n=1,2,3,4;直線fnに対応)を求める。さらに,Snの積算値ΣSn(=S1+S2+S3+S4)を求め,Sh1とする。すなわち,高さZがZ=h1の場合の距離値をSh1=ΣSnとする。同様に高さを変えたZ=hm(m=1,2,... )の場合の距離値をShmとする。   For each straight line fn, the distance to each corresponding measurement data Di is measured, and integrated values Sn (n = 1, 2, 3, 4; corresponding to the straight line fn) of all the measurement data Di corresponding to the straight line fn ) Further, an integrated value ΣSn (= S1 + S2 + S3 + S4) of Sn is obtained and set as Sh1. That is, the distance value when the height Z is Z = h1 is set to Sh1 = ΣSn. Similarly, the distance value in the case of Z = hm (m = 1, 2,...) With the height changed is assumed to be Shm.

さらに,それらの距離値Shmの積算値をS(u,v,q)=ΣShj(j=1,... ,m)とする。ここで,(u,v,q)は,テンプレートの初期位置を(0,0,0)とした場合のオフセット量である。このようにして求めたS(u,v,q)が最小となる(u,v,q)が,求めるマッチング位置となる。   Further, the integrated value of these distance values Shm is S (u, v, q) = ΣShj (j = 1,..., M). Here, (u, v, q) is an offset amount when the initial position of the template is (0, 0, 0). The matching position to be obtained is (u, v, q) in which S (u, v, q) obtained in this way is minimized.

この例では,アライメントマークを撮像した画像上の特徴点を用いて3Dテンプレートデータとのマッチング位置を求めたが,同様にアライメントマークのエッジの特徴(線分)からマッチング位置を求めることもできる。   In this example, the matching position with the 3D template data is obtained using the feature point on the image obtained by imaging the alignment mark. Similarly, the matching position can be obtained from the feature (line segment) of the edge of the alignment mark.

〔実施の形態3〕
本発明の実施の形態3では,前述の実施の形態1のアライメントマーク認識方法において,撮像により得られた画像がカラー画像であるものとし,得られたカラー画像をR・G・Bの3原色に色分解して3つの画像を生成し,R・G・Bそれぞれの画像について前述の実施の形態1におけるアライメントマークの認識処理を行い,得られたR・G・Bのそれぞれの相関結果をもとに,アライメントマークの位置を認識する。
[Embodiment 3]
In Embodiment 3 of the present invention, in the alignment mark recognition method of Embodiment 1 described above, it is assumed that the image obtained by imaging is a color image, and the obtained color image is represented by the three primary colors R, G, and B. Color separation into three images to generate an alignment mark recognition process in the first embodiment described above for each of the R, G, and B images, and the obtained correlation results of R, G, and B are obtained. Based on the alignment mark position.

図9は,カラー画像を3原色に分割する場合の例を示す図である。本実施の形態3では,前述の実施の形態1における図2のステップS12において得られた画像(この場合は,カラー画像)は,図9に示すように,プレーンR(赤の画像),プレーンG(緑の画像),プレーンB(青の画像)の3原色の画像にそれぞれ分解される。   FIG. 9 is a diagram illustrating an example in which a color image is divided into three primary colors. In the third embodiment, the image (in this case, the color image) obtained in step S12 in FIG. 2 in the first embodiment is the plane R (red image), the plane, as shown in FIG. G (green image) and plane B (blue image) are respectively decomposed into three primary color images.

得られたそれぞれの画像について,アライメントマークの形状を求め(図2のステップS13),測定データを測定データ記憶部14に格納する(図2のステップS14)。本実施の形態3でも,前述の実施の形態1と同様に,複数のスライスレベルでのアライメントマークの形状をR・G・Bの各画像ごとに求め,その測定データを測定データ記憶部14に格納する。   For each obtained image, the shape of the alignment mark is obtained (step S13 in FIG. 2), and the measurement data is stored in the measurement data storage unit 14 (step S14 in FIG. 2). Also in the third embodiment, as in the first embodiment, the shape of alignment marks at a plurality of slice levels is obtained for each of R, G, and B images, and the measurement data is stored in the measurement data storage unit 14. Store.

測定データ記憶部14に格納された測定データから,各色(R・G・B)ごとの3Dモデルを生成し(図2のステップS17),各色の3Dモデルごとに3Dテンプレートデータとの相関処理を行い(図2のステップS18),その各色ごとの相関結果をもとにアライメントマークの位置を認識する。   A 3D model for each color (R, G, B) is generated from the measurement data stored in the measurement data storage unit 14 (step S17 in FIG. 2), and correlation processing with 3D template data is performed for each 3D model of each color. (Step S18 in FIG. 2), and the position of the alignment mark is recognized based on the correlation result for each color.

例えば,各色ごとの相関処理により3つの相関結果(最も相関がある位置)を求め,それらの平均を取ることにより得られた位置をアライメントマークの位置として認識してもよいし,上記の式(1)で各色ごとの最小となるD(u,v,q,α,β,γ)を求め,その3つのD(u,v,q,α,β,γ)の中で最も小さいD(u,v,q,α,β,γ)における位置をアライメントマークの位置として認識してもよい。   For example, three correlation results (positions with the highest correlation) are obtained by correlation processing for each color, and the position obtained by taking the average of them may be recognized as the position of the alignment mark, or the above formula ( In 1), the minimum D (u, v, q, α, β, γ) for each color is obtained, and the smallest D (u, v, q, α, β, γ) among the three D (u, v, q, α, β, γ) is obtained. The position at u, v, q, α, β, γ) may be recognized as the position of the alignment mark.

〔実施の形態4〕
本発明の実施の形態4では,前述の実施の形態1,実施の形態2,実施の形態3において,カメラの高さを変えずに,レンズのフォーカス位置を変えて複数の画像を撮像し,前述の実施の形態1,実施の形態3におけるアライメントマークの3Dモデルや前述の実施の形態2におけるアライメントマークの特徴点の位置を求め,3Dテンプレートデータと比較することにより,アライメントマークの位置を認識する。
[Embodiment 4]
In Embodiment 4 of the present invention, a plurality of images are captured by changing the lens focus position without changing the height of the camera in Embodiments 1, 2, and 3 described above. The position of the alignment mark in the first and third embodiments described above and the position of the feature point of the alignment mark in the second embodiment described above are obtained and compared with the 3D template data to recognize the position of the alignment mark. To do.

この場合,図1におけるカメラ位置制御部13や図5におけるカメラ位置制御部43は,カメラの位置を制御する替わりに,レンズのフォーカス位置を制御する。   In this case, the camera position control unit 13 in FIG. 1 and the camera position control unit 43 in FIG. 5 control the focus position of the lens instead of controlling the camera position.

〔実施の形態5〕
本発明の実施の形態5では,複数のカメラを用いてアライメントマークの画像を撮像し,得られた複数のカメラで撮像された画像を利用して,前述の実施の形態1,実施の形態3におけるアライメントマークの3Dモデルや前述の実施の形態2におけるアライメントマークの特徴点を求め,3Dテンプレートデータと比較することにより,アライメントマークの位置を認識する。
[Embodiment 5]
In the fifth embodiment of the present invention, images of the alignment mark are picked up using a plurality of cameras, and the images picked up by the plurality of cameras obtained are used, and the first and third embodiments described above are used. The position of the alignment mark is recognized by obtaining the 3D model of the alignment mark and the feature points of the alignment mark in the second embodiment and comparing them with the 3D template data.

図10は,実施の形態5における複数カメラによる撮像の例を示す図である。図10の例では,撮像ユニット20a,撮像ユニット20bの2台のカメラによりアライメントマークを撮像している。なお,カメラの数は,3台以上であってもよい。   FIG. 10 is a diagram illustrating an example of imaging by a plurality of cameras according to the fifth embodiment. In the example of FIG. 10, the alignment mark is imaged by two cameras, the imaging unit 20a and the imaging unit 20b. Note that the number of cameras may be three or more.

例えば,アライメントマークの上面方向から撮像する1台のカメラとアライメントマークの4側面を斜め方向から撮像する4台のカメラとの合計5台のカメラを用いてアライメントマークを撮像し,得られた画像からアライメントマークの形状を特定したり,エッジ部分や特徴点の位置を求めたりすることにより,アライメントマークの位置を認識する。なお,この例では,カメラごとに求められた位置は,共通の空間座標に置き換えられ,1つのデータとして統合されるものとする。   For example, an image obtained by imaging an alignment mark using a total of five cameras, one camera that images from the top surface of the alignment mark and four cameras that image four sides of the alignment mark from an oblique direction. The position of the alignment mark is recognized by specifying the shape of the alignment mark from the above, or obtaining the position of the edge portion or feature point. In this example, it is assumed that the position obtained for each camera is replaced with a common spatial coordinate and integrated as one data.

以上,本発明の実施の形態について,いくつか例を挙げて説明した。このような,アライメントマークの認識技術は,ボンディング装置等に用いることができる。   The embodiments of the present invention have been described with some examples. Such alignment mark recognition technology can be used in a bonding apparatus or the like.

プリント基板の上にLSI等の半導体チップを接合するボンディング装置には,上から圧力をかけて金属面と金属面とを接合するものや,超音波を使って金属面と金属面とを接合するものなどがある。   Bonding equipment that joins semiconductor chips such as LSI on a printed circuit board joins a metal surface and a metal surface by applying pressure from above, or joins a metal surface and a metal surface using ultrasonic waves. There are things.

図11は,超音波接合装置の構成例を示す図である。超音波を使って金属面と金属面とを接合する超音波接合装置は,プリント基板に接合する半導体チップの上からある程度の圧力をかけ,50kHz〜100kHz程度で振動させ,金属と金属とを融合させて接合する。   FIG. 11 is a diagram illustrating a configuration example of an ultrasonic bonding apparatus. Ultrasonic bonding equipment that joins metal surfaces to each other using ultrasonic waves applies a certain amount of pressure from the top of the semiconductor chip to be bonded to the printed circuit board, vibrates at about 50 kHz to 100 kHz, and fuses the metal and metal. Let them join.

図11の例に示す超音波接合装置は,加圧機構101,加圧制御部102,超音波ヘッド103,超音波発振器104,アライメント機構105,アライメント機構制御部106,撮像ユニット107,撮像ユニット移動機構108,撮像ユニット移動機構制御部109,画像処理部110,メインコントローラ111から構成される。   The ultrasonic bonding apparatus shown in the example of FIG. 11 includes a pressure mechanism 101, a pressure control unit 102, an ultrasonic head 103, an ultrasonic oscillator 104, an alignment mechanism 105, an alignment mechanism control unit 106, an imaging unit 107, and an imaging unit movement. A mechanism 108, an imaging unit moving mechanism control unit 109, an image processing unit 110, and a main controller 111 are included.

加圧機構101は,超音波ヘッド103と連結し,指定された力で加圧する。加圧制御部102は,加圧機構101における圧力,移動速度,加速度等の各種動作を制御する。超音波ヘッド103は,ヘッド先端に半導体チップ吸着機構を持ち,高周波で発振する。超音波発振器104は,超音波ヘッド103を指定した周波数,振幅で発振させる。   The pressurizing mechanism 101 is connected to the ultrasonic head 103 and pressurizes with a designated force. The pressurization control unit 102 controls various operations such as pressure, moving speed, and acceleration in the pressurization mechanism 101. The ultrasonic head 103 has a semiconductor chip suction mechanism at the head tip and oscillates at a high frequency. The ultrasonic oscillator 104 oscillates the ultrasonic head 103 with a specified frequency and amplitude.

アライメント機構105は,X軸,Y軸,θ軸の精密ステージと球面座とから構成され,プリント基板を上面に搭載・固定し,アライメントする。図1,図5におけるアライメントステージ30が,このアライメント機構105にあたる。アライメント機構制御部106は,アライメント機構105の位置・姿勢を制御する。   The alignment mechanism 105 includes an X-axis, Y-axis, and θ-axis precision stage and a spherical seat, and a printed circuit board is mounted and fixed on the upper surface for alignment. The alignment stage 30 in FIGS. 1 and 5 corresponds to the alignment mechanism 105. The alignment mechanism control unit 106 controls the position / posture of the alignment mechanism 105.

撮像ユニット107は,レンズ,照明,カメラ等から構成され,超音波ヘッド103に吸着した半導体チップのアライメントマークや,アライメント機構105に搭載したプリント基板のアライメントマークを撮像する。図1,図5,図10における撮像ユニット20が,この撮像ユニット107にあたる。   The imaging unit 107 includes a lens, an illumination, a camera, and the like, and images a semiconductor chip alignment mark attracted to the ultrasonic head 103 and a printed circuit board alignment mark mounted on the alignment mechanism 105. The imaging unit 20 in FIGS. 1, 5, and 10 corresponds to the imaging unit 107.

撮像ユニット移動機構108は,撮像ユニット107の位置を調整するためにX軸,Y軸,Z軸の精密ステージから構成され,アライメント機構105に固定されたプリント基板のアライメントマークの位置や,超音波ヘッド103に吸着された半導体チップのアライメントマークの位置に,撮像ユニット107を移動する。撮像ユニット移動機構制御部109は,撮像ユニット移動機構108の位置を制御する。   The imaging unit moving mechanism 108 includes X-axis, Y-axis, and Z-axis precision stages for adjusting the position of the imaging unit 107. The position of the alignment mark on the printed circuit board fixed to the alignment mechanism 105, ultrasonic waves, and the like. The image pickup unit 107 is moved to the position of the alignment mark of the semiconductor chip adsorbed by the head 103. The imaging unit moving mechanism control unit 109 controls the position of the imaging unit moving mechanism 108.

画像処理部110は,撮像ユニット107で撮像された画像から,アライメントマークの位置の計測等を行う。図1,図5における画像処理部10,40が,この画像処理部110にあたる。   The image processing unit 110 measures the position of the alignment mark from the image captured by the imaging unit 107. The image processing units 10 and 40 in FIGS. 1 and 5 correspond to the image processing unit 110.

メインコントローラ111は,加圧制御部102,超音波発振器104,画像処理部110,撮像ユニット移動機構制御部109,アライメント機構制御部106を管理し,超音波接合装置全体を制御する。   The main controller 111 manages the pressure control unit 102, the ultrasonic oscillator 104, the image processing unit 110, the imaging unit moving mechanism control unit 109, and the alignment mechanism control unit 106, and controls the entire ultrasonic bonding apparatus.

以上説明した本発明の実施の形態の特徴をまとめると,以下のとおりとなる。   The characteristics of the embodiment of the present invention described above are summarized as follows.

(付記1)アライメントマークの位置を認識するためのアライメントマーク認識方法であって,
カメラの高さを変えて撮像された複数枚のアライメントマークの画像を入力する過程と,
前記複数枚のアライメントマークの画像から,各カメラの高さに応じた複数のスライスレベルにおけるアライメントマークの形状を取得する過程と,
前記取得した複数のスライスレベルにおけるアライメントマークの形状から,アライメントマークの3次元のモデルを生成する過程と,
前記生成されたアライメントマークの3次元のモデルと,あらかじめ記憶装置に登録されたアライメントマークの3次元のテンプレートデータとを照合することにより,前記3次元のモデルと前記3次元のテンプレートデータとのマッチング位置を求めてアライメントマークの位置を認識する過程とを有する
ことを特徴とするアライメントマーク認識方法。
(Appendix 1) An alignment mark recognition method for recognizing the position of an alignment mark,
The process of inputting images of multiple alignment marks taken at different camera heights,
Acquiring the shape of the alignment mark at a plurality of slice levels according to the height of each camera from the images of the plurality of alignment marks;
Generating a three-dimensional model of the alignment mark from the acquired shape of the alignment mark at a plurality of slice levels;
The three-dimensional model and the three-dimensional template data are matched by collating the generated three-dimensional model of the alignment mark with the alignment mark three-dimensional template data registered in the storage device in advance. And a process for recognizing the position of the alignment mark by obtaining the position.

(付記2)付記1に記載のアライメントマーク認識方法において,
前記入力された複数枚のアライメントマークの画像を,それぞれの画像ごとに複数の色の画像に分解し,各色ごとのアライメントマークの複数の画像を生成する過程を有し,
前記複数のスライスレベルにおけるアライメントマークの形状を取得する過程では,前記各色ごとのアライメントマークの複数の画像から,各色ごとの複数のスライスレベルにおけるアライメントマークの形状を取得し,
前記アライメントマークの3次元のモデルを生成する過程では,前記取得した各色ごとの複数のスライスレベルにおけるアライメントマークの形状から,各色ごとのアライメントマークの3次元のモデルを生成し,
前記アライメントマークの位置を認識する過程では,各色ごとに生成された前記アライメントマークの3次元のモデルとあらかじめ記憶装置に登録されたアライメントマークの3次元のテンプレートデータとを照合し,その照合結果をもとにアライメントマークの位置を認識する
ことを特徴とするアライメントマーク認識方法。
(Appendix 2) In the alignment mark recognition method according to Appendix 1,
Separating the input plurality of alignment mark images into a plurality of color images for each image, and generating a plurality of alignment mark images for each color;
In the process of obtaining the shape of the alignment mark at the plurality of slice levels, the shape of the alignment mark at the plurality of slice levels for each color is obtained from the plurality of images of the alignment mark for each color,
In the process of generating a three-dimensional model of the alignment mark, a three-dimensional model of the alignment mark for each color is generated from the shape of the alignment mark at a plurality of slice levels for each of the acquired colors.
In the process of recognizing the position of the alignment mark, the three-dimensional model of the alignment mark generated for each color is collated with the three-dimensional template data of the alignment mark registered in the storage device in advance, and the collation result is obtained. An alignment mark recognition method characterized by recognizing the position of an alignment mark.

(付記3)アライメントマークの位置を認識するためのアライメントマーク認識方法であって,
カメラの高さを変えて撮像された複数枚のアライメントマークの画像を入力する過程と,
前記複数枚のアライメントマークの画像から,各カメラの高さに応じた複数のスライスレベルにおけるアライメントマークの特徴点またはエッジを取得する過程と,
前記取得した複数のスライスレベルにおけるアライメントマークの特徴点またはエッジの位置と,あらかじめ記憶装置に登録されたアライメントマークの3次元のテンプレートデータとを照合することにより,前記特徴点またはエッジの位置と前記3次元のテンプレートデータとのマッチング位置を求めてアライメントマークの位置を認識する過程とを有する
ことを特徴とするアライメントマーク認識方法。
(Appendix 3) An alignment mark recognition method for recognizing the position of an alignment mark,
The process of inputting images of multiple alignment marks taken at different camera heights,
Obtaining a feature point or edge of the alignment mark at a plurality of slice levels according to the height of each camera from the images of the plurality of alignment marks;
By comparing the acquired feature point or edge position of the alignment mark at a plurality of slice levels with the three-dimensional template data of the alignment mark registered in the storage device in advance, And a step of recognizing the position of the alignment mark by obtaining a matching position with the three-dimensional template data.

(付記4)付記3に記載のアライメントマーク認識方法において,
前記入力された複数枚のアライメントマークの画像を,それぞれの画像ごとに複数の色の画像に分解し,各色ごとのアライメントマークの複数の画像を生成する過程を有し,
前記複数のスライスレベルにおけるアライメントマークの特徴点またはエッジを取得する過程では,前記各色ごとのアライメントマークの複数の画像から,各色ごとの複数のスライスレベルにおけるアライメントマークの特徴点またはエッジを取得し,
前記アライメントマークの位置を認識する過程では,前記色ごとに取得されたアライメントマークの特徴点またはエッジの位置と,あらかじめ記憶装置に登録されたアライメントマークの3次元のテンプレートデータとを照合し,その照合結果をもとにアライメントマークの位置を認識する
ことを特徴とするアライメントマーク認識方法。
(Appendix 4) In the alignment mark recognition method described in appendix 3,
Separating the input plurality of alignment mark images into a plurality of color images for each image, and generating a plurality of alignment mark images for each color;
In the process of obtaining the feature points or edges of the alignment marks at the plurality of slice levels, the feature points or edges of the alignment marks at the plurality of slice levels for each color are obtained from the plurality of images of the alignment marks for each color,
In the process of recognizing the position of the alignment mark, the position of the feature point or edge of the alignment mark acquired for each color is collated with the three-dimensional template data of the alignment mark registered in the storage device in advance. An alignment mark recognition method characterized by recognizing the position of an alignment mark based on a collation result.

(付記5)付記1から付記4までのいずれかに記載のアライメントマーク認識方法において,
前記カメラの高さを変えて撮像された複数枚のアライメントマークの画像を入力する代わりに,カメラのレンズのフォーカス位置を変えて撮像された複数枚のアライメントマークの画像を入力し,
前記複数のスライスレベルを,各カメラの高さに代えて前記フォーカス位置に基づいて決定する
ことを特徴とするアライメントマーク認識方法。
(Appendix 5) In the alignment mark recognition method according to any one of Appendix 1 to Appendix 4,
Instead of inputting images of a plurality of alignment marks imaged by changing the height of the camera, inputting images of a plurality of alignment marks imaged by changing the focus position of the camera lens,
The alignment mark recognition method, wherein the plurality of slice levels are determined based on the focus position instead of the height of each camera.

(付記6)付記1から付記5までのいずれかに記載のアライメントマーク認識方法において,
前記複数枚のアライメントマークの画像を入力する過程では,
複数台のカメラで撮像された画像を入力する
ことを特徴とするアライメントマーク認識方法。
(Appendix 6) In the alignment mark recognition method according to any one of appendices 1 to 5,
In the process of inputting the images of the plurality of alignment marks,
An alignment mark recognition method comprising inputting images picked up by a plurality of cameras.

(付記7)アライメントマークの位置を認識するためのアライメントマーク認識装置であって,
カメラの高さを変えて撮像された複数枚のアライメントマークの画像を入力する手段と,
前記複数枚のアライメントマークの画像から,各カメラの高さに応じた複数のスライスレベルにおけるアライメントマークの形状を取得する手段と,
前記取得した複数のスライスレベルにおけるアライメントマークの形状から,アライメントマークの3次元のモデルを生成する手段と,
前記生成されたアライメントマークの3次元のモデルと,あらかじめ記憶装置に登録されたアライメントマークの3次元のテンプレートデータとを照合することにより,前記3次元のモデルと前記3次元のテンプレートデータとのマッチング位置を求めてアライメントマークの位置を認識する手段とを備える
ことを特徴とするアライメントマーク認識装置。
(Appendix 7) An alignment mark recognition device for recognizing the position of an alignment mark,
Means for inputting images of a plurality of alignment marks taken at different camera heights;
Means for acquiring the shape of the alignment mark at a plurality of slice levels according to the height of each camera from the images of the plurality of alignment marks;
Means for generating a three-dimensional model of the alignment mark from the acquired shape of the alignment mark at a plurality of slice levels;
The three-dimensional model and the three-dimensional template data are matched by collating the generated three-dimensional model of the alignment mark with the alignment mark three-dimensional template data registered in the storage device in advance. An alignment mark recognition apparatus comprising: means for obtaining a position and recognizing a position of the alignment mark.

(付記8)アライメントマークの位置を認識するためのアライメントマーク認識装置であって,
カメラの高さを変えて撮像された複数枚のアライメントマークの画像を入力する手段と,
前記複数枚のアライメントマークの画像から,各カメラの高さに応じた複数のスライスレベルにおけるアライメントマークの特徴点またはエッジを取得する手段と,
前記取得した複数のスライスレベルにおけるアライメントマークの特徴点またはエッジの位置と,あらかじめ記憶装置に登録されたアライメントマークの3次元のテンプレートデータとを照合することにより,前記特徴点またはエッジの位置と前記3次元のテンプレートデータとのマッチング位置を求めてアライメントマークの位置を認識する手段とを備える
ことを特徴とするアライメントマーク認識装置。
(Appendix 8) An alignment mark recognition device for recognizing the position of an alignment mark,
Means for inputting images of a plurality of alignment marks taken at different camera heights;
Means for acquiring feature points or edges of the alignment mark at a plurality of slice levels according to the height of each camera from the images of the plurality of alignment marks;
By comparing the acquired feature point or edge position of the alignment mark at a plurality of slice levels with the three-dimensional template data of the alignment mark registered in the storage device in advance, An alignment mark recognition apparatus comprising: means for obtaining a matching position with three-dimensional template data and recognizing the position of the alignment mark.

(付記9)アライメントマークを用いて第1の接合対象と第2の接合対象との位置合わせを行い,それらを接合する接合装置であって,
カメラの高さを変えて前記第1または第2の接合対象上のアライメントマークの画像を複数枚撮像する手段と,
前記撮像された複数枚のアライメントマークの画像を入力する手段と,
前記複数枚のアライメントマークの画像から,各カメラの高さに応じた複数のスライスレベルにおけるアライメントマークの形状を取得する手段と,
前記取得した複数のスライスレベルにおけるアライメントマークの形状から,アライメントマークの3次元のモデルを生成する手段と,
前記生成されたアライメントマークの3次元のモデルと,あらかじめ記憶装置に登録されたアライメントマークの3次元のテンプレートデータとを照合することにより,前記3次元のモデルと前記3次元のテンプレートデータとのマッチング位置を求めてアライメントマークの位置を認識する手段と,
前記認識したアライメントマークの位置に基づき,前記第1の接合対象と前記第2の接合対象との位置合わせを行う手段とを備える
ことを特徴とする接合装置。
(Additional remark 9) It is the joining apparatus which performs alignment with the 1st joining object and the 2nd joining object using an alignment mark, and joins them,
Means for taking a plurality of images of alignment marks on the first or second joining object by changing the height of the camera;
Means for inputting images of the plurality of imaged alignment marks;
Means for acquiring the shape of the alignment mark at a plurality of slice levels according to the height of each camera from the images of the plurality of alignment marks;
Means for generating a three-dimensional model of the alignment mark from the acquired shape of the alignment mark at a plurality of slice levels;
The three-dimensional model and the three-dimensional template data are matched by collating the generated three-dimensional model of the alignment mark with the alignment mark three-dimensional template data registered in the storage device in advance. Means for recognizing the position of the alignment mark by determining the position;
A joining apparatus comprising: means for aligning the first joining object and the second joining object based on the recognized position of the alignment mark.

(付記10)アライメントマークを用いて第1の接合対象と第2の接合対象との位置合わせを行い,それらを接合する接合装置であって,
カメラの高さを変えて前記第1または第2の接合対象上のアライメントマークの画像を複数枚撮像する手段と,
前記撮像された複数枚のアライメントマークの画像を入力する手段と,
前記複数枚のアライメントマークの画像から,各カメラの高さに応じた複数のスライスレベルにおけるアライメントマークの特徴点またはエッジを取得する手段と,
前記取得した複数のスライスレベルにおけるアライメントマークの特徴点またはエッジの位置と,あらかじめ記憶装置に登録されたアライメントマークの3次元のテンプレートデータとを照合することにより,前記特徴点またはエッジの位置と前記3次元のテンプレートデータとのマッチング位置を求めてアライメントマークの位置を認識する手段と,
前記認識したアライメントマークの位置に基づき,前記第1の接合対象と前記第2の接合対象との位置合わせを行う手段とを備える
ことを特徴とする接合装置。
(Additional remark 10) It is the joining apparatus which performs alignment with the 1st joining object and the 2nd joining object using an alignment mark, and joins them,
Means for taking a plurality of images of alignment marks on the first or second joining object by changing the height of the camera;
Means for inputting images of the plurality of imaged alignment marks;
Means for acquiring feature points or edges of the alignment mark at a plurality of slice levels according to the height of each camera from the images of the plurality of alignment marks;
By comparing the acquired feature point or edge position of the alignment mark at a plurality of slice levels with the three-dimensional template data of the alignment mark registered in the storage device in advance, Means for recognizing the position of the alignment mark by obtaining a matching position with the three-dimensional template data;
A joining apparatus comprising: means for aligning the first joining object and the second joining object based on the recognized position of the alignment mark.

本発明の実施の形態1におけるアライメントマーク認識装置の構成例を示す図である。It is a figure which shows the structural example of the alignment mark recognition apparatus in Embodiment 1 of this invention. 本実施の形態1におけるアライメントマーク認識処理フローチャートである。It is an alignment mark recognition process flowchart in this Embodiment 1. 本実施の形態1におけるアライメントマークの3Dモデルの例を説明する図である。It is a figure explaining the example of the 3D model of the alignment mark in this Embodiment 1. FIG. 3Dテンプレートデータの例を説明する図である。It is a figure explaining the example of 3D template data. 本発明の実施の形態2におけるアライメントマーク認識装置の構成例を示す図である。It is a figure which shows the structural example of the alignment mark recognition apparatus in Embodiment 2 of this invention. 本実施の形態2におけるアライメントマーク認識処理フローチャートである。It is an alignment mark recognition process flowchart in this Embodiment 2. 局所相関演算の例を説明する図である。It is a figure explaining the example of a local correlation calculation. 本実施の形態2における測定データと3Dテンプレートデータとのマッチング処理を説明する図である。It is a figure explaining the matching process of the measurement data in this Embodiment 2, and 3D template data. カラー画像を3原色に分割する場合の例を示す図である。It is a figure which shows the example in the case of dividing | segmenting a color image into three primary colors. 実施の形態5における複数カメラによる撮像の例を示す図である。10 is a diagram illustrating an example of imaging by a plurality of cameras in Embodiment 5. FIG. 超音波接合装置の構成例を示す図である。It is a figure which shows the structural example of an ultrasonic bonding apparatus. アライメントマークの例を示す図である。It is a figure which shows the example of an alignment mark. アライメントマークのスライスイメージを示す図である。It is a figure which shows the slice image of an alignment mark.

符号の説明Explanation of symbols

10 画像処理部
11 画像入力部
12 形状認識処理部
13 カメラ位置制御部
14 測定データ記憶部
15 3Dモデル生成部
16 3D相関演算部
17 3Dテンプレートデータ記憶部
20 撮像ユニット
30 アライメントステージ
40 画像処理部
41 画像入力部
42 特徴点認識処理部
43 カメラ位置制御部
44 測定データ記憶部
45 マッチング処理部
46 3Dテンプレートデータ記憶部
101 加圧機構
102 加圧制御部
103 超音波ヘッド
104 超音波発振器
105 アライメント機構
106 アライメント機構制御部
107 撮像ユニット
108 撮像ユニット移動機構
109 撮像ユニット移動機構制御部
110 画像処理部
111 メインコントローラ
DESCRIPTION OF SYMBOLS 10 Image processing part 11 Image input part 12 Shape recognition process part 13 Camera position control part 14 Measurement data storage part 15 3D model generation part 16 3D correlation calculation part 17 3D template data storage part 20 Imaging unit 30 Alignment stage 40 Image processing part 41 Image Input Unit 42 Feature Point Recognition Processing Unit 43 Camera Position Control Unit 44 Measurement Data Storage Unit 45 Matching Processing Unit 46 3D Template Data Storage Unit 101 Pressure Mechanism 102 Pressure Control Unit 103 Ultrasonic Head 104 Ultrasonic Oscillator 105 Alignment Mechanism 106 Alignment mechanism control unit 107 Imaging unit 108 Imaging unit moving mechanism 109 Imaging unit moving mechanism control unit 110 Image processing unit 111 Main controller

Claims (5)

アライメントマークの位置を認識するためのアライメントマーク認識方法であって,
カメラの高さを変えて撮像された複数枚のアライメントマークの画像を入力する過程と,
前記複数枚のアライメントマークの画像から,各カメラの高さに応じた複数のスライスレベルにおけるアライメントマークの形状を取得する過程と,
前記取得した複数のスライスレベルにおけるアライメントマークの形状から,アライメントマークの3次元のモデルを生成する過程と,
前記生成されたアライメントマークの3次元のモデルと,あらかじめ記憶装置に登録されたアライメントマークの3次元のテンプレートデータとを照合することにより,前記3次元のモデルと前記3次元のテンプレートデータとのマッチング位置を求めてアライメントマークの位置を認識する過程とを有する
ことを特徴とするアライメントマーク認識方法。
An alignment mark recognition method for recognizing the position of an alignment mark,
The process of inputting images of multiple alignment marks taken at different camera heights,
Acquiring the shape of the alignment mark at a plurality of slice levels according to the height of each camera from the images of the plurality of alignment marks;
Generating a three-dimensional model of the alignment mark from the acquired shape of the alignment mark at a plurality of slice levels;
The three-dimensional model and the three-dimensional template data are matched by collating the generated three-dimensional model of the alignment mark with the alignment mark three-dimensional template data registered in the storage device in advance. And a process for recognizing the position of the alignment mark by obtaining the position.
アライメントマークの位置を認識するためのアライメントマーク認識方法であって,
カメラの高さを変えて撮像された複数枚のアライメントマークの画像を入力する過程と,
前記複数枚のアライメントマークの画像から,各カメラの高さに応じた複数のスライスレベルにおけるアライメントマークの特徴点またはエッジを取得する過程と,
前記取得した複数のスライスレベルにおけるアライメントマークの特徴点またはエッジの位置と,あらかじめ記憶装置に登録されたアライメントマークの3次元のテンプレートデータとを照合することにより,前記特徴点またはエッジの位置と前記3次元のテンプレートデータとのマッチング位置を求めてアライメントマークの位置を認識する過程とを有する
ことを特徴とするアライメントマーク認識方法。
An alignment mark recognition method for recognizing the position of an alignment mark,
The process of inputting images of multiple alignment marks taken at different camera heights,
Obtaining a feature point or edge of the alignment mark at a plurality of slice levels according to the height of each camera from the images of the plurality of alignment marks;
By comparing the acquired feature point or edge position of the alignment mark at a plurality of slice levels with the three-dimensional template data of the alignment mark registered in the storage device in advance, And a step of recognizing the position of the alignment mark by obtaining a matching position with the three-dimensional template data.
アライメントマークの位置を認識するためのアライメントマーク認識装置であって,
カメラの高さを変えて撮像された複数枚のアライメントマークの画像を入力する手段と,
前記複数枚のアライメントマークの画像から,各カメラの高さに応じた複数のスライスレベルにおけるアライメントマークの形状を取得する手段と,
前記取得した複数のスライスレベルにおけるアライメントマークの形状から,アライメントマークの3次元のモデルを生成する手段と,
前記生成されたアライメントマークの3次元のモデルと,あらかじめ記憶装置に登録されたアライメントマークの3次元のテンプレートデータとを照合することにより,前記3次元のモデルと前記3次元のテンプレートデータとのマッチング位置を求めてアライメントマークの位置を認識する手段とを備える
ことを特徴とするアライメントマーク認識装置。
An alignment mark recognition device for recognizing the position of an alignment mark,
Means for inputting images of a plurality of alignment marks taken at different camera heights;
Means for acquiring the shape of the alignment mark at a plurality of slice levels according to the height of each camera from the images of the plurality of alignment marks;
Means for generating a three-dimensional model of the alignment mark from the acquired shape of the alignment mark at a plurality of slice levels;
The three-dimensional model and the three-dimensional template data are matched by collating the generated three-dimensional model of the alignment mark with the alignment mark three-dimensional template data registered in the storage device in advance. An alignment mark recognition apparatus comprising: means for obtaining a position and recognizing a position of the alignment mark.
アライメントマークの位置を認識するためのアライメントマーク認識装置であって,
カメラの高さを変えて撮像された複数枚のアライメントマークの画像を入力する手段と,
前記複数枚のアライメントマークの画像から,各カメラの高さに応じた複数のスライスレベルにおけるアライメントマークの特徴点またはエッジを取得する手段と,
前記取得した複数のスライスレベルにおけるアライメントマークの特徴点またはエッジの位置と,あらかじめ記憶装置に登録されたアライメントマークの3次元のテンプレートデータとを照合することにより,前記特徴点またはエッジの位置と前記3次元のテンプレートデータとのマッチング位置を求めてアライメントマークの位置を認識する手段とを備える
ことを特徴とするアライメントマーク認識装置。
An alignment mark recognition device for recognizing the position of an alignment mark,
Means for inputting images of a plurality of alignment marks taken at different camera heights;
Means for acquiring feature points or edges of the alignment mark at a plurality of slice levels according to the height of each camera from the images of the plurality of alignment marks;
By comparing the acquired feature point or edge position of the alignment mark at a plurality of slice levels with the three-dimensional template data of the alignment mark registered in the storage device in advance, An alignment mark recognition apparatus comprising: means for obtaining a matching position with three-dimensional template data and recognizing the position of the alignment mark.
アライメントマークを用いて第1の接合対象と第2の接合対象との位置合わせを行い,それらを接合する接合装置であって,
カメラの高さを変えて前記第1または第2の接合対象上のアライメントマークの画像を複数枚撮像する手段と,
前記撮像された複数枚のアライメントマークの画像を入力する手段と,
前記複数枚のアライメントマークの画像から,各カメラの高さに応じた複数のスライスレベルにおけるアライメントマークの形状を取得する手段と,
前記取得した複数のスライスレベルにおけるアライメントマークの形状から,アライメントマークの3次元のモデルを生成する手段と,
前記生成されたアライメントマークの3次元のモデルと,あらかじめ記憶装置に登録されたアライメントマークの3次元のテンプレートデータとを照合することにより,前記3次元のモデルと前記3次元のテンプレートデータとのマッチング位置を求めてアライメントマークの位置を認識する手段と,
前記認識したアライメントマークの位置に基づき,前記第1の接合対象と前記第2の接合対象との位置合わせを行う手段とを備える
ことを特徴とする接合装置。
A joining apparatus that performs alignment between a first joining object and a second joining object using an alignment mark, and joins them.
Means for taking a plurality of images of alignment marks on the first or second joining object by changing the height of the camera;
Means for inputting images of the plurality of imaged alignment marks;
Means for acquiring the shape of the alignment mark at a plurality of slice levels according to the height of each camera from the images of the plurality of alignment marks;
Means for generating a three-dimensional model of the alignment mark from the acquired shape of the alignment mark at a plurality of slice levels;
The three-dimensional model and the three-dimensional template data are matched by collating the generated three-dimensional model of the alignment mark with the alignment mark three-dimensional template data registered in the storage device in advance. Means for recognizing the position of the alignment mark by determining the position;
A joining apparatus comprising: means for aligning the first joining object and the second joining object based on the recognized position of the alignment mark.
JP2004352475A 2004-12-06 2004-12-06 Alignment mark recognition method, alignment mark recognition device and joining device Expired - Fee Related JP4382649B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004352475A JP4382649B2 (en) 2004-12-06 2004-12-06 Alignment mark recognition method, alignment mark recognition device and joining device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004352475A JP4382649B2 (en) 2004-12-06 2004-12-06 Alignment mark recognition method, alignment mark recognition device and joining device

Publications (2)

Publication Number Publication Date
JP2006165159A JP2006165159A (en) 2006-06-22
JP4382649B2 true JP4382649B2 (en) 2009-12-16

Family

ID=36666841

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004352475A Expired - Fee Related JP4382649B2 (en) 2004-12-06 2004-12-06 Alignment mark recognition method, alignment mark recognition device and joining device

Country Status (1)

Country Link
JP (1) JP4382649B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5054949B2 (en) * 2006-09-06 2012-10-24 ルネサスエレクトロニクス株式会社 Manufacturing method of semiconductor device
JP4809288B2 (en) * 2007-05-15 2011-11-09 株式会社アルバック Alignment method, thin film formation method
CN116643505B (en) * 2023-07-21 2023-11-03 深圳视腾达科技有限公司 Interactive control method and system for smart home

Also Published As

Publication number Publication date
JP2006165159A (en) 2006-06-22

Similar Documents

Publication Publication Date Title
US9836645B2 (en) Depth mapping with enhanced resolution
JP5812599B2 (en) Information processing method and apparatus
US7813559B2 (en) Image analysis for pick and place machines with in situ component placement inspection
JP5041458B2 (en) Device for detecting three-dimensional objects
JP6125188B2 (en) Video processing method and apparatus
US11037325B2 (en) Information processing apparatus and method of controlling the same
CN106469455B (en) Image processing method, image processing apparatus, and recording medium
US20070253616A1 (en) Mark image processing method, program, and device
CN107025663A (en) It is used for clutter points-scoring system and method that 3D point cloud is matched in vision system
JP5672112B2 (en) Stereo image calibration method, stereo image calibration apparatus, and computer program for stereo image calibration
CN110487189B (en) Flatness detection method, flatness detection device, and storage medium
CN110926330A (en) Image processing apparatus, image processing method, and program
JP4382649B2 (en) Alignment mark recognition method, alignment mark recognition device and joining device
JP2007241477A (en) Image processor
JP5685665B1 (en) Image recognition device
JP6480575B2 (en) Component orientation determination data creation apparatus and component orientation determination data creation method
JPH11185039A (en) Image recognition based measuring method and recording medium
KR101563799B1 (en) Method for estimating relative depth using focus measure
US20200286248A1 (en) Structured light subpixel accuracy isp pipeline/fast super resolution structured light
JP2000018920A (en) Measuring method, measuring apparatus using image recognition, and recording medium
JPH11132737A (en) Image processing method
JP2008181261A (en) Method and device for extracting contour line of object
CN108898590B (en) Self-feature extraction method applied to product appearance visual detection
JP4760072B2 (en) X-ray inspection apparatus and X-ray inspection method
JP2002170096A (en) Passing object count device and count method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071004

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090915

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090917

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121002

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4382649

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121002

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131002

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees