JP2004199331A - Image converting method and image converting device - Google Patents

Image converting method and image converting device Download PDF

Info

Publication number
JP2004199331A
JP2004199331A JP2002366354A JP2002366354A JP2004199331A JP 2004199331 A JP2004199331 A JP 2004199331A JP 2002366354 A JP2002366354 A JP 2002366354A JP 2002366354 A JP2002366354 A JP 2002366354A JP 2004199331 A JP2004199331 A JP 2004199331A
Authority
JP
Japan
Prior art keywords
image
light receiving
line segment
plane
receiving plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002366354A
Other languages
Japanese (ja)
Other versions
JP4167482B2 (en
Inventor
Masaharu Nakamura
正治 中村
Tomoyuki Tanaka
知行 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TECHNO HORON KK
Original Assignee
TECHNO HORON KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TECHNO HORON KK filed Critical TECHNO HORON KK
Priority to JP2002366354A priority Critical patent/JP4167482B2/en
Publication of JP2004199331A publication Critical patent/JP2004199331A/en
Application granted granted Critical
Publication of JP4167482B2 publication Critical patent/JP4167482B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Testing Or Measuring Of Semiconductors Or The Like (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To image an object to be imaged such as an object to be inspected from the oblique upper part, and to convert the imaged image data into image data imaged from the right upper part of the object to be imaged. <P>SOLUTION: This image converting method for converting image data obtained by imaging an object to be imaged from an oblique direction into image data obtained by imaging the object from the direction of the right upper part, comprises a coordinate converting process and a re-sampling process. The coordinate converting process is provided to decide a relation between plane coordinates for deciding the position on a light receiving plane on which the oblique image is projected and plane coordinates for deciding the position on the light receiving plane on which the right upper image is projected. The re-sampling process is provided to integrate the light intensity information of one pixel configuring the right upper image data from the optical information of a plurality of pixels configuring the oblique image data by carrying out weighting. This weighting is carried out based on the area of overlapping when one pixel configuring the right upper image data is projected on the pixels configuring the oblique image data to be overlapped. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
この発明は、検査対象物等の撮像対象物を斜め方向から撮像し、撮像された画像データを撮像対象物に正対する方向から撮像された画像データに変換する方法及び装置並びにこれら方法及び装置を利用した半導体製造装置及び製造検査ラインに関する。
【0002】
【従来の技術】
航空写真から地図を作るプロセスや写真上の位置から対象物の位置を測定する場合、対象物の現実の空間座標(以後「世界座標」ということもある。)上の位置と、その対象物を撮像した写真(以後「画像」ということもある。)の画面座標上の位置との対応関係を知る必要がある。また対象物を撮像してその撮像面上に投影される対象物の画像を基にして、その画像の中から特定の形状のパターンを見つけ出す(以後「画像サーチ」ということもある。)という需要もある。この場合、撮像装置から見た対象物の方向である撮像方向といった撮像装置の外的パラメータと、撮像装置の結像系の光学的特性といった内的パラメータを考慮して、撮像されている画像の歪みを考慮して、画像サーチ等の処理を行なう必要がある。
【0003】
従来、対象物中に参照点を設けておき、この参照点の世界座標値と画面座標値との対応付けを行ない、撮像装置の外的及び内的パラメータを高精度に求めることによって撮像装置のキャリブレーションを行う方法がある(例えば、特許文献1参照)。この方法によれば、撮像の方向や対象物と撮像装置との距離の如何を問わず、撮像装置のキャリブレーションを行なっておけば、画像上で未知点を指定すると、その未知点の世界座標を得ることができる。したがって、対象物が撮像された画像を用いて対象物上の未知点の世界座標を得ることができることから、写真上の位置から対象物の位置を測定する場合に有用な技術となる。
【0004】
また、ステッパ等の半導体製造装置において、半導体ウエハのオリエンテーションフラット(以後「オリフラ」と略記する。)の検出、を行なう装置としてウエハのオリフラ検出装置がある(例えば、特許文献2及び特許文献3参照)。このウエハのオリフラ検出装置においては、オリフラを有するウエハ(撮像対象物)を撮像する撮像装置は、撮像対象物が歪められて撮像されないように、ウエハに対して正対する位置に設置されている。
【0005】
【特許文献1】
特開2001-264037号公報
【特許文献2】
特開平9-14918号公報
【特許文献3】
特開平9-14938号公報
【0006】
【発明が解決しようとする課題】
しかしながら、従来の撮像装置キャリブレーションによる方法は、撮像画像面上で未知点の指定を行なって対象未知点の世界座標を求めるものである。すなわち、あくまで従来の方法は画像に基づいて画像中での位置(画面座標)と空間中での位置(世界座標)の対応付けを行なうものであるので、対象物を斜め方向から撮像した画像から画面サーチを行なうと対象物が歪むという問題がある。つまり探索目的であるモデルパターンとしては、通常そのパターンの正対する方向、例えば、真上から見た形状が与えられるのに対して、それを元にして斜め方向から撮像された画像の中から、モデルパターンを探索することになるからである。斜め方向から撮像された画像を何らかの方法で、正対する方向から撮像される画像に変換してからでなければ、画面サーチを行なうことは難しいことを意味している。
【0007】
また、従来技術のウエハのオリフラ検出装置(例えば、特許文献2及び特許文献3参照)においては、ウエハ(撮像対象物)を撮像する撮像装置は、ウエハが歪められて撮像されないように、ウエハ上面に対して垂直の位置に設置されている。しかしながら、半導体製造装置はクリーンルームに設置されるため、その大きさをできる限り小さく作る必要があり、ウエハ上面に対して垂直の方向からウエハを撮像できるように、撮像装置を取り付けることが困難な場合がある。
【0008】
また、画面サーチの技術は、半導体製造装置のオリフラの検出以外においても、例えば複数の製造工程からなる製造ラインでの物品の監視や検査等において重要な技術である。そのため、これら製造ラインでの物品の監視や検査等においても、斜め方向から撮像された画像を正対する方向から撮像される画像に変換する技術が必要とされている。
【0009】
【課題を解決するための手段】
そこで、この発明の画像変換方法及び画像変換装置は、下記のような工程もしくは手段を有する。
【0010】
すなわち、この発明による方法及び装置は、結像光学系と受光平面とを具えて構成される撮像装置によって、撮像対象物を斜め方向から撮像して斜め受光平面(以後「第1受光平面」ともいう。)に得られる第1画像データを、該撮像装置によって、該撮像対象物を正対する方向から仮に撮像したときに正対受光平面(以後「第2受光平面」ともいう。)に得られる第2画像データに変換する画像変換方法及び装置である。
【0011】
まず、斜め受光平面上の画素位置を確定するための第1平面座標と正対受光平面上の画素位置を確定するための第2平面座標との関係を定める座標変換を行なう。次に、正対受光平面を構成する1画素の光強度を、以下に記述するように求める。正対受光平面を構成する1画素は、斜め受光平面に投影されればこの斜め受光平面を構成する複数画素にまたがって受光される。そこで、この1画素が斜め受光平面を構成するどの画素にどれだけの面積にわたって投影されるか算出して、斜め受光平面を構成する画素が受光した量に対して、複数画素のそれぞれの画素に投影された部分の面積に比例する重み付けをして加重平均として求めて、その値を正対受光平面を構成する1画素の光強度とする手法で再サンプリングを行なう。
【0012】
この発明の実施に当たり、第1平面座標と第2平面座標との関係を定める座標変換を行なうには、次のような手順によって行なうのが好適である。
(a)一直線上に3点以上が並ぶことがないように選び出した4点以上の点あるいは一直線上の3点を含みこの直線外の少なくとも2点以上の点を含むように選び出した複数の点(以後これらの点を「特徴のある複数の点」という。)上にマークを持つ撮像対象物であって、該マークが存在する平面に設けられた座標系による該マークの座標値が既知である当該撮像対象物をテストパターンとして、前記撮像装置によって当該テストパターンを撮像する。
(b)斜め方向から撮像された場合の第1受光平面に撮像される、テストパターン中の特徴のある複数の点上のマークに対する、前記第1平面座標の座標値を読み取る。
(c)テストパターン中の任意の位置を原点と定め、斜め方向から撮像されたテストパターンの第1受光平面上に撮像される画像を基にして、該テストパターンが、該原点が第2受光平面の中央部分に投影される正対する方向から撮像される場合の、該原点が投影される該第2受光平面の中央部分の位置と、斜め方向から撮像されたテストパターンの画像を幾何学的に相似変換する縮尺とを仮想的に設定する。
(d)斜め方向から撮像された特徴のある複数の点上のマークに対して、テストパターン中のそれぞれの該マークを、仮想的に設定された正対する方向から撮像される場合の第2受光平面上に投影して、前記第2平面座標での該マークの位置を算出する。
(e)斜め方向から撮像した場合の前記第1受光平面に投影されたテストパターン中の前記特徴のある複数の点上のマークそれぞれの前記第1座標と、仮想的に設定された正対する方向から撮像された場合の第2受光平面上で、算出されたテストパターン中の該特徴のある複数の点上のマークそれぞれの前記第2座標とを基にして、座標変換パラメータbi(ただし、i = 1, 2, 3, 4, 5, 6, 7, 8である。)を求める。
【0013】
前記正対方向から撮像する場合の第2平面座標系における中心位置と縮尺とを仮想的に設定するキャリブレーション工程を行なうには、次のようにするのが好適である。
(c')前記第1受光平面の中央部分の位置と仮想的に設定された前記第2受光平面の中央部分の位置における、画像の寸法が等しくなるように縮尺を定め、かつ互いの画像の中央部分の位置が一致するように該撮像対象物を正対した方向から撮像する場合の中心部分の位置を仮想的に設定する。
【0014】
また、この発明の実施に当り、再サンプリングは、第2画像データの画素[I, J]の光強度Img2(I, J)を次式に従って求めることによって、行なうのが好適である。
【0015】
Img2(I, J) = Σ[W(k, m)×Img1(k, m)]/ΣW(k, m)
ただし、I、J、k及びmを整数として、Img1(k, m)は、第1画像データの第k行第m列の画素[k, m]の光強度である。W(k, m)は、第1受光平面上に投影される第2画像データの第I行第J列の画素[I, J]が、第1受光面上の画素[k, m]上に投影される面積を表す。
【0016】
また、上式の右辺の和を求める範囲は、第1受光平面上に投影される第2画像データの画素[I, J]が、第1受光面上の画素[k, m]上に一部でも投影されれば、その投影されている画素[k, m]全てにわたるものとする。
【0017】
この発明の画像変換方法あるいは画像変換装置によれば、撮像対象物を斜め方向から撮像して得られる第1画像データ(以後「斜め画像データ」ともいう。)が、この撮像対象物を真上方向から撮像して得られる第2画像データ(以後「真上画像データ」ともいう。)に変換される。真上画像データの画像は、対象物と相似形であるので、次のような各種画像処理機能を実現する既成のプログラムライブラリ等を有効に使うことができる。
【0018】
すなわち、対象物の識別、対象物の標準物との差異の検出、対象物の位置計測、対象物の形状測定等である。これら既成のプログラムライブラリ等は、対象物を真上から撮像して得られる画像に適用することを前提に作られているので、対象物を斜め上方から撮像して得られた画像データに適用するには、撮像された斜め画像データを真上画像データに変換することが必須の条件となる。
【0019】
また、画面サーチの技術は、半導体製造装置におけるオリフラの検出、複数の製造工程からなる製造ラインでの監視や検査において、この発明の画像変換方法によれば、効果的に画面サーチが行なえる。
【0020】
また、複数枚のウエハをストックするウエハカセットと、このウエハカセットからウエハを一枚ずつ取り出してステージに搬送する搬送手段とを具える半導体製造装置において、この発明の画像変換装置を具えるのが好適である。この発明の画像変換装置を具えた半導体製造装置によれば、ウエハ上面に対して斜め方向に設置された撮像装置で取得されるウエハの斜め画像が正対画像に変換されるので、正対画像を対象とした周知の画像サーチ技術を用いてオリフラ検出を行なうことができる。このため、必ずしも、撮像装置をウエハ上面に対して正対する位置に設置する必要がなくなる。
【0021】
【発明の実施の形態】
以下、図1から図18を参照して、この発明の実施の形態につき説明する。なお、各図は、この発明が理解出来る程度に各構成要素等の形状、大きさ及び配置関係を概略的に示してあるに過ぎず、この発明を図示例に限定するものではない。
【0022】
図1を参照して、撮像対象物を正対する方向、例えば、真上から撮像する場合と、斜め上方から撮影する場合について説明する。以下の説明において、正対する方向から撮像する場合とは、仮想的なモデルを想定するのみで、実際には撮像装置等が存在しているわけではない。更に、説明の便宜のために平面上の格子状パターン14を撮像対象物とするが、以下に記述する技術的内容は、この対象物を格子状パターンであるか否かにはかかわりなく成立する。
【0023】
撮像装置は、結像光学系及び受光平面を具えている。撮像装置を撮像対象物14に対して正対させて撮像する位置を正対位置Bとし、斜め方向から撮像する位置を斜め位置Aとする。この構成例の説明では、撮像装置を斜め位置Aに配置したとき、この撮像装置を第1撮像装置10とし、その結像光学系を10aとし、及びその受光平面を斜め受光平面10bとしてそれぞれ表示する。また、この斜め位置Aに配置した撮像装置と同等の装置を正対位置Bに仮想的に配置したとき、この撮像装置を第2撮像装置12とし、その結像光学系を12aとし、及びその受光平面12bとしてそれぞれ示す。
【0024】
撮像対象物を正対する方向から撮像するとは、格子状パターン14が存在する平面の法線方向に撮像装置12を設置して、撮像することをいう。したがってこの撮像装置12を構成する結像光学系12aの光軸はこの法線方向に平行であり、また受光平面はこの法線方向に垂直となっている。一方、撮像対象物14を斜め方向から撮像する場合とは、格子状パターンが存在する平面の法線方向から外れた方向に撮像装置10を設置して、撮像することをいう。
【0025】
図1に示す構成例では、正対位置Bは、撮像対象物14に対して真上方向(正対方向)の位置であり、また斜め位置Aは、撮像対象物14に対して斜め上方の位置である。説明を簡潔にするため、図1に示す行列状に規則的に設けられている格子状パターン14に対して左右に平行な方向にx’軸を、これとは垂直な方向にy’軸にとり、y’軸を中心にして右回りに回転させた方向に撮像装置10を設置した場合を説明する。
【0026】
<座標変換>
このようにして第1撮像装置10及び第2撮像装置12で格子状パターンをそれぞれ撮像するとする。図2(A)、(B)及び(C)に示すように、第1及び第2撮像装置10及び12の受光平面には、格子状パターンの画像18a及び18bがそれぞれ撮像される。図2(A)及び(B)中、細線で示した格子状パターンが第1撮像装置10の受光平面10b上に投影された画像18aを示し、及び、太線で示した格子状パターンが第2撮像装置12の受光平面12bに投影された画像18bを示し、図2(C)にそれぞれを重ねて示してある。
【0027】
受光平面には、光を受けてその光の強度に比例する電圧あるいは電流を発生する微小な受光器(以後この受光器一つ一つを「画素」と呼ぶこともある。)が一様に並べられて行列配列されている。受光平面上で順序付けられて並べられた画素一つ一つに対応した受光強度の組の集合を、以後「画像データ」と呼ぶこともある。受光平面上で順序付けて個々の画素を識別するために、受光平面に直交座標軸を設けて、この直交座標軸に沿って、起点から数えて横軸方向にi番目、縦軸にj番目の位置にある画素を画素[i 、j]と呼ぶことにする。すなわち、画素[i 、j]はi行j列の画素である。詳細は後述する。
【0028】
第1撮像装置10によって撮像された第1画像データを、第1撮像装置10と同一の構造を有する第2撮像装置12によって撮像された第2画像データに画像変換する場合には、第1画像データの画像の画質に対して第2画像データの画像の画質をできるだけ劣化させないように変換することが重要である。
【0029】
斜め画像から正対画像に画像変換するとき、画像データとして画質をできるだけ劣化させないためには、第1撮像装置10の受光平面10bの中央部分と第2撮像装置12の受光平面12bの中央部分において、画像の寸法が等しくなるように、x-y座標系からX-Y座標系への座標変換時の縮尺を確定すればよい。ここでは、撮像対象物として格子状パターンを用いて説明する。図2(A)〜(C)において、太線で示した格子状パターン18bが正対画像、細線で示した格子状パターン18aが斜め画像である。すなわち、図中、画像18b中の記号イで示す太線の直線上に並ぶ格子点の間隔が、画像18a中の記号ロで示す細線の直線上に並ぶ格子点の間隔と等しくなるように上記縮尺を確定する。
【0030】
ところで、記号イで示す太い直線は、第2撮像装置12の受光平面12b中央部分におけるy’軸方向に並ぶ格子点を連ねた直線であり、この直線と横方向(x’軸方向)の格子点を連ねた太い直線との交点が、第2撮像装置12の受光平面12bに撮像された格子点の位置である。また、記号ロで示す細い直線は、第1撮像装置10の受光平面10bの中央部分における、同じくy’軸方向に並ぶ格子を連ねた直線である。したがって、受光平面10bの中央部分における、記号イ及び記号ロで示す直線に沿って直線状に並ぶ格子点の間隔が等しくなるように、第2撮像装置12で撮像された太線で示した格子状パターンの画像18bの縮尺を確定すれば、画像変換された正対画像の画質が、画面全体に対して最小の劣化となる。
【0031】
第1撮像装置10の斜め受光平面10bと第2撮像装置12の正対受光平面12bとでの両位置関係を規定するために、両受光平面に、(x、y)及び(X、Y)座標系をそれぞれ設ける。両座標系の間には、周知の通り、次式で与えられる関係がある。また次式で与えられる関係から斜め受光平面10bの(x、y)座標系から正対受光平面12bの(X、Y)座標系へ変換することを、以後「座標変換」という。
【0032】
X=(b1x + b2y + b3)/(b7x +b8y + 1) (1)
Y=(b4x + b5y + b6)/(b7x +b8y + 1) (2)
ここで、bi(ただし、i = 1, 2, 3, 4, 5, 6, 7, 8である。)は上記座標変換のパラメータである。全部で8個あるので、第1撮像装置10と第2撮像装置12の受光平面10b及び12b上の対応する4点以上の関係を知れば、解析的にパラメータbi(ただし、i = 1, 2, 3, 4, 5, 6, 7, 8である。)の全てを求めることができる。
【0033】
すなわち、図2(C)において示すように、第1撮像装置10の斜め受光平面10b上の点p、 q、 r、 sに対応する点が第2撮像装置12の正対受光平面12b上の点P、Q、R、Sに対応するものとして、これら8点の座標をそれぞれ、(xp、yp)、(xq、yq)、(xr、yr)、(xs、ys)、(XP、YP)、(XQ、YQ)、(XR、YR)、(XS、YS)とする。そして(xp、yp)と(XP、YP)、(xq、yq)と(XQ、YQ)、(xr、yr)と(XR、YR)、(xs、ys)と(XS、YS)といった対応関係がそれぞれ与えられれば、解析的に周知の方法でパラメータbi(ただし、i = 1, 2, 3, 4, 5, 6, 7, 8である。)の全てを求めることができる。
【0034】
ここで、上述した斜め受光平面10bと正対受光平面12bのそれぞれの座標位置の対応関係を求める方法を説明する。この対応関係を求めるためには、撮像対象物14として格子状のテストパターンを設けておく。図1に示すように、このテストパターン中に4つの点p’, q’, r’及びs’を定めておく。このテストパターンにつき、第1撮像装置10で撮像して第1画像(第1受光平面に投影される画像)を得る。
【0035】
第2撮像装置12では、テストパターン上の点p’, q’, r’及びs’に対応する点の第2受光平面に置ける座標を、第2撮像装置12が仮想的なモデルであるとして計算によって求める。まずテストパターン上の点p’, q’, r’及びs’に対して原点を決定する。第2撮像装置12はテストパターンの面に対して法線方向に設置される。したがって、第2撮像装置12の受光平面12b上において、テストパターンの原点と点p’, q’, r’及びs’の位置関係は相似形となる。第2撮像装置12のX軸方向及びY軸方向をテストパターン上の格子のx’方向及びy’方向とそれぞれ一致させ、相似比を決めると第2受光平面上の点P、Q、R及びSの位置は確定する。すなわち、図2(C)における、点P、Q、R及びSの座標値を算出する。
【0036】
このようにして得られた第1画像中のp, q, r及びsの点の座標を、第1撮像装置10で読み取ってメモリ(記憶装置)に記憶し、第2画像(第2受光平面に投影される画像)中の算出されたP, Q, R及びSの点の座標をメモリ(記憶装置)に記憶する。既に説明したとおり、第1及び第2撮像装置10及び12は、同等のの受光平面すなわち撮像面を具えた一つの撮像装置であるので、斜め受光平面の(x, y)座標と正対受光平面の(X, Y)座標系は、同等の平面直交座標系である(すなわち相互に座標変換可能である。)。
【0037】
したがって、テストパターン中の点p’, q’, r’及びs’の各点は、この同一座標系中に二つの座標位置に撮像される。すなわち、p’はpとP, q’はqとQ, r’はrとR及びs’はsとSとの点に撮像される。これらの(p, q, r, s)と(P, Q, R, S)は同一座標系にあるので、pと P、 qとQ、 rと R 及びsと Sとのそれぞれの対応関係は上述した(2)式及び(3)式の8つのパラメータで規定される。
【0038】
第1画像データの画像を第2画像データの画像に変換するとき、できるだけ画質を劣化させないことが重要である。このために第1画像データのx方向の中央部分と第2画像データのX方向の中央部分とが一致するように、第2撮像装置12の位置を決め、縮尺を調整する。以下にこの縮尺の調整方法を説明する。図1で示す格子点で、新たに中央部分に3点o'、 t'及びu'を選択する。新たに選択されたこれら3点に対応する図2(C)に示す、第1及び第2画像におけるそれぞれの3点、o、 t 、u 及びO 、T、 Uがそれぞれ対応する。第1撮像装置10でテストパターンを撮像する時、o'を第1画像の中央になるように、テストパターンの位置を調整する。その後テストパターン上の7つの点o'、 p'、 q'、 r'、 s'、 t'及び u'の位置を第1撮像装置10で読み取る。読み取られた第1画像中のo点の座標に一致するように第2撮像装置12の原点を設定する(第2画像中のO点の位置を決める。)。そして第1画像中のo点とt点の間隔と第2画像中のO点とT点との間隔が同じになるように第2画像中のT点の位置を決める。このときT点のX座標は、O点と同一で、Y座標のみが変わるように設定する。このように第2画像中のT点の位置を決めると、第2画像データの縮尺が定まる。すなわち第2撮像装置12のテストパターンからの距離が定まる。第2撮像装置12はテストパターンのo'点上で正対する方向に設置されるので、テストパターン上でo'点に対する点p'、 q'、 r'、 s'、 t'及び u'の位置関係は、第2画像では、同一の相似比でO点に対する各点の位置となる。すなわち、第2画像中での点P、Q、R、S、T 及びUの座標は、O点に対して相似変換することで算出される。このようにして得られたテストパターン上の7点は、第1及び第2撮像装置の受光平面上で対応関係にあるので、式(2)及び式(3)に関係する式の数が多いので、最小二乗法を用いて(2)式及び(3)式の8つのパラメータを求める。
【0039】
パラメータbi(ただし、i = 1, 2, 3, 4, 5, 6, 7, 8である。)を記憶装置に記憶させておけば、第1撮像装置10の受光平面10b上の任意の点は、(2)式及び(3)式を用いて第2撮像装置12の受光平面12b上のどの点に対応するかが一義的に決まることになる。すなわち、中央処理装置(CPU)により、記憶装置に記憶された座標値とパラメータと上記(2)式及び(3)式を読み出してきて演算することにより、受光平面10b上の位置を受光平面12b上の位置へと変換して対応させることができる。
【0040】
また、上述した例では、第1撮像装置10と第2撮像装置12のそれぞれの受光平面10b及び12b上に7点ずつを選択してそれぞれの対応関係から座標変換パラメータを求めたが、必ずしも上記のような7点を選択しなければならないわけではない。
【0041】
選択した複数の点の個数は、一直線上に3点以上が並ぶことがないように選び出した場合には、最小でも4点となる。また、一直線上の3点を含みこの直線外の少なくとも2点以上の点を含むように選び出した場合には、選択した複数の点の個数は最小でも5点となる。すなわち上述した条件を満たす複数の点を選択すればよい。もちろん、選択点を多くとるほど、求められる座標変換パラメータの計算精度が高くなる。
【0042】
以上に説明した座標変換の座標変換のパラメータbi(ただし、i = 1, 2, 3, 4, 5, 6, 7, 8である。)を求める手順(工程)を図3に示したフローチャートを参照してまとめると次のようになる。
【0043】
(a)第1撮像装置10で、テストパターンを撮像するテストパターン撮像工程(ST1)
(b)テストパターン中の特徴のある複数の点が第1撮像装置10の受光平面10bに撮像された点それぞれの受光平面上での座標を読み取る座標読み取り工程(ST2)
(c)テストパターン中の任意の位置に原点を設定し、第2撮像装置12でテストパターンを撮像される画像の縮尺を設定するための、斜め方向で撮像された特徴ある複数点上のマーク位置を原点に対して幾何学的に相似変換する、第2撮像装置の中心位置と縮尺を決定するキャリブレーション工程(ST3)
(d) 上記工程(d)で設定された中心位置と縮尺とを使用して、第2撮像装置12の受光平面12bに、テストパターン中で工程(a)において選択された点それぞれの受光平面上での座標を算出する座標算出工程(ST4)
(e) 第1撮像装置10の受光平面10bに撮像されたテストパターン中の特徴ある複数の点の座標と第2撮像装置12の受光平面12b上に算出されたテストパターン中の上記複数の点の座標を基にして、座標変換パラメータbi(ただし、i= 1, 2, 3, 4, 5, 6, 7, 8である。)を連立方程式を解く方法あるいは、最小二乗法で求めるパラメータ算出工程(ST5)
【0044】
また、(a)及び(c)の工程において、以下の工程を含むのが好適である。
(a') 第1撮像装置10の受光平面10bの中央点と第2撮像装置12の受光平面12bの中央点を一致させるため、第1撮像装置10の受光平面10bの中央点に、テストパターン上に中央に位置する格子点が撮像されるようにテストパターンの設置位置を調整するテストパターンを調整する、テストパターンの位置調整工程(ST1-1)
(c')第2撮像装置12の受光平面12bの中央点を第1撮像装置10の受光平面10bの中央点として読み込まれた座標値に一致させ、第1撮像装置10の受光平面10bの中央部分と第2撮像装置12の受光平面12bの中央部分における、画像の寸法が等しくなるように、第2撮像装置の縮尺を設定するキャリブレーション工程(ST3-1)
【0045】
なお、上述した座標変換の座標変換のパラメータbi(ただし、i = 1, 2, 3, 4, 5, 6, 7, 8である。)を求める手順(工程)を実現するための装置については、後述する。
【0046】
<再サンプリング>
図4を参照して撮像装置の受光平面に設ける座標と、受光平面を構成する画素を指定するための指標について説明する。ここでは、画素は例えば行列配列されており、各画素の形状は、簡単のために、正方形であるとし、隣接する画素の境界領域は無視できる幅しかないものとする。各画素が正方形内部において受光感度を有し、隣接する画素の境界領域は無視できる幅しかないことから、受光平面のあらゆる場所において受光感度を有しているものとして説明する。
【0047】
画素の一辺の寸法をLとして、図4において画素の中心を黒丸で示し、画素の4隅の頂点を×印で示すことにする。図4に示すようにx−y座標系をとり、座標値を(x, y)のように示す。一方、一つ一つの画素を指定するための指標を[i, j] のように示す。これらi及びjはi行目及びj列目に対応している。例えば、指標[0, 0]で指定される画素の4隅の頂点の座標は、(+0.5L, -0.5L)、(+0.5L, +0.5L)、(-0.5L, +0.5L)及び(-0.5L, -0.5L)であり、画素の中心座標は(0, 0)である。一般に、指標[i, j]で指定される画素4隅の頂点の座標は、((i+0.5)L, (j-0.5)L)、((i+0.5)L, (j+0.5)L)、((i-0.5)L,(j+0.5)L)及び((i-0.5)L, (j-0.5)L)であり、画素の中心座標は(iL, jL)である。
【0048】
また、座標値を表すxあるいはy、画素を指定するための指標値i、jあるいはk、mについて、第1撮像装置10の受光平面すなわち斜め受光平面10bに関する値としては小文字を用いて表示するものとし、第2撮像装置12の受光平面すなわち正対受光平面12bに関する値としては大文字を用いて表示するものとする。すなわち、第1撮像装置10の受光平面10bの座標値は(x, y)、第1撮像装置10の受光平面10bを構成する画素を指定するための指標は[i, j]あるいは[k, m]である。
【0049】
一方、第2撮像装置12の受光平面12bの座標値は(X, Y)、第2撮像装置12の受光平面12bを構成する画素を指定するための指標は[I, J]である。なお、第2撮像装置12から得られる画像データを正対画像データといい、ここでは、正対位置は撮像対象物の真上の位置であるから、真上画像データとも言う。また、第1撮像装置10から得られる画像データを斜め画像データという。
【0050】
図5を参照して、受光平面を構成する各画素の画像データ取得方法を説明する。図5には指標[ip, jq](ここで、p=1, 2, 3, 4, 5であり、q=1, 2である。)で与えられる10個の画素を拡大して表示している。この画素上に、幅をもった黒い帯状の像が結像された場合を説明する。図5中で斜線を引いた部分が黒い像の部分である。斜線で示した黒い部分には光が到達せず、それ以外の白い部分には一様な明るさに光が到達しているものとする。また、それぞれの画素が受光する光強度は、256階調にデジタル化されて受光されるものとする。すなわち全く光が受光されない場合を0、最も明るい光を受光した場合を255としたデジタルデータとして、画素が明るさ情報を出力するように設定されているものとする。この場合、指標[ip, jq](ここで、p=1, 2, 3, 4, 5であり、q=1, 2である。)で与えられる8つの画素が画像データの一つとして取り込むデジタル値は、
[i1, j2]=0、[i2, j2]=10、[i3, j2]=40、[i4, j2]=96、[i5, j2]=128、
[i1, j1]=20、 [i2, j1]=0、 [i3, j1]=0、[i4, j1]=0、 [i5, j1]=0
であるとする。これらの値は、それぞれの画素において、明るい部分が占める面積に比例した値となっている。
【0051】
ここでは、簡単のために真っ白な部分と真っ黒な部分の2つの領域からなる画像を例に説明したが、もっと複雑な中間的な明るさの領域を含む画像の場合も同様である。画素が画像データの一つとして取り込むデジタル値は、その画素上に投影される画像の明るさと、その明るさの部分が画素上で占める面積の積に比例する値となる。
【0052】
次に図6を参照して、真上画像データを取得する画素(以後単に「真上画像用画素」ということもある。)と、斜め画像データを取得する画素(以後単に「斜め画像用画素」ということもある。)との関係を説明する。図6は、斜め画像用画素の列位置についてiからi+2の範囲に存在し、かつ、斜め画像用画素の行位置についてjからj+2の範囲に存在する画素を細い線で区切って示した。すなわち、左上の画素が指標[i, j]で与えられる画素、右下の画素が指標[i+2, j+2]で与えられる画素である。また、指標[I, J]で与えられる真上画素が、斜め画像を取得する画素上に投影された画像を太線の四角形ABCDで示した。また以下では、指標[I, J]あるいは[i, j]等で与えられる画素を、それぞれ画素[I, J]あるいは画素[i, j]等と略記する。
【0053】
斜め画像用画素上に投影される画素[I, J]の頂点A, B, C,及びDは、第1撮像装置10の受光平面10b上でそれぞれA((I-0.5)L, (J-0.5)L), B((I+0.5)L, (J-0.5)L), C((I+0.5)L, (J+0.5)L), D((I-0.5)L, (J+0.5)L)に存在した点である。画素[I, J]の4頂点の座標((I-0.5)L, (J-0.5)L)、((I+0.5)L, (J-0.5)L)、((I+0.5)L, (J+0.5)L)、及び((I-0.5)L, (J+0.5)L)は、それぞれ第2撮像装置12の受光平面12a上のA, B, C, Dで示す位置に投影される。
【0054】
次に、再サンプリングを与える次式(1)について説明する。
Img2(I, J) = Σ[W(k, m)×Img1(k, m)]/ΣW(k, m) (1)
図6に示されているように、画素[I, J]が第1撮像装置10の受光平面10bを構成している画素上に投影される場合を考える。この場合には、Σで示される和を求める範囲は、kについてはiから(i+2)の範囲、mについてはjからj+2の範囲である。
【0055】
ここで、W(k, m)の意味について説明する。W(k, m)は、第1撮像装置10の受光平面10bを構成している画素[k, m]上に投影された、画素[I, J]の面積を表す。すなわち、画素[k, m]上には、画素[I, J]の一部分が投影されるが、W(k, m)は、画素[k, m]上に画素[I, J]の画像が投影されて重なる部分の面積を表す。この重なる部分の面積のことを「部分投影面積」とも称する。図7は、W(k, m)の意味について説明するために、kについてはiから(i+2)の範囲、mについてはjからj+2の範囲にわたって、画素[k, m]上に画素[I, J]の画像が投影されて重なる部分を斜線で示し、見やすく表示した図である。それぞれ細線で示した正方形が画素[k, m]を示す。太い直線で境を画した斜線部分がW(k, m)で与えられる面積を有する多角形(画素[k, m]上に画素[I, J]の画像が投影された部分投影面積の部分)を示している。
【0056】
(1)式は、画素[I, J]が第1撮像装置10の受光平面10bを構成している画素上で投影される画素の範囲(kについてはiから(i+2)の範囲、mについてはjからj+2の範囲)に対して、W(k, m)を重みとして加重平均した値を、第2撮像装置12の受光平面12b上の画素[I, J]の値(明るさに関するデジタル値)とすることを意味する。
【0057】
Img1(k, m)は、画素[k, m]が受光した明るさに関するデジタル値(画素[k,m]の値)であり、及びW(k, m)は、画素[k, m]上での画素[I, J]の画像部分投影面積であるから、W(k, m)×Img1(k, m)は、画素[k, m]の値にW(k, m)だけの重みを加味した値となる。Σ[W(k, m)×Img1(k, m)]は、kについてはiから(i+2)の範囲、mについてはjからj+2の範囲にわたって求めた和である。また、ΣW(k, m)は、第1撮像装置10の受光平面10bに投影される、画素[I, J]の画像の総投影面積を表している。したがって、(1)式の右辺は、画素[I, J]が第1撮像装置の受光面を構成している画素上で投影される画素の範囲(kについてはiから(i+2)の範囲、mについてはjからj+2の範囲)に対して、W(k, m)を重みとして加重平均した値を与えている。
【0058】
次に、W(k, m)をどのようにして求めるかについて、その手順を説明する。図8は、W(k, m)の求め方の手順の説明に供する図であり、画素[i, j]についてその周辺部分を拡大した図である。画素[I, J]の4頂点が第1撮像装置10の受光平面10b上に投影される位置をA, B, C, Dとする。また、受光平面10b上での画素[i, j]の4頂点をA’, B’, C’, D’とする。既に説明したように、これら8個の点は、同一の(x, y)座標系にある。
【0059】
W(k, m)は以下に示す手順(工程)で求められる。
(a)四辺形A’B’C’D’の内部にA, B, C, Dの各点が含まれるか否かを調べる。
Aが含まれるのでAをピックアップする。
(b)四辺形A B C D の内部にA’, B’, C’, D’の各点が含まれるか否かを調べる。
C’が含まれるのでC’をピックアップする。
(c-1)線分A’B’と線分A B 、線分B C、線分C D、線分D A の交点を調べる。
交点はない。
(c-2)線分B’C’と線分A B 、線分B C、線分C D、線分D A の交点を調べる。
aが交点であるので(線分B’C’と線分A Bの交点とし て存在する。)aをピックアップする。
(c-3)線分C’D’と線分A B 、線分B C、線分C D、線分D A の交点を調べる。
bが交点であるので(線分C’D’と線分D Aの交点とし て存在する。)bをピックアップする。
(c-4)線分D’A’と線分A B 、線分B C、線分C D、線分D A の交点を調べる。
交点はない。
(d)ピックアップされた点(この実施の形態では4点でA、C’、a、bの順にリストに登録される。)に対して一番左上の点を求める。具体的には、図9に示すようにX軸に対して45度の傾きの直線が各点を通るように一本一本それぞれ引き、Y軸とこの45度の傾きの直線との交点のY座標のうち最小のものを選び出す。Y座標のうち最小のものを選び出す理由は、受光平面上に設定する座標を、左手系座標系としたためである。このようにして第1点目の点を求める。ここでは、A点となる。
(e-1)A点を通る45度の傾きの直線を基準として、A点を中心にしてこの直線を時計回りに回転させて、最初に接する点を求め、これを第2点目の点とする。この場合、第2点目の点として、a点が求まる。
(e-2)次に、直線A aをa点を中心にして時計回りに回転させて、最初に接する点を求め、これを第3点目の点とする。この場合、第3点目の点として、C’点が求まる。
(e-3)次に、直線a C’をC’点を中心にして時計回りに回転させて、最初に接する点を求め、これを第4点目の点とする。この場合、第4点目の点として、b点が求まる。
(e-4)ピックアップされた点に対して順次以上の工程を実行する。この工程によって、ピックアップされた点が一番左上から順に時計回りに並べられる。
(f)ピックアップされた点が一番左上から順に時計回りに並べられれば、四辺形の4つの頂点の座標が判明したことになるので、この4つの頂点の座標から、四辺形A a C’bの面積、すなわちW(k, m)は周知の方法で求めることができる。
【0060】
次に、工程(a)及び(b)において行なわれる、着目する点が四辺形の内部に含まれるか否かを調べる方法を、図10を参照して説明する。図10(A)は、O点が四辺形EFGHの内部にある場合を示す図であり、図10(B)は、O点が四辺形EFGHの外部にある場合を示す図である。四辺形EFGHのE点を出発して辺上をE点、F点、G点、H点の順に通るように動く点があるものとする。このときE点からF点に進む間に張る角度θ1をE点からF点へ向かう方向を正の方向にとって計る。同様にF点からG点に進む間に張る角度をθ2、G点からH点に進む間に張る角度をθ3、H点からE点に進む間に張る角度をθ4として、それぞれ起点から到着点に向かう方向を正の方向にとって計るものとする。
【0061】
図10(A)に示すO点が四辺形EFGHの内部にある場合は、θ1234は2πとなる。一方、図10(B)に示すO点が四辺形EFGHの外部にある場合は、θ1234は0となる。また図示してないが、O点が四辺形EFGHの辺上にある場合は、θ1234はπとなる。以上説明したように、θ1234を求めて、その値が、2πか、0か、あるいはπのいずれであるかを知れば、着目する点Oが四辺形EFGHの内部に含まれるか否かを調べることができる。
【0062】
なお、上述したW(k, m)を求める工程の中で、工程(a)及び工程(b)においては、ピックアップすべき点が四辺形の辺上にある場合も四辺形の内部にあるものとして扱った。
【0063】
次に、図11及び図12を参照して、上述した工程(c-1)、(c-2)、(c-3)及び(c-4)において行われる、線分と線分の交点を求める場合の規約を説明する。図11には、線分同士が重ならない場合を図示してあり、図12には線分同士が重なる場合を図示してある。図11(A)に示すように線分の延長上において交点が存在する場合は、交点が存在しないものとして扱う。交点が存在すると判断するのは、図11(B)に示すように、線分の存在する範囲内で交点が存在する場合である。図11(C)で示すように、線分の端点が交点である場合も交点が存在すると判定するものとする。図12に示す場合のように細い線分1と太い線分2とが重なる場合は、交点として2点をピックアップするものとする。
更に、派生的な工程として以下の処理を行なう。
【0064】
(A)上述した工程(a)において、四辺形A’B’C’D’の内部にA, B, C, Dの各点が全て含まれない場合には、W(k, m)=0として、終了する。
(B)上述した工程(b)において、四辺形A B C D の内部にA’, B’, C’, D’の各点がすべて含まれない場合には、W(k, m)=0として、終了する。
(C)上述した工程(c-1)から(c-4)までを終了すると、ピックアップされる点の数は、1個乃至2個または3個乃至8個である。
【0065】
そこで、
(C1)ピックアップされる点の数が0個乃至2個の場合は、W(k, m)=0として終了する。
(C2)ピックアップされる点の数が3個乃至8個の場合には工程(f)まで処理してW(k, m)を求める。
【0066】
図6において、真上画像用画素と斜め画像用画素との関係を図示したが、これは、四辺形(真上画像用画素の形状)と正方形(斜め画像用画素の形状)の関係を示すものである。このような関係においては、四辺形と正方形の関係が図13で示す関係になったときにピックアップされる点数は8点となり最大個数となる。図13は、真上画像用画素(太線で示された四辺形)と斜め画像用画素(細線で示された正方形)との関係を示す。このことから、ピックアップされる点の数の最大は、8個であることになる。
【0067】
以上説明したW(k, m)を求める手順は、一例に過ぎず、ここに記述した方法以外にも好適な手順はあり得る。しかし、いかなる手順でW(k, m)を求めるにしても、この発明に係る画像変換方法あるいは画像変換装置に適用できることは明らかである。
【0068】
上述したW(k, m)を求める手順を、図14に示したフローチャートを参照してまとめると次のようになる。
【0069】
第2受光平面を構成する画素[I, J]の4頂点が第1撮像装置の受光平面に投影される位置をA, B, C, Dとし、また、第1受光平面を構成する画素[i, j]の4頂点をA’, B’, C’, D’として、
(d)四辺形A’B’C’D’の内部にA, B, C, Dの 各点が含まれるか否かを調べる(工程S1)。いずれも含まれない場合(N)には、W(k, m)をW(k, m)=0にし(工程S2)、この手順を終了する。一方、いずれかの点が含まれている場合(Y)には含まれている点をピックアップする(工程S3)。
(e)四辺形A B C D の内部にA’, B’, C’, D’の各点が含まれるか否かを調べる(工程S4)。いずれも含まれない場合(N)には、W(k, m)をW(k, m)=0にし(工程S5)、この手順を終了する。一方、いずれかの点が含まれている場合(Y)には含まれている点をピックアップする(工程S6)。
(f)次に、線分A’B’と線分A B 、線分B C、線分C D、線分D A の交点、
線分B’C’と線分A B 、線分B C、線分C D、線分D A の交点、
線分C’D’と線分A B 、線分B C、線分C D、線分D A の交点、及び
線分D’A’と線分A B 、線分B C、線分C D、線分D A の交点をそれぞれ調べピックアップする(工程S7)。
(g)上記工程S3、工程S6及び工程S7の工程においてピックアップされた全ての点の座標から、W(k, m)を求める(工程S8)。
【0070】
<画像変換装置の説明>
次に、上述した画像変換方法を実現するための装置について図15及び図16を参照して説明する。図15は、この発明の画像変換装置32の構成の説明に供する図である。画像変換装置32は、図1を参照して説明した撮像装置10を具えている。
画像変換装置32は、第1画像データ取得部36、画像変換処理部38、記憶装置40及び第2画像データ出力部42を具えている。画像変換処理部38は、後述するようにCPUを具えて構成されている。第1画像データ取得部36は、第1撮像装置10で撮像された画像が送り込まれ、この画像を第1画像データとして画像変換処理部38に送る。記憶装置40は、座標変換パラメータや再サンプリングを与える式(1)に関連する全てのパラメータを格納する。また、画像変換工程において、再サンプリングを与える式(1)に関連する全てのパラメータを呼び出し、画像変換処理部38に転送して、第2画像データに変換するときに使う。ここで、再サンプリングを与える式(1)に関連する全てのパラメータとは、画素[I, J]に対するk及びmの範囲と、各画素[k, m]に対するW(k, m) を意味し、画素[I, J]としては第2画像データの全範囲となる。画像変換処理部38において変換された第2画像データは、必要に応じて、第2画像データ出力部を介して外部に出力される。
記憶装置40に対する情報の書き込み及び呼び出し自体に関する処理は、コンピュータを利用した制御装置では周知事項であるので、詳細な説明を省略する。
【0071】
まず、搬送アーム26にテストパターン14を置き、このテストパターン14に対して、上述したように、撮像装置の位置をキャリブレーションするための作業を行なう。最初に、位置Aにおいて第1撮像装置10でテストパターン14を撮像する。この工程は、図3のフローチャートで示す工程ST1に相当する。画像変換された正対画像データの画質を斜め画像データの画質に比べてできるだけ劣化させないために、第1撮像装置10の受光平面10bの中央点に、テストパターン上の中央に位置する格子点が撮像されるように、テストパターンの設置位置を調整する。この工程が、図3のフローチャートで示す工程ST1-1に相当する。次に第1撮像装置10の受光平面10bの中央部分と第2撮像装置12の受光平面12bの中央部分における、画像の寸法が等しくなるように、第2撮像装置の縮尺を設定する。第2撮像装置は仮想的なモデルであるので、この設定は容易に行なえる。この工程が図3のフローチャートで示す工程ST3-1である。
【0072】
第1撮像装置10の受光平面に(x,y)座標系を設けて、テストパターンの第1画像データを画像変換装置32に具えられた第1画像データ取得部36に取り込む。画像変換装置32に具えられた第1画像データ取得部36に取り込まれた第1画像データは、画像変換処理部38に送られ、座標変換パラメータを算出する時に使用される。一方、第2撮像装置12は実際には存在しない仮想的なものである。このため第2撮像装置12の受光平面12bに設けられる座標系(X,Y)は画像変換処理部38の内部メモリ54上にのみ存在する(後述する図16参照)。第2撮像装置12の中心位置と縮尺とが設定された後、テストパターン上の選択された格子点の座標値を画像変換装置32に入力する。選択された格子点の座標値が画像変換処理部38に入力されると、選択されたテストパターン上のそれぞれの格子点に対して、第2撮像装置12の受光平面上でのその座標値が、画像変換処理部38の内部メモリ上54(後述する図16参照)に作成される。このようにして、座標変換パラメータを求めるデータが整えられる。これらのデータが整えられると、これらデータ画像変換処理部38において演算され、座標変換パラメータbi(ただし、i= 1, 2, 3, 4,5, 6, 7, 8である。)及び、再サンプリングにおいて使用される関係式
Img2(I, J) = Σ[W(k, m)×Img1(k, m)]/ΣW(k, m)
が決定される。上述の座標変換パラメータと再サンプリング関係式は、記憶装置40に送られ記憶される。
【0073】
以上で、実際の撮像対象物を撮像する撮像装置10の設置と、画像変換に必要なパラメータの画像変換装置の記憶装置への設定が完了する。撮像対象物を撮像装置10で撮像すれば、その撮像結果は、第1画像取得部36に送られ、更に画像変換処理部38に送られる。画像変換処理部38では、上述した座標変換パラメータ及び再サンプリング関係式が記憶装置40から引き出されて、これらパラメータを用いて正対画像データへの変換が画像変換が行なわれ、その結果は、画像変換処理部38の内部メモリ上に作成され、更に画像処理を引き続き実施できる。あるいは場合によっては、変換した結果得られた正対画像データは、第2画像データ出力部42から外部に出力され、外部において更に画像処理等が行なわれる。
【0074】
図16を参照して、画像変換装置32に具えられた画像変換処理部38の構成を説明する。画像変換処理部38は、制御部46、座標変換部48及び再サンプリング部50及び内部メモリ54を具えている。内部メモリ54には、画像変換処理を高速に実施するために、W(k, m)及び画像変換してえられれた正対画像データが一時的に格納される。また、再サンプリング部50は、W(k, m)算出部51及びImg2(I, J)算出部52を具えている。
【0075】
制御部46は、座標変換部48、及び再サンプリング部50の制御及び、記憶装置40等とのデータのやり取りや動作のタイミング等に関する制御を行なう。更に、この制御部46で、図15で説明した第1画像データ取得部36や第2画像データ出力部42の動作の制御を行なうことができる。なお、制御部46の第1画像データ取得部36と第2画像データ出力部42を制御する部分を画像変換処理部38の外部に別のCPUの一部分として構成してもよい。制御部46をどのように構成するかは単なる設計事項である。
【0076】
座標変換部48は、テストパターン中の特徴のある複数の点が、斜め方向から撮像した場合の受光平面に撮像される第1受光平面の標座標を読み取る。この工程が図3で示したフローチャートの工程ST2である。また、第2受光平面12bの中心位置と縮尺とを設定する。この工程が図3で示したフローチャートの工程ST3である。また、第1撮像装置による斜め方向から撮像したテストパターン中の選択された特徴のある複数の点上の格子点の第2受光平面12bにおける座標値が算出される。この工程が図3で示したフローチャートの工程ST4である。またこの工程の後、テストパターン上の上記の対応する特徴ある複数の点上の格子点の座標値とを基にして、座標変換のパラメータbi(ただし、i = 1, 2, 3, 4, 5, 6, 7, 8である。)を算出する。この工程が図3で示したフローチャートの工程ST5である。
【0077】
再サンプリング部50は、撮像対象物を撮像して得られた斜め画像データである第1画像データから正対画像データである第2画像データに変換する処理を行なう。W(k, m)算出部51は、図14に示した工程S1〜工程S8に相当する手順で処理を行い、第1受光平面上に投影される第2画像データの第I行第J列の画素[I, J]が、第1受光平面上の画素[k, m]上に投影される面積を表すW(k, m)を算出しその結果を記憶装置40に格納する。Img2(I, J)算出部52は、第1画像取得部から送られてくる第1画像データの第k行第m列の画素[k, m]の光強度Img1(k, m)の値を、記憶装置40に格納されているW(k, m)を含む次式
Img2(I, J) = Σ[W(k, m)×Img1(k, m)]/ΣW(k, m)
にしたがって第2画像データの画素[I, J]の光強度Img2(I, J)を算出する。
【0078】
以上説明した装置によれば、撮像対象物を第1撮像装置で撮像して得られた斜め画像データの要素Img1(k, m)が、全斜め受光平面にわたって与えられれば、これを撮像対象物を第2撮像装置で撮像すれば得られるはずである、正対画像データImg2(I, J)が全正対受光平面にわたって算出されるので、所望の画像変換が実施される。
【0079】
<画像変換方法で変換処理した例>
図17を参照して、撮像対象物である格子を斜め方向から撮像した斜め画像データから、真上画像データに画像変換して得られた画像の例を説明する。図17(A)に斜め上方から撮像された画像を示す。この画像では、右側に行くほど格子間隔(黒線の交差点の間隔)が狭くなっていることが分かる。また、格子画像を形成している黒線の太さも右側に行くにしたがって細くなっていることも分かる。
【0080】
この図17(A)に示した格子画像を、真上から撮像されたならば得られるであろう画像に画像変換したのが、図17(B)に示す画像である。この画像変換においては、画像の倍率を確定するのに、図中に矢印16で示す格子画像を形成している画像中央部分の代表的黒線上の格子間隔pが変換画像においても、対応する黒線上の格子間隔p’に等しくなるという条件を課した。図17(B)に示す画像変換された画像は、格子点(黒線の交点)が正方形状に配列されており、黒線も均一な太さになっている。すなわち、真上から撮像された格子画像と等価になっていることが分かる。
【0081】
なお、図17(B)中矢印17及び矢印18で示す黒い三角形部分は、図17(A)の画像には映し出されていない部分である。すなわち、この黒い三角形部分は、図17(A)に示す画像を構成する斜め画像データ内には対応する画像データが存在しない部分である。
【0082】
<画像変換方法を実現する装置を搭載した半導体製造装置の例>
図18を参照して、この発明に係る画像変換方法を実施する機構を具えた半導体製造装置の例を説明する。この半導体製造装置は、複数枚のウエハ(単結晶薄板)が水平方向に重ねてストックされているウエハカセット22から搬送アーム26によってウエハ24を一枚ずつ取り出して、ステージ28に搬送する機能を有するものである。ステージ28に搬送されたウエハ24は、そのウエハ24に付されているオリフラに従って、定められた位置及び方向に設置されなければならない。
【0083】
オリフラとはウエハ24を構成する単結晶の結晶軸方向が、視覚的あるいは機械的に判読できるようにウエハ24の周辺の一部分を直線状にカット加工された部分をいう。結晶軸方向を判読できるようにするという同様の目的のためには、オリフラを用いるほか、ノッチといわれる、ウエハの周辺の一部分に切り欠きを入れる加工を施される場合もある。
【0084】
ウエハカセット22にウエハ24がセットされている時点では、オリフラは一定の方向に揃えられてはいない。そのため、搬送アーム26でウエハカセット22から取り出されて、ステージ28に設置されるまでの間に、何らかの方法でウエハ24のオリフラを検出し、定められた方向にオリフラが向くようにウエハ24を移送しなければならない。そこで、オリフラ検出用カメラ20によって、ウエハカセット22から取り出されたウエハ24を撮像対象とする。ここでは、撮像装置20で搬送中の状態にある搬送アーム26上のウエハ24をオリフラ検出用カメラ20で撮像して、この画像を元にオリフラを検出して、ウエハの必要回転量を求めて搬送アーム26にこの情報与え、搬送アーム26はこの情報を元に必要量だけウエハ24を回転させて、ステージ28に設置するという手順をふむ。
【0085】
半導体製造装置に具えられる撮像装置は、ウエハ等の対象物を撮像し、画像サーチ等の技術を用いたオリフラやノッチの検出等様々の目的に使われる画像を取得するために取り付けられる。そのためこの撮像装置は、ウエハをウエハ上面に対して垂直の方向に撮像できるように設置するのが、撮像される画像の歪みがないので好ましい。なぜならば、一般に画像サーチ等の機能を実現するためのプログラム等は、撮像された画像に、斜め方向から撮像された等の外的画像歪み等は存在しないことをその前提として作られているからである。
【0086】
しかしながら、半導体製造装置はクリーンルームに設置されるため、その大きさをできる限り小さく作ることが要請されている。半導体製造装置等装置全体としての大きさを小さくするためには、この撮像装置を、ウエハ面に対して垂直の方向からウエハを撮像できるように、取り付けることができない場合がある。そこで、いかなる場所に設置された撮像装置で撮像された画像であっても、その画像を変換して、本来の所望の位置に撮像装置を設定して撮像すれば得られるはずである画像に変換できれば、この問題は解決する。
【0087】
この発明に係る画像変換方法は、上述した目的を達成するのに好適な画像変換方法である。図14、図15及び図17を参照して、この発明に係る画像変換方法を実施する機構を具えた半導体製造装置の構成とその取り扱いについて説明する。以下の記述において括弧内に示す工程名は図3及び図14のフローチャートに示したそれぞれの工程名に対応する。
【0088】
斜め方向位置に設置された撮像装置20によって、搬送アーム26上のテストパターンを斜め方向から撮像する(工程ST1)。テストパターン上面に設定した特徴ある複数の点が、斜め方向から撮像した場合の受光平面に撮像される第1受光平面の座標値を読み取る(工程ST2)。これは図15に示す画像変換装置32に具えられている第1画像取得部36で行なわれる。そしてこれらの座標値(x, y)は、画像変換処理部38に送られる。仮想的な第2撮像装置12の中心位置と縮尺を決定する(工程ST3)。また、第1撮像装置による斜め方向から撮像したテストパターン上面に設定した特徴ある複数の点の第2受光平面12bにおける座標値(X,Y)が算出される(工程ST4)。またこの工程の後、テストパターン上面に設定した特徴ある複数の点に対応する第1平面座標値(x, y)と第2平面座標値(X,Y)とを基にして、座標変換のパラメータbi(ただし、i = 1, 2, 3, 4, 5, 6, 7,8である。)を連立方程式を解く方法あるいは最小二乗法で算出する(工程ST5)。このパラメータの算出は、図15及び図16に示す画像変換処理部38内の、座標変換部48において行なわれる。
【0089】
引き続いて、第2撮像装置12の受光平面を構成している第2画像データの画素[I, J]の光強度Img2(I, J)と、第1撮像装置10の受光平面を構成している第1画像データの第k行第m列の画素[k, m]の光強度Img1(k, m)との関係を与える次式(1)を求める(工程S1〜工程S8)。
【0090】
Img2(I, J) = Σ[W(k, m)×Img1(k, m)]/ΣW(k, m) (1)
この処理も図16に示す画像変換処理部38内のW(k, m)算出部51及びImg2(I, J)算出部52において行なわれる。
【0091】
上述した座標変換のパラメータbi(ただし、i = 1, 2, 3, 4, 5, 6, 7, 8である。)及び、Img2(I, J)とImg1(k, m)との関係を与える上記式(1)に関連する全てのパラメータを記憶装置40に格納する。ここで、Img2(I, J)とImg1(k, m)との関係を与える上記式(1)に関連する全てのパラメータとは、画素[I, J]に対するk及びmの範囲と、各画素[k, m]に対するW(k, m)を意味し、画素[I, J]としては第2画像データの全範囲となる。
【0092】
以上説明したように、第1撮像装置10が半導体製造装置に設定されていれば、ウエハカセット22から取り出されるたびに、搬送アーム26上のウエハ24を、第1撮像装置10で撮像された第1画像データが第2画像データに変換されて、外部に出力される。すなわち、第1画像取得部36で斜め画像データを取得して画像変換処理部38に送れば、記憶装置40から、再サンプリングのための条件式(1)に関連した全てのパラメータを呼び出し、画像変換処理部38の内部メモリ45に転送し、第1画像データが、第2撮像装置によって得られるはずの正対画像データに変換される。そしてその結果が、第2画像データ出力部42から外部に出力される。すなわち、この半導体製造装置では、通常の使用において、ウエハに対する正対撮像位置である第2撮像装置を設置しておく必要はなく、第1撮像装置20が第2撮像装置に代替される。引き続く画像処理を高速に処理するためには、第2画像データは、画像変換処理部38の内部メモリ54に保持されて、次の画像処理が実施される。
【0093】
上述したように第2画像データが第2画像データ出力部42から出力されれば、周知の画像サーチプログラム等を用いてオリフラが検出でき、この結果から周知のオリフラを所定の方向に向けて、ステージ上にウエハを設定することができる。もちろんオリフラに限らず、ノッチ等であっても、この発明の方法によれば、上述同様にウエハを所定方向に向けてステージ上に設定できることは明らかである。
【0094】
また、複数箇所でウエハ等の撮像対象物を監視する必要がある大規模な製造装置にあっては、複数箇所から撮像された画像が、全て撮像装置がウエハに対してその距離はもちろん撮像方向も同一という条件で撮像されるのが好ましい。上述した複数箇所でウエハ等の撮像対象物を監視する必要がある大規模な製造装置としては、製造ラインあるいは製造プラントであっても良い。この場合においても、上述した半導体製造装置の例と同様に、必ずしも撮像装置を撮像対象物に対して同一の条件を満たす位置に設定することができない場合が多い。
【0095】
このような複数箇所で対象物を監視する必要がある大規模な製造装置においても、この発明の画像変換方法及び画像変換装置によれば、以下に述べるような利点が生み出される。大規模製造装置に設置された複数の撮像装置で取得された画像データを、この発明の画像変換方法で画像変換処理を行なえば、対象物に対して全て等距離でかつ垂直方向から撮像した画像データにそれぞれ変換できる。
【0096】
このように、対象物に対して全て等距離でかつ垂直方向から撮像した画像データに変換されれば、この変換された画像を基にして、各撮像位置における撮像対象物の位置検出や形状欠陥等の判定に用いる画像処理プログラムを効率よく利用できる。すなわち、撮像条件等の相違に基づく画像の歪み等を含む画像を上述の画像処理プログラムで処理するためには、その歪みを考慮して撮像装置毎に対応させて、上述の画像処理プログラムのパラメータ等の変更を行なう必要がある。しかし、この発明の画像変換方法を実施すれば、このようなパラメータ等の変更を行なう工程を省くことができる。
【0097】
【発明の効果】
以上説明したように、この発明の画像変換方法及び画像変換装置によれば、撮像対象物を斜め方向から撮像して得られる斜め画像データが、この撮像対象物を正対する方向から撮像して得られる正対画像データに変換される。正対画像データでは、撮像対象物と相似形であるので、撮像対象物の識別、撮像対象物の標準物との差異の検出、撮像対象物の位置計測、撮像対象物の形状測定等の各種画像処理機能を実現する既成のプログラムライブラリ等を有効に使うことができる。また、効果的に画面サーチが行なえるので、半導体製造装置のオリフラの検出、複数の製造工程からなる製造ラインでの監視や検査において、この発明の画像変換方法は有効な技術となる。
【図面の簡単な説明】
【図1】格子パターンを真上及び斜め上方向から撮像する様子の説明に供する図である。
【図2】(A)、(B)及び(C)は真上及び斜め上方向から撮像された格子パターンの画像を示す図である。
【図3】座標変換のパラメータを求めるフローチャートである。
【図4】受光平面の座標と画素を指定するための指標についての説明に供する図である。
【図5】受光平面を構成する画素の画像データ取得方法の説明に供する図である。
【図6】真上画像用画素と、斜め画像用画素との関係の説明に供する図である。
【図7】W(k, m)の説明に供する図である。
【図8】W(k, m)の求め方の説明に供する図である。
【図9】W(k, m)を求めるためにピックアップされた点の説明に供する図である。
【図10】(A)及び(B)は、それぞれ点Oと四辺形EFGHとの関係の説明に供する図である。
【図11】(A)、(B)及び(C)は、それぞれ線分と線分との交点の有り無しの判定の説明に供する図である。
【図12】線分と線分とが重なる場合の説明に供する図である。
【図13】真上画像用画素と斜め画像用画素の関係の説明に供する図である。
【図14】W(k, m) を求めるフローチャートである。
【図15】画像変換装置の構成の説明に供する図である。
【図16】画像変換処理部の構成の説明に供する図である。
【図17】(A)及び(B)は、それぞれ格子像の変換例を示す図である。
【図18】オリフラを検出する機構を具えた半導体製造装置の概略図である。
【符号の説明】
10:第1撮像装置
12:第2撮像装置
14:格子状パターン
20:アライメント用カメラ
22:ウエハカセット
24:ウエハ
26:搬送アーム
28:ステージ
32:画像変換装置
50:再サンプリング部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention is directed to a method and apparatus for capturing an image of an imaging target such as an inspection target from an oblique direction, and converting the captured image data into image data captured from a direction directly facing the imaging target, and a method and an apparatus for these. The present invention relates to a semiconductor manufacturing apparatus and a manufacturing inspection line used.
[0002]
[Prior art]
When measuring the position of an object from the process of creating a map from an aerial photograph or the position on the photograph, the position of the object on the real space coordinates (hereinafter sometimes referred to as "world coordinates") and the object It is necessary to know the correspondence between the photographed image (hereinafter also referred to as “image”) and the position on the screen coordinates. Also, there is a demand for capturing a target object and finding a pattern of a specific shape from the image based on the image of the target object projected on the imaging surface (hereinafter also referred to as “image search”). There is also. In this case, taking into account external parameters of the imaging device, such as the imaging direction, which is the direction of the target viewed from the imaging device, and internal parameters, such as the optical characteristics of the imaging system of the imaging device, the image being captured is It is necessary to perform processing such as image search in consideration of distortion.
[0003]
Conventionally, a reference point is provided in an object, the world coordinate value of the reference point is associated with the screen coordinate value, and the external and internal parameters of the image capturing apparatus are obtained with high accuracy. There is a method of performing calibration (for example, see Patent Document 1). According to this method, regardless of the imaging direction or the distance between the target object and the imaging device, if the calibration of the imaging device is performed and an unknown point is specified on the image, the world coordinates of the unknown point Can be obtained. Therefore, the world coordinates of the unknown point on the object can be obtained using the image of the object, which is a useful technique when measuring the position of the object from the position on the photograph.
[0004]
Further, in a semiconductor manufacturing apparatus such as a stepper, there is a wafer orientation flat detector (hereinafter, referred to as Patent Documents 2 and 3) as a device for detecting an orientation flat (hereinafter, abbreviated as “Orientation flat”) of a semiconductor wafer. ). In this wafer orientation flat detector, an imaging device for imaging a wafer (object to be imaged) having an orientation flat is installed at a position directly facing the wafer so that the imaged object is not distorted and imaged.
[0005]
[Patent Document 1]
JP 2001-264037 A
[Patent Document 2]
JP-A-9-14918
[Patent Document 3]
JP 9-14938 A
[0006]
[Problems to be solved by the invention]
However, in the conventional method based on the imaging device calibration, an unknown point is specified on a captured image plane to obtain world coordinates of a target unknown point. That is, the conventional method merely associates a position in the image (screen coordinates) with a position in the space (world coordinates) based on the image. When the screen search is performed, there is a problem that an object is distorted. In other words, as a model pattern that is a search purpose, usually, a shape facing directly from the pattern, for example, a shape viewed from directly above is given, and from an image captured in an oblique direction based on that, This is because a model pattern is searched. This means that it is difficult to perform a screen search unless an image captured in an oblique direction is converted into an image captured in a directly facing direction by some method.
[0007]
In the prior art wafer orientation flat detectors (for example, see Patent Literatures 2 and 3), an imaging device that captures an image of a wafer (object to be imaged) uses an upper surface of the wafer so that the wafer is not distorted and captured. It is installed in a vertical position with respect to. However, since the semiconductor manufacturing equipment is installed in a clean room, it is necessary to make the size as small as possible, and when it is difficult to mount the imaging device so that the wafer can be imaged from a direction perpendicular to the upper surface of the wafer. There is.
[0008]
The screen search technique is an important technique other than the detection of the orientation flat of the semiconductor manufacturing apparatus, for example, for monitoring or inspecting an article in a manufacturing line including a plurality of manufacturing processes. Therefore, even in the monitoring and inspection of articles on these production lines, there is a need for a technique for converting an image captured from an oblique direction into an image captured from a directly facing direction.
[0009]
[Means for Solving the Problems]
Therefore, the image conversion method and the image conversion apparatus of the present invention have the following steps or means.
[0010]
That is, a method and an apparatus according to the present invention provide an image pickup apparatus configured with an imaging optical system and a light receiving plane, which images an image of an object to be imaged from an oblique direction and receives the image on an oblique light receiving plane (hereinafter also referred to as a “first light receiving plane”). ) Is obtained on a directly-facing light-receiving plane (hereinafter also referred to as a "second light-receiving plane") when the imaging device temporarily takes an image of the imaging target from a directly facing direction. An image conversion method and apparatus for converting into second image data.
[0011]
First, coordinate conversion is performed to determine the relationship between the first plane coordinates for determining the pixel position on the oblique light receiving plane and the second plane coordinates for determining the pixel position on the directly-facing light receiving plane. Next, the light intensity of one pixel constituting the directly-facing light receiving plane is obtained as described below. If one pixel constituting the directly-facing light receiving plane is projected onto the oblique light receiving plane, light is received over a plurality of pixels constituting the oblique light receiving plane. Therefore, it is calculated that this one pixel is projected on which pixels constituting the oblique light receiving plane and over what area, and the amount of light received by the pixels constituting the oblique light receiving plane is calculated for each of a plurality of pixels. Weighting is performed in proportion to the area of the projected portion to obtain a weighted average, and resampling is performed by a method in which the value is used as the light intensity of one pixel forming the directly-facing light receiving plane.
[0012]
In carrying out the present invention, it is preferable to perform coordinate conversion for determining the relationship between the first plane coordinates and the second plane coordinates by the following procedure.
(A) Four or more points selected so that no three or more points are aligned on a straight line, or a plurality of points selected including three points on the straight line and including at least two points outside the straight line (Hereinafter, these points are referred to as “a plurality of characteristic points.”) The imaging object having a mark on the mark, and the coordinate value of the mark in a coordinate system provided on a plane on which the mark exists is known. Using the imaging target as a test pattern, the test pattern is imaged by the imaging device.
(B) Reading the coordinate values of the first plane coordinates with respect to marks on a plurality of characteristic points in the test pattern, which are imaged on the first light receiving plane when the image is imaged from an oblique direction.
(C) An arbitrary position in the test pattern is defined as an origin, and based on an image of the test pattern imaged obliquely on the first light receiving plane, the test pattern is defined by the second light receiving position. In the case where the image is taken from the direction opposite to the center projected on the center of the plane, the position of the center of the second light receiving plane on which the origin is projected and the image of the test pattern taken obliquely from the geometrical direction. Is virtually set.
(D) For a mark on a plurality of characteristic points imaged in oblique directions, a second light reception when each of the marks in the test pattern is imaged from a virtually set opposite direction. By projecting the mark on a plane, the position of the mark at the second plane coordinates is calculated.
(E) the first coordinate of each of the marks on the characteristic points in the test pattern projected on the first light receiving plane when the image is taken from an oblique direction, and a virtually opposite direction that is directly set; On the second light receiving plane when imaged from, based on the calculated second coordinates of the marks on the plurality of characteristic points in the calculated test pattern, coordinate conversion parameters b i (However, i = 1, 2, 3, 4, 5, 6, 7, 8).
[0013]
In order to perform the calibration step of virtually setting the center position and the scale in the second plane coordinate system when capturing an image from the directly facing direction, it is preferable to perform the following.
(C ′) The scale is determined so that the size of the image at the position of the center of the first light receiving plane and the position of the center of the second light receiving plane virtually set are equal, and The position of the center portion is virtually set when imaging the object to be imaged from the directly facing direction so that the position of the center portion matches.
[0014]
In practicing the present invention, it is preferable that resampling is performed by obtaining the light intensity Img2 (I, J) of the pixel [I, J] of the second image data according to the following equation.
[0015]
Img2 (I, J) = Σ [W (k, m) × Img1 (k, m)] / ΣW (k, m)
Here, I, J, k, and m are integers, and Img1 (k, m) is the light intensity of the pixel [k, m] at the k-th row and the m-th column of the first image data. W (k, m) is the pixel [I, J] in the I-th row and the J-th column of the second image data projected on the first light receiving plane, and is located on the pixel [k, m] on the first light receiving surface. Represents the area projected to
[0016]
The range for calculating the sum of the right side of the above equation is such that the pixel [I, J] of the second image data projected on the first light receiving plane is one pixel above the pixel [k, m] on the first light receiving surface. If it is also projected on the part, it is assumed that it extends over all the projected pixels [k, m].
[0017]
According to the image conversion method or the image conversion apparatus of the present invention, the first image data (hereinafter, also referred to as “oblique image data”) obtained by imaging the imaging target from an oblique direction is placed directly above the imaging target. The image data is converted into second image data (hereinafter also referred to as “directly above image data”) obtained by imaging from the direction. Since the image of the image data directly above is similar to the object, an existing program library that realizes the following various image processing functions can be effectively used.
[0018]
That is, identification of the object, detection of the difference between the object and the standard, measurement of the position of the object, measurement of the shape of the object, and the like. Since these existing program libraries and the like are made on the premise that they are applied to an image obtained by capturing an object from directly above, they are applied to image data obtained by capturing an object from obliquely above. In such a case, it is an essential condition that the captured oblique image data be converted into image data directly above.
[0019]
According to the screen search technique, the image conversion method of the present invention can effectively perform a screen search in detecting an orientation flat in a semiconductor manufacturing apparatus, and monitoring and inspecting a manufacturing line including a plurality of manufacturing processes.
[0020]
Further, in a semiconductor manufacturing apparatus having a wafer cassette for stocking a plurality of wafers and a transfer means for taking out wafers one by one from the wafer cassette and transferring the wafers to a stage, the image conversion apparatus of the present invention is provided. It is suitable. According to the semiconductor manufacturing apparatus provided with the image conversion device of the present invention, the oblique image of the wafer acquired by the imaging device installed obliquely with respect to the upper surface of the wafer is converted into the directly-facing image. The orientation flat can be detected by using a well-known image search technique for. Therefore, it is not always necessary to install the imaging device at a position directly facing the upper surface of the wafer.
[0021]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to FIGS. Note that the drawings merely schematically show the shapes, sizes, and arrangements of the components so that the present invention can be understood, and the present invention is not limited to the illustrated examples.
[0022]
With reference to FIG. 1, a description will be given of a case where an image of an object to be imaged is taken from a direction directly opposite, for example, a position directly above, and a case where an image is taken obliquely from above. In the following description, the case where an image is taken from the directly facing direction only assumes a virtual model, and does not necessarily mean that an imaging device or the like exists. Further, for convenience of explanation, a lattice pattern 14 on a plane is used as an imaging target, but the technical content described below is valid regardless of whether the target is a lattice pattern. .
[0023]
The imaging device includes an imaging optical system and a light receiving plane. A position where the imaging device is directly opposed to the imaging target 14 and an image is taken is taken as a directly facing position B, and a position where an image is taken in an oblique direction is taken as an oblique position A. In the description of this configuration example, when the imaging device is disposed at the oblique position A, this imaging device is displayed as the first imaging device 10, its imaging optical system is shown as 10a, and its light receiving plane is shown as the oblique light receiving plane 10b. I do. Further, when an apparatus equivalent to the image pickup apparatus arranged at the oblique position A is virtually arranged at the directly opposite position B, this image pickup apparatus is referred to as a second image pickup apparatus 12, its imaging optical system is referred to as 12a, and Each is shown as a light receiving plane 12b.
[0024]
To image an object to be imaged from the directly facing direction means to install the image capturing device 12 in the normal direction of the plane on which the lattice pattern 14 exists and perform image capturing. Therefore, the optical axis of the imaging optical system 12a constituting the imaging device 12 is parallel to this normal direction, and the light receiving plane is perpendicular to this normal direction. On the other hand, the case where the imaging target 14 is imaged from an oblique direction means that the imaging device 10 is installed in a direction deviated from the normal direction of the plane on which the lattice pattern exists, and performs imaging.
[0025]
In the configuration example shown in FIG. 1, the directly-facing position B is a position in a direction directly above (facing direction) with respect to the imaging object 14, and the oblique position A is an obliquely upward direction with respect to the imaging object 14. Position. For the sake of simplicity, the x 'axis is set in the direction parallel to the left and right, and the y' axis is set in the direction perpendicular to the lattice pattern 14 regularly arranged in a matrix as shown in FIG. , The case where the imaging device 10 is installed in a direction rotated clockwise about the y ′ axis will be described.
[0026]
<Coordinate transformation>
It is assumed that the first imaging device 10 and the second imaging device 12 image a lattice pattern in this manner. As shown in FIGS. 2A, 2B, and 2C, images 18a and 18b of a lattice pattern are captured on the light receiving planes of the first and second imaging devices 10 and 12, respectively. 2 (A) and 2 (B), the grid pattern indicated by a thin line indicates the image 18a projected on the light receiving plane 10b of the first imaging device 10, and the grid pattern indicated by a thick line indicates the second pattern. An image 18b projected on the light receiving plane 12b of the imaging device 12 is shown, and each of them is shown in FIG.
[0027]
On the light receiving plane, a minute light receiving device (hereinafter, each of the light receiving devices is sometimes referred to as a “pixel”) that receives light and generates a voltage or a current proportional to the intensity of the light is uniformly provided. They are arranged in a matrix. A set of light receiving intensity sets corresponding to pixels arranged in order on the light receiving plane may be hereinafter referred to as “image data”. In order to identify individual pixels in order on the light receiving plane, a rectangular coordinate axis is provided on the light receiving plane, and along this rectangular coordinate axis, the i-th position in the horizontal axis counting from the starting point and the j-th position on the vertical axis. A pixel is referred to as a pixel [i, j]. That is, the pixel [i, j] is a pixel on the i-th row and the j-th column. Details will be described later.
[0028]
When converting the first image data captured by the first imaging device 10 into second image data captured by the second imaging device 12 having the same structure as the first imaging device 10, the first image It is important to convert the image quality of the data image so that the image quality of the second image data is not deteriorated as much as possible.
[0029]
When performing image conversion from an oblique image to a directly-facing image, in order to minimize the image quality as image data, the central part of the light receiving plane 10b of the first imaging device 10 and the central part of the light receiving plane 12b of the second imaging device 12 The scale at the time of coordinate conversion from the xy coordinate system to the XY coordinate system may be determined so that the dimensions of the image become equal. Here, a description will be given using a lattice pattern as an imaging target. 2A to 2C, the lattice pattern 18b indicated by a thick line is a directly-facing image, and the lattice pattern 18a indicated by a thin line is an oblique image. That is, in the figure, the scale is set so that the interval between the grid points arranged on the thick line shown by the symbol A in the image 18b is equal to the interval between the grid points arranged on the thin line shown by the symbol B in the image 18a. Confirm.
[0030]
Incidentally, a thick straight line indicated by a symbol A is a straight line connecting grid points arranged in the y'-axis direction in the central portion of the light receiving plane 12b of the second imaging device 12, and this straight line and the grid in the horizontal direction (x'-axis direction). The intersection with the thick straight line connecting the points is the position of the lattice point imaged on the light receiving plane 12b of the second imaging device 12. Further, the thin straight line indicated by the symbol b is a straight line in the center of the light receiving plane 10b of the first imaging device 10, which is a line of grids similarly arranged in the y'-axis direction. Therefore, in the central part of the light receiving plane 10b, the grid points indicated by the thick lines imaged by the second imaging device 12 are arranged such that the intervals between the grid points linearly arranged along the straight lines indicated by the symbols A and B are equal. When the scale of the pattern image 18b is determined, the image quality of the image-converted directly-facing image is minimized with respect to the entire screen.
[0031]
In order to define the positional relationship between the oblique light receiving plane 10b of the first imaging device 10 and the directly-facing light receiving plane 12b of the second imaging device 12, (x, y) and (X, Y) Each coordinate system is provided. As is well known, there is a relationship given by the following equation between the two coordinate systems. The conversion from the (x, y) coordinate system of the oblique light receiving plane 10b to the (X, Y) coordinate system of the directly-facing light receiving plane 12b based on the relationship given by the following equation is hereinafter referred to as “coordinate conversion”.
[0032]
X = (b 1 x + b Two y + b Three ) / (b 7 x + b 8 y + 1) (1)
Y = (b Four x + b Five y + b 6 ) / (b 7 x + b 8 y + 1) (2)
Where b i (However, i = 1, 2, 3, 4, 5, 6, 7, 8) is a parameter of the coordinate transformation. Since there are a total of eight, if the relationship of four or more corresponding points on the light receiving planes 10b and 12b of the first imaging device 10 and the second imaging device 12 is known, the parameter b i (Where i = 1, 2, 3, 4, 5, 6, 7, 8).
[0033]
That is, as shown in FIG. 2C, points corresponding to points p, q, r, and s on the oblique light receiving plane 10b of the first imaging device 10 are located on the directly-facing light receiving plane 12b of the second imaging device 12. Let the coordinates of these eight points be (x p , Y p ), (X q , Y q ), (X r , Y r ), (X s , Y s ), (X P , Y P ), (X Q , Y Q ), (X R , Y R ), (X S , Y S ). And (x p , Y p ) And (X P , Y P ), (X q , Y q ) And (X Q , Y Q ), (X r , Y r ) And (X R , Y R ), (X s , Y s ) And (X S , Y S ), The parameter b can be obtained by a method that is analytically well known. i (Where i = 1, 2, 3, 4, 5, 6, 7, 8).
[0034]
Here, a method for determining the correspondence between the coordinate positions of the oblique light receiving plane 10b and the directly-facing light receiving plane 12b will be described. In order to obtain this correspondence, a grid-like test pattern is provided as the imaging target 14. As shown in FIG. 1, four points p ′, q ′, r ′ and s ′ are defined in this test pattern. The test pattern is imaged by the first imaging device 10 to obtain a first image (an image projected on the first light receiving plane).
[0035]
In the second imaging device 12, the coordinates of the points corresponding to the points p ′, q ′, r ′, and s ′ on the test pattern on the second light receiving plane are defined assuming that the second imaging device 12 is a virtual model. Determined by calculation. First, the origin is determined for the points p ′, q ′, r ′ and s ′ on the test pattern. The second imaging device 12 is installed in a direction normal to the plane of the test pattern. Accordingly, on the light receiving plane 12b of the second imaging device 12, the positional relationship between the origin of the test pattern and the points p ', q', r ', and s' is similar. The X-axis direction and the Y-axis direction of the second imaging device 12 are matched with the x ′ direction and the y ′ direction of the grid on the test pattern, respectively, and when the similarity ratio is determined, the points P, Q, R and The position of S is determined. That is, the coordinate values of points P, Q, R, and S in FIG. 2C are calculated.
[0036]
The coordinates of the points p, q, r and s in the first image thus obtained are read by the first imaging device 10 and stored in a memory (storage device), and the second image (the second light receiving plane) is read. Are stored in the memory (storage device). As described above, since the first and second imaging devices 10 and 12 are one imaging device having an equivalent light receiving plane, that is, an imaging surface, the (x, y) coordinates of the oblique light receiving plane and the directly facing light receiving plane are used. The (X, Y) coordinate system of the plane is an equivalent plane orthogonal coordinate system (that is, mutually coordinate-transformable).
[0037]
Therefore, each of the points p ′, q ′, r ′ and s ′ in the test pattern is imaged at two coordinate positions in the same coordinate system. That is, p 'is imaged at points p and P, q' is q and Q, r 'is r and R, and s' is imaged at s and S. Since (p, q, r, s) and (P, Q, R, S) are in the same coordinate system, the corresponding relations between p and P, q and Q, r and R, and s and S, respectively. Is defined by the eight parameters of the above equations (2) and (3).
[0038]
When converting the image of the first image data to the image of the second image data, it is important that the image quality is not deteriorated as much as possible. For this purpose, the position of the second imaging device 12 is determined and the scale is adjusted so that the center portion of the first image data in the x direction matches the center portion of the second image data in the X direction. Hereinafter, a method for adjusting the scale will be described. At the grid points shown in FIG. 1, three points o ′, t ′ and u ′ are newly selected at the center. The three points, o, t, u, O, T, and U in the first and second images shown in FIG. 2C corresponding to the newly selected three points respectively correspond to the three points. When the first imaging device 10 images a test pattern, the position of the test pattern is adjusted so that o ′ is at the center of the first image. After that, the first imaging device 10 reads the positions of the seven points o ′, p ′, q ′, r ′, s ′, t ′ and u ′ on the test pattern. The origin of the second imaging device 12 is set so as to match the coordinates of the point o in the read first image (the position of the point O in the second image is determined). Then, the position of the point T in the second image is determined so that the interval between the points o and t in the first image is equal to the interval between the points O and T in the second image. At this time, the X coordinate of the T point is set to be the same as the O point, and only the Y coordinate is changed. When the position of the point T in the second image is determined in this manner, the scale of the second image data is determined. That is, the distance of the second imaging device 12 from the test pattern is determined. Since the second imaging device 12 is installed in the direction directly opposite to the point o 'of the test pattern, the points p', q ', r', s ', t', and u 'for the point o' on the test pattern. In the second image, the positional relationship is the position of each point with respect to the point O at the same similarity ratio. That is, the coordinates of the points P, Q, R, S, T, and U in the second image are calculated by performing similarity conversion on the point O. Since the seven points on the test pattern obtained in this way have a corresponding relationship on the light receiving plane of the first and second imaging devices, the number of expressions related to Expressions (2) and (3) is large. Therefore, the eight parameters of the equations (2) and (3) are obtained using the least squares method.
[0039]
Parameter b i (Where i = 1, 2, 3, 4, 5, 6, 7, 8) is stored in the storage device, and any point on the light receiving plane 10b of the first imaging device 10 is Which point on the light receiving plane 12b of the second imaging device 12 corresponds to which point is uniquely determined using Expressions (2) and (3). In other words, the central processing unit (CPU) reads out the coordinate values and parameters stored in the storage device and the above equations (2) and (3) and calculates them to thereby determine the position on the light receiving plane 10b. It can be converted to the upper position and corresponded.
[0040]
Further, in the above-described example, seven points are selected on the light receiving planes 10b and 12b of the first imaging device 10 and the second imaging device 12, respectively, and the coordinate conversion parameters are obtained from the corresponding relationships. You don't have to choose 7 points like.
[0041]
The number of the selected plurality of points is at least four if at least three points are selected so as not to be aligned on a straight line. Further, when three points on a straight line are selected and at least two points outside the straight line are selected, the number of the selected plurality of points is at least five. That is, a plurality of points that satisfy the above-described conditions may be selected. Of course, the more the selected points, the higher the calculation accuracy of the required coordinate conversion parameters.
[0042]
Parameter b of the coordinate transformation of the coordinate transformation described above i (However, i = 1, 2, 3, 4, 5, 6, 7, 8) The procedure (process) for obtaining is summarized as follows with reference to the flowchart shown in FIG.
[0043]
(a) Test pattern imaging step (ST1) of imaging a test pattern with the first imaging device 10
(b) Coordinate reading step (ST2) of reading the coordinates on the light receiving plane of a plurality of characteristic points in the test pattern on the light receiving plane 10b of the first imaging device 10
(c) Marks on a plurality of characteristic points imaged in oblique directions for setting the origin at an arbitrary position in the test pattern and setting the scale of the image in which the test pattern is imaged by the second imaging device 12 Calibration step for determining the center position and scale of the second imaging device, which geometrically resembles the position with respect to the origin (ST3)
(d) Using the center position and the scale set in the above step (d), on the light receiving plane 12b of the second imaging device 12, the light receiving plane of each of the points selected in the step (a) in the test pattern. Coordinate calculation step (ST4) for calculating the above coordinates
(e) coordinates of a plurality of characteristic points in the test pattern imaged on the light receiving plane 10b of the first imaging device 10 and the plurality of points in the test pattern calculated on the light receiving plane 12b of the second imaging device 12 Calculate the parameter to obtain the coordinate transformation parameter bi (where i = 1, 2, 3, 4, 5, 6, 7, 8) by solving simultaneous equations or the least squares method based on the coordinates of Process (ST5)
[0044]
Further, the steps (a) and (c) preferably include the following steps.
(a ′) In order to make the center point of the light receiving plane 10b of the first imaging device 10 coincide with the center point of the light receiving plane 12b of the second imaging device 12, a test pattern is provided at the center point of the light receiving plane 10b of the first imaging device 10. A test pattern position adjustment step of adjusting a test pattern installation position to adjust an installation position of the test pattern so that a lattice point located at the center on the upper side is imaged (ST1-1).
(c ′) The center point of the light receiving plane 12b of the second imaging device 12 is matched with the coordinate value read as the center point of the light receiving plane 10b of the first imaging device 10, and the center of the light receiving plane 10b of the first imaging device 10 is Calibration step of setting the scale of the second imaging device so that the size of the image is equal between the portion and the central portion of the light receiving plane 12b of the second imaging device 12 (ST3-1)
[0045]
Note that the parameter b of the coordinate conversion of the coordinate conversion described above is used. i (However, i = 1, 2, 3, 4, 5, 6, 7, 8) An apparatus for realizing the procedure (process) for obtaining is described later.
[0046]
<Resampling>
With reference to FIG. 4, the coordinates provided on the light receiving plane of the imaging device and the index for designating the pixels constituting the light receiving plane will be described. Here, the pixels are arranged in a matrix, for example, and the shape of each pixel is assumed to be a square for the sake of simplicity, and the boundary region between adjacent pixels has only a negligible width. Since each pixel has light receiving sensitivity inside the square and the boundary area between adjacent pixels has only a negligible width, the description will be made assuming that the pixel has light receiving sensitivity everywhere on the light receiving plane.
[0047]
Assuming that the dimension of one side of the pixel is L, the center of the pixel is indicated by a black circle in FIG. 4 and the vertexes of the four corners of the pixel are indicated by crosses. As shown in FIG. 4, an xy coordinate system is used, and coordinate values are indicated as (x, y). On the other hand, an index for designating each pixel is represented as [i, j]. These i and j correspond to the i-th row and the j-th column. For example, the coordinates of the vertices of the four corners of the pixel specified by the index [0, 0] are (+ 0.5L, -0.5L), (+ 0.5L, + 0.5L), (-0.5L, + 0.5L). ) And (−0.5 L, −0.5 L), and the center coordinates of the pixel are (0, 0). Generally, the coordinates of the vertices of the four corners of the pixel specified by the index [i, j] are ((i + 0.5) L, (j-0.5) L), ((i + 0.5) L, (j + 0.5) L), ((i-0.5) L, (j + 0.5) L) and ((i-0.5) L, (j-0.5) L), and the center coordinates of the pixel are (iL, jL).
[0048]
Also, x or y representing coordinate values and index values i, j or k, m for designating pixels are displayed using lowercase letters as values relating to the light receiving plane of the first imaging device 10, that is, the oblique light receiving plane 10b. It is assumed that the value relating to the light receiving plane of the second imaging device 12, that is, the directly-facing light receiving plane 12b is displayed using capital letters. That is, the coordinate value of the light receiving plane 10b of the first imaging device 10 is (x, y), and the index for designating the pixels constituting the light receiving plane 10b of the first imaging device 10 is [i, j] or [k, m].
[0049]
On the other hand, the coordinate value of the light receiving plane 12b of the second imaging device 12 is (X, Y), and the index for specifying the pixels constituting the light receiving plane 12b of the second imaging device 12 is [I, J]. Note that the image data obtained from the second imaging device 12 is referred to as directly-facing image data. Here, since the directly-facing position is a position directly above the imaging target, it is also referred to as directly above image data. Further, image data obtained from the first imaging device 10 is referred to as oblique image data.
[0050]
With reference to FIG. 5, a method of acquiring image data of each pixel constituting the light receiving plane will be described. Figure 5 shows the index [i p , j q (Here, p = 1, 2, 3, 4, 5 and q = 1, 2) are enlarged and displayed. A case where a black band-like image having a width is formed on the pixel will be described. The shaded portion in FIG. 5 is the portion of the black image. It is assumed that the light does not reach the black portions indicated by oblique lines, and the light reaches uniform brightness to the other white portions. The light intensity received by each pixel is digitized into 256 gradations and received. That is, it is assumed that the pixel is set so as to output brightness information as digital data in which 0 indicates no light is received and 255 indicates the brightest light is received. In this case, the indicator [i p , j q (Where p = 1, 2, 3, 4, 5 and q = 1, 2), the digital value captured as one of the image data by the eight pixels is
[i 1 , j Two ] = 0, [i Two , j Two ] = 10, [i Three , j Two ] = 40, [i Four , j Two ] = 96, [i Five , j Two ] = 128,
[i 1 , j 1 ] = 20, [i Two , j 1 ] = 0, [i Three , j 1 ] = 0, [i Four , j 1 ] = 0, [i Five , j 1 ] = 0
And These values are in proportion to the area occupied by the bright portion in each pixel.
[0051]
Here, for the sake of simplicity, an example has been described in which an image is composed of two areas, a pure white part and a pure black part. However, the same applies to an image including a more complicated area of intermediate brightness. The digital value captured by a pixel as one of the image data is a value proportional to the product of the brightness of the image projected on the pixel and the area occupied by the brightness portion on the pixel.
[0052]
Next, referring to FIG. 6, a pixel for acquiring directly above image data (hereinafter, also simply referred to as a “directly above image pixel”) and a pixel for acquiring oblique image data (hereinafter simply referred to as “oblique image pixel”). This is sometimes referred to as "."). FIG. 6 is a diagram in which a pixel located in a range of i to i + 2 for a column position of an oblique image pixel and a pixel existing in a range of j to j + 2 for a row position of an oblique image pixel are separated by a thin line. Indicated. That is, the upper left pixel is a pixel given by the index [i, j], and the lower right pixel is a pixel given by the index [i + 2, j + 2]. In addition, the image directly above the pixel given by the index [I, J] is projected on the pixel from which the oblique image is obtained by a thick square ABCD. In the following, a pixel given by an index [I, J] or [i, j] is abbreviated as a pixel [I, J] or a pixel [i, j], respectively.
[0053]
The vertices A, B, C, and D of the pixel [I, J] projected on the oblique image pixel are A ((I−0.5) L, (J) on the light receiving plane 10b of the first imaging device 10, respectively. -(0.5) L), B ((I + 0.5) L, (J-0.5) L), C ((I + 0.5) L, (J + 0.5) L), D ((I-0.5) L, ( J + 0.5) L). The coordinates ((I-0.5) L, (J-0.5) L), ((I + 0.5) L, (J-0.5) L), ((I + 0.5) L) of the four vertices of the pixel [I, J] , (J + 0.5) L), and ((I-0.5) L, (J + 0.5) L) are located at positions A, B, C, and D on the light receiving plane 12a of the second imaging device 12, respectively. Projected.
[0054]
Next, the following equation (1) that gives resampling will be described.
Img2 (I, J) = Σ [W (k, m) × Img1 (k, m)] / ΣW (k, m) (1)
As shown in FIG. 6, consider a case where the pixel [I, J] is projected onto a pixel constituting the light receiving plane 10b of the first imaging device 10. In this case, the range for obtaining the sum indicated by Σ is a range from i to (i + 2) for k, and a range from j to j + 2 for m.
[0055]
Here, the meaning of W (k, m) will be described. W (k, m) represents the area of the pixel [I, J] projected on the pixel [k, m] forming the light receiving plane 10b of the first imaging device 10. That is, a part of the pixel [I, J] is projected on the pixel [k, m], but W (k, m) is the image of the pixel [I, J] on the pixel [k, m]. Represents the area of the projected and overlapping portion. The area of the overlapping portion is also referred to as “partial projection area”. FIG. 7 is a graph for explaining the meaning of W (k, m), where k is in the range from i to (i + 2) and m is in the range from j to j + 2. FIG. 9 is a diagram in which the portion where the image of the pixel [I, J] is projected and overlapped is indicated by oblique lines and displayed in an easily viewable manner. Each square indicated by a thin line indicates a pixel [k, m]. A hatched portion demarcated by a thick straight line is a polygon having an area given by W (k, m) (part of the projected area where the image of pixel [I, J] is projected on pixel [k, m]) ).
[0056]
Equation (1) shows that the pixel [I, J] is a range of pixels projected on the pixels constituting the light receiving plane 10b of the first imaging device 10 (k is a range from i to (i + 2), For m, the value obtained by weighting and averaging W (k, m) with respect to the range of j to j + 2 is used as the value of the pixel [I, J] on the light receiving plane 12b of the second imaging device 12 ( (Digital value related to brightness).
[0057]
Img1 (k, m) is a digital value (value of pixel [k, m]) relating to the brightness received by pixel [k, m], and W (k, m) is pixel [k, m] Since it is the image partial projection area of the pixel [I, J] above, W (k, m) × Img1 (k, m) is the value of the pixel [k, m] of only W (k, m). The value takes into account the weight. Σ [W (k, m) × Img1 (k, m)] is the sum of k over the range from i to (i + 2) and m over j from j to j + 2. Further, ΣW (k, m) represents the total projected area of the image of the pixel [I, J] projected on the light receiving plane 10b of the first imaging device 10. Therefore, the right side of Expression (1) represents the range of pixels (k is from i to (i + 2) for the range of pixels in which the pixel [I, J] is projected on the pixel constituting the light receiving surface of the first imaging device. For the range, m, the range from j to j + 2), a weighted average value with W (k, m) as the weight is given.
[0058]
Next, the procedure for determining W (k, m) will be described. FIG. 8 is a diagram for explaining a procedure for obtaining W (k, m), and is an enlarged view of a peripheral portion of a pixel [i, j]. Positions where the four vertices of the pixel [I, J] are projected on the light receiving plane 10b of the first imaging device 10 are A, B, C, and D. The four vertices of the pixel [i, j] on the light receiving plane 10b are A ', B', C ', and D'. As described above, these eight points are in the same (x, y) coordinate system.
[0059]
W (k, m) is determined by the following procedure (process).
(A) It is checked whether the points A, B, C, and D are included in the quadrilateral A'B'C'D '.
Pick up A because A is included.
(B) Check whether the points A ', B', C ', and D' are included in the quadrilateral ABCD.
Since C 'is included, pick up C'.
(C-1) The intersection of line segment A'B 'with line segment AB, line segment BC, line segment CD, line segment DA is examined.
There are no intersections.
(C-2) The intersection of the line segment B'C 'with the line segment AB, the line segment BC, the line segment CD, and the line segment DA is examined.
Since a is an intersection (exists as the intersection of line segment B'C 'and line segment AB), pick up a.
(C-3) The intersection of the line segment C'D 'with the line segment AB, the line segment BC, the line segment CD, and the line segment DA is examined.
Since b is an intersection (exists as the intersection of line segment C'D 'and line segment DA), b is picked up.
(C-4) The intersection of the line segment D'A 'with the line segments AB, BC, CD, and DA is examined.
There are no intersections.
(D) The top left point is found for the picked-up point (four points are registered in the list in the order of A, C ', a, b in this embodiment). Specifically, as shown in FIG. 9, each line is drawn one by one so that a straight line inclined at 45 degrees to the X axis passes through each point, and the intersection of the Y axis and the straight line inclined at 45 degrees is drawn. The smallest one of the Y coordinates is selected. The reason for selecting the smallest Y coordinate is that the coordinate set on the light receiving plane is a left-handed coordinate system. Thus, the first point is obtained. Here, it is point A.
(E-1) On the basis of a straight line passing through point A and having an inclination of 45 degrees, this line is rotated clockwise around point A to find the first contact point, and this is the second point And In this case, point a is obtained as the second point.
(E-2) Next, the straight line A a is rotated clockwise about the point a to find a first contact point, and this is set as a third point. In this case, point C ′ is obtained as the third point.
(E-3) Next, the straight line a C ′ is rotated clockwise about the point C ′ to find the first contact point, and this is set as the fourth point. In this case, point b is obtained as the fourth point.
(E-4) The above steps are sequentially performed on the picked-up points. By this process, the picked up points are arranged clockwise in order from the upper left.
(F) If the picked-up points are arranged clockwise in order from the top left, the coordinates of the four vertices of the quadrilateral have been determined, and the coordinates of the quadrilateral A a C ' The area of b, that is, W (k, m) can be obtained by a known method.
[0060]
Next, a method performed in steps (a) and (b) for checking whether or not the point of interest is included in the quadrilateral will be described with reference to FIG. FIG. 10A is a diagram showing a case where the point O is inside the quadrilateral EFGH, and FIG. 10B is a diagram showing a case where the point O is outside the quadrilateral EFGH. It is assumed that there is a point starting from the point E of the quadrilateral EFGH and moving on the side in the order of the points E, F, G, and H. At this time, the angle θ between the point E and the point F 1 Is measured with the direction from point E to point F being a positive direction. Similarly, the angle between the point F and the point G is θ2, the angle between the point G and the point H is θ3, and the angle between the point H and the point E is θ4. The direction toward is measured in the positive direction.
[0061]
When the point O shown in FIG. 10A is inside the quadrilateral EFGH, θ 1 + θ Two + θ Three + θ Four Becomes 2π. On the other hand, when the point O shown in FIG. 10B is outside the quadrilateral EFGH, θ 1 + θ Two + θ Three + θ Four Becomes 0. Although not shown, when the point O is on the side of the quadrilateral EFGH, θ 1 + θ Two + θ Three + θ Four Becomes π. As described above, θ 1 + θ Two + θ Three + θ Four Is obtained, and if the value is 2π, 0, or π, it can be checked whether or not the point of interest O is included in the quadrilateral EFGH.
[0062]
In the steps (a) and (b) for obtaining W (k, m) described above, in the steps (a) and (b), even when the point to be picked up is on the side of the quadrilateral, Treated as
[0063]
Next, with reference to FIG. 11 and FIG. 12, intersections of line segments, which are performed in the above-described steps (c-1), (c-2), (c-3) and (c-4) The rules for requesting are explained. FIG. 11 illustrates a case where the line segments do not overlap, and FIG. 12 illustrates a case where the line segments overlap. If an intersection exists on the extension of the line segment as shown in FIG. 11 (A), it is treated as having no intersection. It is determined that the intersection exists, as shown in FIG. 11B, when the intersection exists within the range where the line segment exists. As shown in FIG. 11C, it is determined that an intersection exists even when the end point of the line segment is an intersection. When the thin line segment 1 and the thick line segment 2 overlap as shown in FIG. 12, two points are picked up as intersections.
Further, the following processing is performed as a derivative step.
[0064]
(A) In step (a) described above, if all points of A, B, C, and D are not included in the quadrilateral A'B'C'D ', W (k, m) = The processing ends with 0.
(B) In the above step (b), when all points of A ′, B ′, C ′, and D ′ are not included in the quadrilateral ABCD, W (k, m) = 0, and finish.
(C) When the above steps (c-1) to (c-4) are completed, the number of picked-up points is one to two or three to eight.
[0065]
Therefore,
(C1) If the number of points to be picked up is 0 or 2, W (k, m) = 0 and the processing ends.
(C2) If the number of picked-up points is three to eight, processing is performed up to step (f) to obtain W (k, m).
[0066]
In FIG. 6, the relationship between the pixel for the overhead image and the pixel for the oblique image is shown, which shows the relationship between the quadrilateral (shape of the pixel for the overhead image) and the square (shape of the pixel for the oblique image). Things. In such a relationship, when the relationship between the quadrilateral and the square becomes the relationship shown in FIG. 13, the number of points picked up is eight, which is the maximum number. FIG. 13 shows the relationship between pixels for directly above images (quadrilaterals shown by thick lines) and pixels for oblique images (squares shown by thin lines). From this, the maximum number of points to be picked up is eight.
[0067]
The procedure for obtaining W (k, m) described above is merely an example, and there may be other suitable procedures other than the method described here. However, no matter what procedure is used to determine W (k, m), it is clear that the present invention can be applied to the image conversion method or image conversion apparatus according to the present invention.
[0068]
The procedure for obtaining W (k, m) described above is summarized as follows with reference to the flowchart shown in FIG.
[0069]
The positions where the four vertices of the pixel [I, J] forming the second light receiving plane are projected on the light receiving plane of the first imaging device are A, B, C, and D, and the pixel [ i, j] as A ', B', C ', D'
(D) It is checked whether the points A, B, C, and D are included in the quadrilateral A'B'C'D '(step S1). If neither is included (N), W (k, m) is set to W (k, m) = 0 (step S2), and this procedure ends. On the other hand, when any point is included (Y), the included point is picked up (step S3).
(E) It is checked whether or not each point of A ', B', C ', D' is included in the quadrilateral ABCD (step S4). If neither is included (N), W (k, m) is set to W (k, m) = 0 (step S5), and this procedure is terminated. On the other hand, if any point is included (Y), the included point is picked up (step S6).
(F) Next, the intersection of line segment A'B 'with line segment AB, line segment BC, line segment CD, line segment DA,
Intersection of line segment B'C 'with line segment AB, line segment BC, line segment CD, line segment DA,
Intersection of line segment C'D 'with line segment AB, line segment BC, line segment CD, line segment DA, and
The intersection of the line segment D'A 'with the line segment AB, the line segment BC, the line segment CD, and the line segment DA are examined and picked up (step S7).
(G) W (k, m) is obtained from the coordinates of all the points picked up in the steps S3, S6 and S7 (step S8).
[0070]
<Description of image conversion device>
Next, an apparatus for realizing the above-described image conversion method will be described with reference to FIGS. FIG. 15 is a diagram for explaining the configuration of the image conversion device 32 of the present invention. The image conversion device 32 includes the imaging device 10 described with reference to FIG.
The image conversion device 32 includes a first image data acquisition unit 36, an image conversion processing unit 38, a storage device 40, and a second image data output unit 42. The image conversion processing unit 38 includes a CPU as described later. The first image data acquisition unit 36 receives an image captured by the first imaging device 10, and sends the image to the image conversion processing unit 38 as first image data. The storage device 40 stores coordinate transformation parameters and all parameters related to the equation (1) giving resampling. Further, in the image conversion step, all parameters related to the equation (1) giving resampling are called, transferred to the image conversion processing unit 38, and used for conversion into the second image data. Here, all parameters related to equation (1) that give resampling mean the range of k and m for pixel [I, J] and W (k, m) for each pixel [k, m]. However, the pixel [I, J] is the entire range of the second image data. The second image data converted by the image conversion processing unit 38 is output to the outside via the second image data output unit as needed.
The processing related to the writing and calling of the information into and from the storage device 40 is a well-known matter in a control device using a computer, and thus detailed description is omitted.
[0071]
First, the test pattern 14 is placed on the transport arm 26, and an operation for calibrating the position of the imaging device is performed on the test pattern 14 as described above. First, the test pattern 14 is imaged by the first imaging device 10 at the position A. This step corresponds to step ST1 shown in the flowchart of FIG. In order not to deteriorate the image quality of the directly converted image data as compared with the image quality of the oblique image data as much as possible, a grid point located at the center on the test pattern is located at the center point of the light receiving plane 10b of the first imaging device 10. The installation position of the test pattern is adjusted so that an image is taken. This step corresponds to step ST1-1 shown in the flowchart of FIG. Next, the scale of the second imaging device is set such that the dimensions of the images at the central portion of the light receiving plane 10b of the first imaging device 10 and the central portion of the light receiving surface 12b of the second imaging device 12 are equal. Since the second imaging device is a virtual model, this setting can be easily performed. This step is Step ST3-1 shown in the flowchart of FIG.
[0072]
The (x, y) coordinate system is provided on the light receiving plane of the first imaging device 10, and the first image data of the test pattern is taken into the first image data acquisition unit 36 provided in the image conversion device 32. The first image data captured by the first image data acquisition unit 36 provided in the image conversion device 32 is sent to the image conversion processing unit 38 and used when calculating coordinate conversion parameters. On the other hand, the second imaging device 12 is a virtual device that does not actually exist. Therefore, the coordinate system (X, Y) provided on the light receiving plane 12b of the second imaging device 12 exists only on the internal memory 54 of the image conversion processing unit 38 (see FIG. 16 described later). After the center position and the scale of the second imaging device 12 are set, the coordinate values of the selected grid point on the test pattern are input to the image conversion device 32. When the coordinate values of the selected grid point are input to the image conversion processing unit 38, for each grid point on the selected test pattern, the coordinate value on the light receiving plane of the second imaging device 12 is Are created on the internal memory 54 of the image conversion processing unit 38 (see FIG. 16 described later). In this way, data for obtaining the coordinate conversion parameters is prepared. When these data are prepared, the data image conversion processing unit 38 performs an operation to calculate the coordinate conversion parameters bi (where i = 1, 2, 3, 4, 5, 6, 7, 8) and re-calculates. Relational expressions used in sampling
Img2 (I, J) = Σ [W (k, m) × Img1 (k, m)] / ΣW (k, m)
Is determined. The above-described coordinate conversion parameters and the resampling relational expression are sent to the storage device 40 and stored.
[0073]
As described above, the installation of the imaging device 10 for actually imaging the imaging target object and the setting of the parameters necessary for the image conversion in the storage device of the image conversion device are completed. If the imaging object is imaged by the imaging device 10, the imaging result is sent to the first image acquisition unit 36 and further sent to the image conversion processing unit 38. In the image conversion processing unit 38, the above-described coordinate conversion parameters and the resampling relational expression are extracted from the storage device 40, and the conversion to the directly-facing image data is performed using these parameters. It is created on the internal memory of the conversion processing unit 38, and further image processing can be continuously performed. Alternatively, in some cases, the directly-facing image data obtained as a result of the conversion is output to the outside from the second image data output unit 42, and further image processing or the like is performed outside.
[0074]
With reference to FIG. 16, the configuration of the image conversion processing unit 38 provided in the image conversion device 32 will be described. The image conversion processing unit 38 includes a control unit 46, a coordinate conversion unit 48, a resampling unit 50, and an internal memory 54. The internal memory 54 temporarily stores W (k, m) and directly-facing image data obtained by image conversion in order to perform image conversion processing at high speed. Further, the resampling unit 50 includes a W (k, m) calculating unit 51 and an Img2 (I, J) calculating unit 52.
[0075]
The control unit 46 controls the coordinate conversion unit 48 and the resampling unit 50, and controls data exchange with the storage device 40 and the like, operation timing, and the like. Further, the control unit 46 can control the operations of the first image data acquisition unit 36 and the second image data output unit 42 described with reference to FIG. The part of the control unit 46 that controls the first image data acquisition unit 36 and the second image data output unit 42 may be configured as a part of another CPU outside the image conversion processing unit 38. How to configure the control unit 46 is only a matter of design.
[0076]
The coordinate conversion unit 48 reads the standard coordinates of the first light receiving plane, which are imaged on the light receiving plane when a plurality of characteristic points in the test pattern are imaged in oblique directions. This step is step ST2 of the flowchart shown in FIG. In addition, the center position and the scale of the second light receiving plane 12b are set. This step is step ST3 in the flowchart shown in FIG. Further, the coordinate values of the grid points on the plurality of selected characteristic points in the test pattern imaged in the oblique direction by the first imaging device on the second light receiving plane 12b are calculated. This step is step ST4 in the flowchart shown in FIG. After this step, the coordinate conversion parameter b is calculated based on the coordinate values of the grid points on the corresponding characteristic points on the test pattern. i (However, i = 1, 2, 3, 4, 5, 6, 7, 8). This step is step ST5 in the flowchart shown in FIG.
[0077]
The resampling unit 50 performs a process of converting the first image data, which is oblique image data obtained by imaging the imaging target, into the second image data, which is directly-facing image data. The W (k, m) calculation unit 51 performs a process corresponding to the steps S1 to S8 shown in FIG. 14 and performs the processing on the I-th row and the J-th column of the second image data projected on the first light receiving plane. Of the pixel [I, J] is calculated as W (k, m) representing the area projected onto the pixel [k, m] on the first light receiving plane, and the result is stored in the storage device 40. The Img2 (I, J) calculation unit 52 calculates the value of the light intensity Img1 (k, m) of the pixel [k, m] at the k-th row and the m-th column of the first image data sent from the first image acquisition unit Is the following equation including W (k, m) stored in the storage device 40.
Img2 (I, J) = Σ [W (k, m) × Img1 (k, m)] / ΣW (k, m)
, The light intensity Img2 (I, J) of the pixel [I, J] of the second image data is calculated.
[0078]
According to the apparatus described above, if the element Img1 (k, m) of the oblique image data obtained by imaging the imaging target with the first imaging device is given over the entire oblique light receiving plane, this is taken as the imaging target. Is calculated over the entire directly-facing light-receiving plane, and the desired image conversion is performed.
[0079]
<Example of conversion processing by image conversion method>
With reference to FIG. 17, an example of an image obtained by performing image conversion from diagonal image data obtained by imaging a lattice as an imaging target in an oblique direction to image data directly above will be described. FIG. 17A shows an image taken obliquely from above. In this image, it can be seen that the grid spacing (the spacing between the intersections of the black lines) becomes narrower toward the right. Also, it can be seen that the thickness of the black line forming the lattice image becomes thinner toward the right side.
[0080]
The image shown in FIG. 17B is obtained by converting the lattice image shown in FIG. 17A into an image that would be obtained if the image was taken from directly above. In this image conversion, in order to determine the magnification of the image, the grid interval p on the representative black line at the center of the image forming the grid image indicated by the arrow 16 in FIG. The condition that it is equal to the lattice spacing p 'on the line was imposed. In the converted image shown in FIG. 17B, grid points (intersection points of black lines) are arranged in a square shape, and the black lines have a uniform thickness. In other words, it can be seen that it is equivalent to a grid image taken from directly above.
[0081]
Note that black triangles indicated by arrows 17 and 18 in FIG. 17B are portions not shown in the image of FIG. 17A. That is, this black triangle portion is a portion in which the corresponding image data does not exist in the oblique image data forming the image shown in FIG.
[0082]
<Example of a semiconductor manufacturing apparatus equipped with an apparatus for realizing an image conversion method>
Referring to FIG. 18, an example of a semiconductor manufacturing apparatus provided with a mechanism for performing the image conversion method according to the present invention will be described. This semiconductor manufacturing apparatus has a function of taking out wafers 24 one by one by a transfer arm 26 from a wafer cassette 22 in which a plurality of wafers (single-crystal thin plates) are stacked horizontally and stocked, and transporting the wafers 24 to a stage 28. Things. The wafer 24 transferred to the stage 28 must be set at a predetermined position and direction according to the orientation flat attached to the wafer 24.
[0083]
The orientation flat is a portion obtained by linearly cutting a part of the periphery of the wafer 24 so that the crystal axis direction of the single crystal constituting the wafer 24 can be visually or mechanically read. For the same purpose of making the crystal axis direction legible, besides using an orientation flat, there is also a case where a notch is cut into a part of the periphery of the wafer.
[0084]
When the wafer 24 is set in the wafer cassette 22, the orientation flat is not aligned in a certain direction. Therefore, before being taken out of the wafer cassette 22 by the transfer arm 26 and set on the stage 28, the orientation flat of the wafer 24 is detected by some method, and the wafer 24 is transferred so that the orientation flat is oriented in a predetermined direction. Must. Therefore, the wafer 24 taken out of the wafer cassette 22 by the orientation flat detection camera 20 is set as an imaging target. Here, the wafer 24 on the transfer arm 26 in the state of being transferred by the imaging device 20 is imaged by the orientation flat detection camera 20, and the orientation flat is detected based on this image to determine the required rotation amount of the wafer. This information is provided to the transfer arm 26, and the transfer arm 26 rotates the wafer 24 by a required amount based on the information and installs the wafer 24 on the stage 28.
[0085]
2. Description of the Related Art An imaging device provided in a semiconductor manufacturing apparatus is mounted to capture an image of an object such as a wafer and acquire images used for various purposes such as detection of an orientation flat and a notch using a technique such as image search. Therefore, it is preferable to install the imaging device so that the wafer can be imaged in a direction perpendicular to the upper surface of the wafer because there is no distortion in the image to be imaged. This is because programs and the like for realizing functions such as image search are generally made on the assumption that there is no external image distortion or the like such as an image captured in an oblique direction in a captured image. It is.
[0086]
However, since the semiconductor manufacturing apparatus is installed in a clean room, it is required to make the size as small as possible. In order to reduce the size of the entire apparatus such as a semiconductor manufacturing apparatus, it may not be possible to mount the imaging apparatus so that the wafer can be imaged in a direction perpendicular to the wafer surface. Therefore, even if an image is captured by an imaging device installed in any place, the image is converted to an image that should be obtained by setting the imaging device at the originally desired position and capturing the image. If possible, this problem will be solved.
[0087]
An image conversion method according to the present invention is an image conversion method suitable for achieving the above-described object. With reference to FIGS. 14, 15 and 17, the configuration and handling of a semiconductor manufacturing apparatus provided with a mechanism for performing the image conversion method according to the present invention will be described. In the following description, the step names in parentheses correspond to the respective step names shown in the flowcharts of FIGS.
[0088]
The test pattern on the transfer arm 26 is imaged from an oblique direction by the imaging device 20 installed at an oblique direction position (step ST1). A plurality of characteristic points set on the upper surface of the test pattern are read from the oblique direction, and the coordinate values of the first light receiving plane imaged on the light receiving plane are read (step ST2). This is performed by the first image acquisition unit 36 provided in the image conversion device 32 shown in FIG. Then, these coordinate values (x, y) are sent to the image conversion processing unit 38. The virtual center position and scale of the second imaging device 12 are determined (step ST3). In addition, coordinate values (X, Y) of a plurality of characteristic points set on the upper surface of the test pattern imaged in the oblique direction by the first imaging device on the second light receiving plane 12b are calculated (step ST4). After this step, coordinate conversion is performed based on first plane coordinate values (x, y) and second plane coordinate values (X, Y) corresponding to a plurality of characteristic points set on the upper surface of the test pattern. Parameter b i (Where i = 1, 2, 3, 4, 5, 6, 7, 8) is calculated by the method of solving simultaneous equations or the method of least squares (step ST5). The calculation of this parameter is performed in the coordinate conversion unit 48 in the image conversion processing unit 38 shown in FIGS.
[0089]
Subsequently, the light intensity Img2 (I, J) of the pixel [I, J] of the second image data forming the light receiving plane of the second imaging device 12 and the light receiving plane of the first imaging device 10 are configured. The following equation (1) that gives a relationship with the light intensity Img1 (k, m) of the pixel [k, m] in the k-th row and the m-th column of the first image data is obtained (Steps S1 to S8).
[0090]
Img2 (I, J) = Σ [W (k, m) × Img1 (k, m)] / ΣW (k, m) (1)
This processing is also performed in the W (k, m) calculation unit 51 and the Img2 (I, J) calculation unit 52 in the image conversion processing unit 38 shown in FIG.
[0091]
Parameter b for coordinate transformation described above i (Where i = 1, 2, 3, 4, 5, 6, 7, 8) and the above equation (1) which gives the relationship between Img2 (I, J) and Img1 (k, m) All relevant parameters are stored in the storage device 40. Here, all the parameters related to the above equation (1) that give the relationship between Img2 (I, J) and Img1 (k, m) include the ranges of k and m for the pixel [I, J], It means W (k, m) for the pixel [k, m], and the pixel [I, J] is the entire range of the second image data.
[0092]
As described above, if the first imaging device 10 is set to the semiconductor manufacturing device, every time the first imaging device 10 is taken out of the wafer cassette 22, the wafer 24 on the transfer arm 26 is imaged by the first imaging device 10. One image data is converted to second image data and output to the outside. That is, if the oblique image data is acquired by the first image acquisition unit 36 and sent to the image conversion processing unit 38, all the parameters related to the conditional expression (1) for resampling are called from the storage device 40, and the image The first image data is transferred to the internal memory 45 of the conversion processing unit 38, and is converted into directly-facing image data that should be obtained by the second imaging device. Then, the result is output from the second image data output unit 42 to the outside. That is, in this semiconductor manufacturing apparatus, in normal use, it is not necessary to install the second imaging device, which is the position directly facing the wafer, and the first imaging device 20 is replaced with the second imaging device. In order to perform subsequent image processing at high speed, the second image data is held in the internal memory 54 of the image conversion processing unit 38, and the next image processing is performed.
[0093]
If the second image data is output from the second image data output unit 42 as described above, the orientation flat can be detected using a known image search program or the like, and from the result, the known orientation flat is oriented in a predetermined direction. A wafer can be set on the stage. Obviously, according to the method of the present invention, the wafer can be set on the stage in a predetermined direction as described above, not limited to the orientation flat and notch.
[0094]
Also, in a large-scale manufacturing apparatus that needs to monitor an imaging target such as a wafer at a plurality of locations, images captured from a plurality of locations are all captured by the imaging device not only at the distance to the wafer but also in the imaging direction. Are preferably imaged under the same condition. As a large-scale manufacturing apparatus that needs to monitor an imaging target such as a wafer at a plurality of places described above, a manufacturing line or a manufacturing plant may be used. Also in this case, similarly to the example of the semiconductor manufacturing apparatus described above, there are many cases where the imaging device cannot always be set at a position that satisfies the same condition with respect to the imaging target.
[0095]
According to the image conversion method and the image conversion apparatus of the present invention, the following advantages can be obtained even in a large-scale manufacturing apparatus that needs to monitor an object at a plurality of locations. If image data obtained by a plurality of imaging devices installed in a large-scale manufacturing device is subjected to an image conversion process by the image conversion method of the present invention, an image obtained by capturing all the objects at the same distance from the vertical direction. Each can be converted to data.
[0096]
In this manner, if the image data is converted into image data that are all taken at the same distance from the object and from the vertical direction, based on the converted image, position detection and shape defects of the imaging object at each imaging position are performed. The image processing program used for the determination of the above can be used efficiently. That is, in order to process an image including image distortion or the like based on a difference in imaging conditions or the like with the above-described image processing program, the distortion of the image processing program is adjusted in correspondence with each imaging device. Etc. need to be changed. However, if the image conversion method of the present invention is implemented, the step of changing such parameters can be omitted.
[0097]
【The invention's effect】
As described above, according to the image conversion method and the image conversion device of the present invention, oblique image data obtained by imaging an imaging target from an oblique direction is obtained by imaging the imaging target from a directly facing direction. Is converted to the directly facing image data. Since the directly-facing image data has a similar shape to the imaging target, various types of operations such as identification of the imaging target, detection of a difference between the standard of the imaging target, measurement of the position of the imaging target, measurement of the shape of the imaging target, and the like are performed. An existing program library or the like that realizes the image processing function can be used effectively. In addition, since the screen search can be performed effectively, the image conversion method of the present invention is an effective technique in detecting an orientation flat of a semiconductor manufacturing apparatus and monitoring and inspecting a manufacturing line including a plurality of manufacturing processes.
[Brief description of the drawings]
FIG. 1 is a diagram provided for describing a state in which a lattice pattern is imaged from directly above and obliquely above.
FIGS. 2A, 2B, and 2C are diagrams showing images of a grid pattern taken from directly above and obliquely upward.
FIG. 3 is a flowchart for obtaining parameters for coordinate conversion.
FIG. 4 is a diagram provided for describing coordinates of a light receiving plane and an index for designating a pixel;
FIG. 5 is a diagram provided for explanation of a method of acquiring image data of pixels forming a light receiving plane.
FIG. 6 is a diagram provided for describing a relationship between a pixel for a directly above image and a pixel for an oblique image.
FIG. 7 is a diagram provided for description of W (k, m).
FIG. 8 is a diagram for explaining how to obtain W (k, m).
FIG. 9 is a diagram for explaining points picked up for obtaining W (k, m).
FIGS. 10A and 10B are diagrams for explaining the relationship between a point O and a quadrilateral EFGH, respectively.
FIGS. 11A, 11B, and 11C are diagrams for explaining the determination of the presence or absence of an intersection between line segments;
FIG. 12 is a diagram for explaining a case where a line segment overlaps a line segment;
FIG. 13 is a diagram for explaining the relationship between pixels for directly above images and pixels for oblique images.
FIG. 14 is a flowchart for obtaining W (k, m).
FIG. 15 is a diagram provided for describing a configuration of an image conversion apparatus.
FIG. 16 is a diagram provided for describing a configuration of an image conversion processing unit.
FIGS. 17A and 17B are diagrams illustrating conversion examples of a lattice image, respectively.
FIG. 18 is a schematic view of a semiconductor manufacturing apparatus provided with a mechanism for detecting an orientation flat.
[Explanation of symbols]
10: First imaging device
12: Second imaging device
14: Lattice pattern
20: Camera for alignment
22: Wafer cassette
24: Wafer
26: Transfer arm
28: Stage
32: Image conversion device
50: Resampling unit

Claims (12)

結像光学系と受光平面とを具えて構成される撮像装置によって、撮像対象物を斜め方向から撮像して斜め受光平面(以後「第1受光平面」という。)に得られる第1画像データを、該撮像装置によって、該撮像対象物を正対する方向から仮に撮像したときに正対受光平面(以後「第2受光平面」という。)に得られる第2画像データに変換する画像変換方法において、
前記斜め受光平面上の画素位置を確定するための第1平面座標と前記正対受光平面上の画素位置を確定するための第2平面座標との関係を定める座標変換工程と、
第2画像データの画素[I, J]の光強度Img2(I, J)を次式(1)に従って求める再サンプリング工程とを含むことを特徴とする画像変換方法。
Img2(I, J) = Σ[W(k, m)×Img1(k, m)]/ΣW(k, m) (1)
ただし、I、J、k及びmを整数として、
Img1(k, m)は、第1画像データの第k行第m列の画素[k, m]の光強度である。
W(k, m)は、第1受光平面上に投影される第2画像データの第I行第J列の画素[I, J]が、第1受光面上の画素[k, m]上に投影される面積を表す。
また、(1)式の右辺の和を求める範囲は、第1受光平面上に投影される第2画像データの画素[I, J]が、第1受光面上の画素[k, m]上に一部でも投影されれば、その投影されている画素[k, m]全てにわたるものとする。
First image data obtained on an oblique light receiving plane (hereinafter, referred to as “first light receiving plane”) by obliquely imaging an object to be imaged by an imaging apparatus including an imaging optical system and a light receiving plane. An image conversion method for converting the image-capturing object into second image data obtained on a directly-facing light-receiving plane (hereinafter, referred to as a “second light-receiving plane”) when the imaging object is temporarily imaged from a directly facing direction,
A coordinate conversion step of determining a relationship between first plane coordinates for determining the pixel position on the oblique light receiving plane and second plane coordinates for determining the pixel position on the directly-facing light receiving plane;
A resampling step of obtaining the light intensity Img2 (I, J) of the pixel [I, J] of the second image data according to the following equation (1).
Img2 (I, J) = Σ [W (k, m) × Img1 (k, m)] / ΣW (k, m) (1)
Where I, J, k and m are integers,
Img1 (k, m) is the light intensity of the pixel [k, m] at the k-th row and the m-th column of the first image data.
W (k, m) is the pixel [I, J] in the I-th row and the J-th column of the second image data projected on the first light receiving plane, and is located on the pixel [k, m] on the first light receiving surface. Represents the area projected to
In addition, the range for calculating the sum of the right side of Expression (1) is such that the pixel [I, J] of the second image data projected on the first light receiving plane is located above the pixel [k, m] on the first light receiving surface. Is projected over all of the projected pixels [k, m].
請求項1に記載の画像変換方法において、前記座標変換工程は、
(a)一直線上に3点以上が並ぶことがないように選び出した4点以上の点あるいは一直線上の3点を含みこの直線外の少なくとも2点以上の点を含むように選び出した複数の点(以後これらの点を「特徴のある複数の点」という。)上にマークを持つ撮像対象物であって、該マークが存在する平面に設けられた座標系による該マークの座標値が既知である当該撮像対象物をテストパターンとして、前記撮像装置によって当該テストパターンを撮像する、撮像工程、
(b)斜め方向から撮像された場合の第1受光平面に撮像される、テストパターン中の特徴ある複数の点上のマークに対する、前記第1平面座標の座標値を読み取る、座標読み取り工程、
(c)テストパターン中の任意の位置を原点と定め、斜め方向から撮像されたテストパターンの第1受光平面上に撮像される画像を基にして、該テストパターンが、該原点が第2受光平面の中央部分に投影される正対する方向から撮像される場合の、該原点が投影される該第2受光平面の中央部分の位置と、斜め方向から撮像されたテストパターンの画像を幾何学的に相似変換する縮尺とを仮想的に設定する、キャリブレーション工程、
(d)斜め方向から撮像された特徴のある複数の点上のマークに対して、テストパターン中のそれぞれの該マークを、仮想的に設定された正対する方向から撮像される場合の第2受光平面上に投影して、前記第2平面座標での該マークの位置を算出する、位置算出工程、
(e)斜め方向から撮像した場合の前記第1受光平面に投影されたテストパターン中の前記特徴のある複数の点上のマークそれぞれの前記第1座標と、仮想的に設定された正対する方向から撮像された場合の第2受光平面上で、算出されたテストパターン中の該特徴のある複数の点上のマークそれぞれの前記第2座標とを基にして、座標変換パラメータbi(ただし、i = 1, 2, 3, 4, 5, 6, 7, 8である。)を求める、パラメータ算出工程、
とを含むことを特徴とする画像変換方法。
The image conversion method according to claim 1, wherein the coordinate conversion step includes:
(A) Four or more points selected so that no three or more points are aligned on a straight line, or a plurality of points selected including three points on the straight line and including at least two points outside the straight line (Hereinafter, these points are referred to as “a plurality of characteristic points.”) The imaging object having a mark on the mark, and the coordinate value of the mark in a coordinate system provided on a plane on which the mark exists is known. An imaging step of imaging the test pattern with the imaging device using the imaging target as a test pattern;
(B) a coordinate reading step of reading a coordinate value of the first plane coordinates for a mark on a plurality of characteristic points in the test pattern, which is captured on the first light receiving plane when the image is captured in an oblique direction;
(C) An arbitrary position in the test pattern is defined as an origin, and based on an image of the test pattern imaged obliquely on the first light receiving plane, the test pattern is defined by the second light receiving position. In the case where the image is taken from the direction opposite to the center projected on the center of the plane, the position of the center of the second light receiving plane on which the origin is projected and the image of the test pattern taken obliquely from the geometrical direction. A calibration process that virtually sets the scale to be converted to similar to
(D) For a mark on a plurality of characteristic points imaged in oblique directions, a second light reception when each of the marks in the test pattern is imaged from a virtually set opposite direction. Projecting on a plane to calculate the position of the mark at the second plane coordinates, a position calculating step,
(E) the first coordinate of each of the marks on the characteristic points in the test pattern projected on the first light receiving plane when the image is taken from an oblique direction, and a virtually opposite direction that is directly set; On the second light receiving plane when the image is taken from, based on the calculated second coordinates of the marks on the plurality of characteristic points in the calculated test pattern, a coordinate conversion parameter b i (where, i = 1, 2, 3, 4, 5, 6, 7, 8).
And an image conversion method.
請求項2に記載の画像変換方法において、前記正対する方向から撮像する場合の第2平面座標における中心位置と縮尺とを仮想的に設定するキャリブレーション工程が、
(c')前記第1受光平面の中央部分の位置と仮想的に設定された前記第2受光平面の中央部分の位置における、画像の寸法が等しくなるように縮尺を定め、かつ互いの画像の中央部分の位置が一致するように該撮像対象物を正対した方向から撮像する場合の中心部分の位置を仮想的に設定する、キャリブレーション工程を含むことを特徴とする画像変換方法。
In the image conversion method according to claim 2, a calibration step of virtually setting a center position and a scale in a second plane coordinate when imaging from the directly facing direction,
(C ′) The scale is determined so that the size of the image at the position of the center of the first light receiving plane and the position of the center of the second light receiving plane virtually set are equal, and An image conversion method, comprising: a calibration step of virtually setting a position of a center portion when an image of the imaging target is taken from a direction facing the center so that the position of the center portion matches.
請求項2又は請求項3に記載の画像変換方法において、座標読み取り工程、第2平面座標でのマーク位置を算出する工程、及びパラメータ算出工程が
(b') テストパターン中の特徴のある複数の点を選択して、それぞれの選択点に対する第1平面座標値(X, Y)を読み取る座標読み取り工程、
(d')(b')で選択されたそれぞれの選択点に対して第2平面座標でのマーク位置(x, y)を算出する、位置算出工程、
(e') 該第1平面座標値(X, Y)と該第2平面座標値(x, y)とから下記の式(2)及び式(3)で定義される8個の座標変換パラメータbi(ただし、i = 1,2, 3, 4, 5, 6, 7, 8である。)を、連立方程式を解く方法あるいは最小二乗法で求める、パラメータ算出工程を含むことを特徴とする画像変換方法。
X=(b1x + b2y + b3)/(b7x +b8y + 1) (2)
Y=(b4x + b5y + b6)/(b7x +b8y + 1) (3)
4. The image conversion method according to claim 2, wherein the coordinate reading step, the step of calculating the mark position in the second plane coordinates, and the parameter calculating step are: (b ′) a plurality of characteristic steps in the test pattern; A coordinate reading step of selecting points and reading first plane coordinate values (X, Y) for each selected point;
(D ′) a position calculating step of calculating a mark position (x, y) in the second plane coordinates for each of the selected points selected in (b ′);
(E ′) Eight coordinate conversion parameters defined by the following equations (2) and (3) from the first plane coordinate values (X, Y) and the second plane coordinate values (x, y) b i (where i = 1,2,3,4,5,6,7,8) is obtained by a method of solving simultaneous equations or a method of least squares, including a parameter calculating step. Image conversion method.
X = (b 1 x + b 2 y + b 3) / (b 7 x + b 8 y + 1) (2)
Y = (b 4 x + b 5 y + b 6) / (b 7 x + b 8 y + 1) (3)
請求項1に記載の画像変換方法において、前記第1受光平面上に投影される第2画像データの画素[I, J]が、第1受光面上の画素[k, m]上に投影される面積を表すW(k, m)を求める工程が、以下の工程を含むことを特徴とする画像変換方法。
第2受光平面を構成する画素[I, J]の4頂点が第1撮像装置の受光平面に投影される位置をA, B, C, Dとし、また、第1受光平面を構成する画素[i, j]の4頂点をA’, B’, C’, D’として、
(d)四辺形A’B’C’D’の内部にA, B, C, Dの各点が含まれるか否かを調べピックアップする工程、
(e)四辺形A B C D の内部にA’, B’, C’, D’の各点が含まれるか否かを調べピックアップする工程、
(f-1)線分A’B’と線分A B 、線分B C、線分C D、線分D A の交点を調べピックアップする工程、
(f-2)線分B’C’と線分A B 、線分B C、線分C D、線分D A の交点を調べピックアップする工程、
(f-3)線分C’D’と線分A B 、線分B C、線分C D、線分D A の交点を調べピックアップする工程、
(f-4)線分D’A’と線分A B 、線分B C、線分C D、線分D A の交点を調べピックアップする工程、
(g)該(d)乃至該(f-4)までの工程においてピックアップされた全ての点の座標から、W(k, m)を求める工程。
2. The image conversion method according to claim 1, wherein a pixel [I, J] of the second image data projected on the first light receiving plane is projected on a pixel [k, m] on the first light receiving surface. An image conversion method, wherein the step of obtaining W (k, m) representing the area of the image includes the following steps.
The positions where the four vertices of the pixel [I, J] forming the second light receiving plane are projected on the light receiving plane of the first imaging device are A, B, C, and D, and the pixel [ i, j] as A ', B', C ', D'
(D) a step of checking whether or not each of the points A, B, C and D is included in the quadrilateral A'B'C'D ',
(E) picking up whether or not each point of A ', B', C ', D' is included in the quadrilateral ABCD;
(F-1) the step of picking up the intersection of line segment A'B 'with line segment AB, line segment BC, line segment CD, line segment DA,
(F-2) a step of picking up the intersection of line segment B'C 'with line segment AB, line segment BC, line segment CD, line segment DA,
(F-3) a step of examining the intersection of the line segment C'D 'with the line segment AB, the line segment BC, the line segment CD, and the line segment DA, and picking up;
(F-4) a step of examining the intersection of the line segment D'A 'with the line segment AB, the line segment BC, the line segment CD, and the line segment DA, and picking up;
(G) a step of obtaining W (k, m) from the coordinates of all points picked up in the steps (d) to (f-4).
結像光学系と受光平面とを具えて構成される撮像装置によって、撮像対象物を斜め方向から撮像して斜め受光平面(以後「第1受光平面」という。)に得られる第1画像データを、該撮像装置によって、該撮像対象物を正対する方向から仮に撮像したときに正対受光平面(以後「第2受光平面」という。)に得られる第2画像データに変換する画像変換装置において、
前記斜め受光平面上の画素位置を確定するための第1平面座標と前記正対受光平面上の画素位置を確定するための第2平面座標との関係を定める座標変換手段と、
第2画像データの画素[I, J]の光強度Img2(I, J)を次式(1)に従って求める再サンプリング手段とを具えることを特徴とする画像変換装置。
Img2(I, J) = Σ[W(k, m)×Img1(k, m)]/ΣW(k, m) (1)
ただし、I、J、k及びmを整数として、
Img1(k, m)は、第1画像データの第k行第m列の画素[k, m]の光強度である。
W(k, m)は、第1受光平面上に投影される第2画像データの第I行第J列の画素[I, J]が、第1受光面上の画素[k, m]上に投影される面積を表す。
また、(1)式の右辺の和を求める範囲は、第1受光平面上に投影される第2画像データの画素[I, J]が、第1受光面上の画素[k, m]上に一部でも投影されれば、その投影されている画素[k, m]全てにわたるものとする。
First image data obtained on an oblique light receiving plane (hereinafter, referred to as “first light receiving plane”) by obliquely imaging an object to be imaged by an imaging apparatus including an imaging optical system and a light receiving plane. An image conversion device for converting the image-capturing object into second image data obtained on a directly-facing light-receiving plane (hereinafter, referred to as a “second light-receiving plane”) when the image-capturing object is temporarily imaged from a directly facing direction,
Coordinate conversion means for determining a relationship between first plane coordinates for determining the pixel position on the oblique light receiving plane and second plane coordinates for determining the pixel position on the directly-facing light receiving plane;
An image conversion apparatus comprising: resampling means for obtaining light intensity Img2 (I, J) of a pixel [I, J] of second image data according to the following equation (1).
Img2 (I, J) = Σ [W (k, m) × Img1 (k, m)] / ΣW (k, m) (1)
Where I, J, k and m are integers,
Img1 (k, m) is the light intensity of the pixel [k, m] at the k-th row and the m-th column of the first image data.
W (k, m) is the pixel [I, J] in the I-th row and the J-th column of the second image data projected on the first light receiving plane, and is located on the pixel [k, m] on the first light receiving surface. Represents the area projected to
In addition, the range for calculating the sum of the right side of Expression (1) is such that the pixel [I, J] of the second image data projected on the first light receiving plane is located above the pixel [k, m] on the first light receiving surface. Is projected over all of the projected pixels [k, m].
請求項6に記載の画像変換装置において、前記座標変換手段は、
一直線上に3点以上が並ぶことがないように選び出した4点以上の点あるいは一直線上の3点を含みこの直線外の少なくとも2点以上の点を含むように選び出した複数の点(以後これらの点を「特徴のある複数の点」という。)上にマークを持つ撮像対象物であって、該マークが存在する平面に設けられた座標系による該マークの座標値が既知である当該撮像対象物をテストパターンとして、前記撮像装置によって当該テストパターンを撮像する、撮像手段と、
斜め方向から撮像された場合の第1受光平面に撮像される、テストパターン中の特徴のある複数の点上のマークに対する、前記第1平面座標の座標値を読み取る、座標読み取り手段と、
テストパターン中の任意の位置を原点と定め、斜め方向から撮像されたテストパターンの第1受光平面上に撮像される画像を基にして、該テストパターンが、該原点が第2受光平面の中央部分に投影される正対する方向から撮像される場合の、該原点が投影される該第2受光平面の中央部分の位置と、斜め方向から撮像されたテストパターンの画像を幾何学的に相似変換する縮尺とを仮想的に設定する、キャリブレーション手段と、
斜め方向から撮像された特徴のある複数の点上のマークに対して、テストパターン中のそれぞれの該マークを、仮想的に設定された正対する方向から撮像される場合の第2受光平面上に投影して、前記第2平面座標での該マークの位置を算出する、位置算出手段と、
斜め方向から撮像した場合の前記第1受光平面に投影されたテストパターン中の前記特徴のある複数の点上のマークそれぞれの前記第1座標と、仮想的に設定された正対する方向から撮像された場合の第2受光平面上で、算出されたテストパターン中の該特徴のある複数の点上のマークそれぞれの前記第2座標とを基にして、座標変換パラメータbi(ただし、i = 1, 2, 3, 4, 5, 6, 7, 8である。)を求める、パラメータ算出手段とを具えることを特徴とする画像変換装置。
The image conversion device according to claim 6, wherein the coordinate conversion unit includes:
Four or more points selected so that no three or more points are aligned on a straight line, or a plurality of points selected so as to include at least two points outside the straight line including three points on the straight line (hereinafter referred to as Is referred to as “a plurality of characteristic points”.) The image pickup object having a mark on the mark, and the coordinate value of the mark is known by a coordinate system provided on a plane on which the mark exists. Imaging means for imaging the test pattern by the imaging device, using an object as a test pattern,
Imaged on the first light receiving plane when imaged in an oblique direction, for a mark on a plurality of characteristic points in the test pattern, read the coordinate value of the first plane coordinates, coordinate reading means,
An arbitrary position in the test pattern is defined as the origin, and based on the image of the test pattern imaged obliquely on the first light receiving plane, the test pattern is located at the center of the second light receiving plane. In the case where the image is taken from the opposite direction projected to the portion, the position of the center portion of the second light receiving plane where the origin is projected and the image of the test pattern taken obliquely are geometrically similarized. Calibration means for virtually setting the scale to be performed,
For a mark on a plurality of characteristic points imaged in oblique directions, each mark in the test pattern is placed on the second light receiving plane when imaged from a virtually opposite direction. Projecting, calculating the position of the mark in the second plane coordinates, position calculating means,
The first coordinates of the marks on the plurality of characteristic points in the test pattern projected on the first light receiving plane when imaged from an oblique direction, and the image is imaged from a direction directly opposite to a virtually set position. On the second light receiving plane in the case of the above, based on the calculated second coordinates of the marks on the plurality of characteristic points in the calculated test pattern, coordinate conversion parameters b i (where i = 1 , 2, 3, 4, 5, 6, 7, 8), and parameter calculation means.
請求項7に記載の画像変換装置において、前記正対する方向から撮像する場合の第2平面座標における中心位置と縮尺とを仮想的に設定するキャリブレーション手段が、
前記第1受光平面の中央部分の位置と仮想的に設定された前記第2受光平面の中央部分の位置における、画像の寸法が等しくなるように縮尺を定め、かつ互いの画像の中央部分の位置が一致するように該撮像対象物を正対した方向から撮像する場合の中心部分の位置を仮想的に設定する、キャリブレーション手段を具えることを特徴とする画像変換装置。
In the image conversion device according to claim 7, a calibration unit that virtually sets a center position and a scale in a second plane coordinate when capturing an image from the opposite direction,
At the position of the center portion of the first light receiving plane and the position of the center portion of the second light receiving plane virtually set, the scale is determined so that the dimensions of the images are equal, and the positions of the center portions of the images of each other An image conversion apparatus comprising: a calibration unit that virtually sets a position of a center portion when an image of the imaging target is imaged from a directly facing direction so as to match.
請求項7又は請求項8に記載の画像変換装置において、座標読み取り手段、第2平面座標でのマーク位置を算出する手段、及びパラメータ算出手段が、
テストパターン中の特徴のある複数の点を選択して、それぞれの選択点に対する第1平面座標値(X, Y)を読み取る座標読み取り手段と、
該座標読み取り手段で選択されたそれぞれの選択点に対して第2平面座標でのマーク位置(x, y)を算出する、位置算出手段と、
該第1平面座標値(X, Y)と該第2平面座標値(x, y)とから下記の式(2)及び式(3)で定義される8個の座標変換パラメータbi(ただし、i = 1, 2, 3, 4, 5, 6, 7, 8である。)を、連立方程式を解く方法あるいは最小二乗法で求める、パラメータ算出手段とを具えることを特徴とする画像変換装置。
X=(b1x + b2y + b3)/(b7x +b8y + 1) (2)
Y=(b4x + b5y + b6)/(b7x +b8y + 1) (3)
The image conversion apparatus according to claim 7, wherein the coordinate reading unit, the unit that calculates a mark position in the second plane coordinates, and the parameter calculation unit are:
Coordinate reading means for selecting a plurality of characteristic points in the test pattern and reading first plane coordinate values (X, Y) for each selected point;
Position calculating means for calculating a mark position (x, y) in a second plane coordinate for each of the selected points selected by the coordinate reading means;
First plane coordinate values (X, Y) and the second plane coordinate values (x, y) from the following equation (2) and (3) 8 coordinate transformation parameters b i (but that are defined in , I = 1, 2, 3, 4, 5, 6, 7, 8) by a method of solving simultaneous equations or a method of least squares. apparatus.
X = (b 1 x + b 2 y + b 3) / (b 7 x + b 8 y + 1) (2)
Y = (b 4 x + b 5 y + b 6) / (b 7 x + b 8 y + 1) (3)
請求項6に記載の画像変換装置において、前記第1受光平面上に投影される第2画像データの画素[I, J]が、第1受光面上の画素[k, m]上に投影される面積を表すW(k, m)を求める手段が、以下の手段を具えることを特徴とする画像変換装置。
第2受光平面を構成する画素[I, J]の4頂点が第1撮像装置の受光平面に投影される位置をA, B, C, Dとし、また、第1受光平面を構成する画素[i, j]の4頂点をA’, B’, C’, D’として、
四辺形A’B’C’D’の内部にA, B, C, Dの各点が含まれるか否かを調べピックアップする手段1と、
四辺形A B C D の内部にA’, B’, C’, D’の各点が含まれるか否かを調べピックアップする手段2と、
線分A’B’と線分A B 、線分B C、線分C D、線分D A の交点を調べピックアップする手段3と、
線分B’C’と線分A B 、線分B C、線分C D、線分D A の交点を調べピックアップする手段4と、
線分C’D’と線分A B 、線分B C、線分C D、線分D A の交点を調べピックアップする手段5と、
線分D’A’と線分A B 、線分B C、線分C D、線分D A の交点を調べピックアップする手段6と、
該手段1乃至手段6によってピックアップされた全ての点の座標から、W(k, m)を求める手段7。
7. The image conversion device according to claim 6, wherein a pixel [I, J] of the second image data projected on the first light receiving plane is projected on a pixel [k, m] on the first light receiving surface. An image conversion apparatus characterized in that the means for obtaining W (k, m) representing the area of the image includes the following means.
The positions where the four vertices of the pixel [I, J] forming the second light receiving plane are projected on the light receiving plane of the first imaging device are A, B, C, and D, and the pixel [ i, j] as A ', B', C ', D'
Means 1 for checking whether or not each of the points A, B, C, D is included in the quadrilateral A'B'C'D ';
Means 2 for checking whether or not each point of A ', B', C ', D' is included in the quadrilateral ABCD;
Means 3 for examining and picking up the intersection of line segment A'B 'with line segment AB, line segment BC, line segment CD, line segment DA;
Means 4 for examining and picking up the intersection of line segment B'C 'with line segment AB, line segment BC, line segment CD, line segment DA;
Means 5 for examining and picking up the intersection of line segment C'D 'with line segment AB, line segment BC, line segment CD, line segment DA;
Means 6 for examining and picking up the intersection of line segment D'A 'with line segment AB, line segment BC, line segment CD, line segment DA;
Means 7 for obtaining W (k, m) from the coordinates of all points picked up by the means 1 to 6;
複数枚のウエハをストックするウエハカセットと、このウエハカセットからウエハを一枚ずつ取り出してステージに搬送する搬送手段とを具える半導体製造装置において、請求項6乃至請求項10のいずれかに記載の画像変換装置を具え、前記撮像対象物を前記ウエハカセットから取り出された前記ウエハとしたことを特徴とする半導体製造装置。11. A semiconductor manufacturing apparatus comprising: a wafer cassette for stocking a plurality of wafers; and transport means for removing wafers one by one from the wafer cassette and transporting the wafers to a stage. A semiconductor manufacturing apparatus comprising an image conversion device, wherein the object to be imaged is the wafer taken out of the wafer cassette. 複数の工程を結ぶ搬送手段と、画像による1乃至複数の検査手段とを具える搬送ラインにおいて、請求項6乃至請求項10のいずれかに記載の画像変換装置を具え、前記撮像対象物を前記搬送ライン上で搬送される物体としたことを特徴とする搬送ライン。A transport line including a transport unit that connects a plurality of processes, and one to a plurality of inspection units based on images, comprising an image conversion device according to any one of claims 6 to 10, wherein A transport line characterized by being an object transported on a transport line.
JP2002366354A 2002-12-18 2002-12-18 Image conversion method and image conversion apparatus Expired - Fee Related JP4167482B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002366354A JP4167482B2 (en) 2002-12-18 2002-12-18 Image conversion method and image conversion apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002366354A JP4167482B2 (en) 2002-12-18 2002-12-18 Image conversion method and image conversion apparatus

Publications (2)

Publication Number Publication Date
JP2004199331A true JP2004199331A (en) 2004-07-15
JP4167482B2 JP4167482B2 (en) 2008-10-15

Family

ID=32763582

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002366354A Expired - Fee Related JP4167482B2 (en) 2002-12-18 2002-12-18 Image conversion method and image conversion apparatus

Country Status (1)

Country Link
JP (1) JP4167482B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007080695A (en) * 2005-09-14 2007-03-29 Hitachi High-Technologies Corp Charged particle beam device
KR101191034B1 (en) * 2009-08-19 2012-10-12 세메스 주식회사 Monitoring system and method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000350239A (en) * 1999-06-08 2000-12-15 Sony Corp Camera.calibration device and method, image processing unit and method, program serving medium and camera
JP2001245277A (en) * 2000-03-02 2001-09-07 Mitsubishi Electric Corp Image converter
JP2001283196A (en) * 2000-03-30 2001-10-12 Nikon Corp Device and method for inspecting defect

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000350239A (en) * 1999-06-08 2000-12-15 Sony Corp Camera.calibration device and method, image processing unit and method, program serving medium and camera
JP2001245277A (en) * 2000-03-02 2001-09-07 Mitsubishi Electric Corp Image converter
JP2001283196A (en) * 2000-03-30 2001-10-12 Nikon Corp Device and method for inspecting defect

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007080695A (en) * 2005-09-14 2007-03-29 Hitachi High-Technologies Corp Charged particle beam device
KR101191034B1 (en) * 2009-08-19 2012-10-12 세메스 주식회사 Monitoring system and method

Also Published As

Publication number Publication date
JP4167482B2 (en) 2008-10-15

Similar Documents

Publication Publication Date Title
US9355443B2 (en) System, a method and a computer program product for CAD-based registration
TWI661495B (en) Work piece processing device, work piece conveying system
KR101298444B1 (en) An inspection system and method for inspecting line width and/or positional errors of a pattern
US9599575B2 (en) System, a method and a computer program product for CAD-based registration
CN111260731A (en) Checkerboard sub-pixel level corner point self-adaptive detection method
JP6348789B2 (en) Work processing equipment, work transfer system
US20120141013A1 (en) Region based virtual fourier filter
CN108369915B (en) Reduce the noise examined in the bare die caused near registration and design
KR20090036131A (en) Disc wafer inspecting device and inspecting method
CN109804462A (en) The system and method automatically corrected for the drift between the inspection and design of a large amount of pattern searches
JP7089906B2 (en) Board inspection equipment, board processing equipment and board inspection method
JP5917492B2 (en) Appearance inspection method and apparatus
EP1104915B1 (en) Defect detection using gray level signatures
JP3915033B2 (en) Measuring method and measuring apparatus using stereo optical system
KR20210068337A (en) workpiece processing device and workpiece conveying system
JP4167482B2 (en) Image conversion method and image conversion apparatus
JP5178781B2 (en) Sensor output data correction device and sensor output data correction method
JPWO2018062169A1 (en) Measuring device
WO2009107365A1 (en) Test method and test device for compound-eye distance measuring device and chart used therefor
JP4097255B2 (en) Pattern matching apparatus, pattern matching method and program
CN107833841A (en) Defect inspection method
CN113327863B (en) Semiconductor process
JP2010238970A (en) Method of estimating central position of disc member, and image processing apparatus
JPH08171627A (en) Centroid detecting method for calibration pattern
CN117593378A (en) Device and method for calibrating internal parameters of vehicle-mounted camera module

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041022

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070820

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080715

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080801

R150 Certificate of patent or registration of utility model

Ref document number: 4167482

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110808

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110808

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110808

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110808

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120808

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120808

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120808

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130808

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130808

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R255 Notification that request for automated payment was rejected

Free format text: JAPANESE INTERMEDIATE CODE: R2525

LAPS Cancellation because of no payment of annual fees