JP2010133711A - Method and device of measuring temporal variation of position of object - Google Patents

Method and device of measuring temporal variation of position of object Download PDF

Info

Publication number
JP2010133711A
JP2010133711A JP2008306967A JP2008306967A JP2010133711A JP 2010133711 A JP2010133711 A JP 2010133711A JP 2008306967 A JP2008306967 A JP 2008306967A JP 2008306967 A JP2008306967 A JP 2008306967A JP 2010133711 A JP2010133711 A JP 2010133711A
Authority
JP
Japan
Prior art keywords
target
time
image data
acceleration
time change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008306967A
Other languages
Japanese (ja)
Inventor
Hiroshi Morita
洋 森田
Manabu Ando
学 安藤
Atsushi Kato
敦 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Heavy Industries Ltd
Original Assignee
Sumitomo Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Heavy Industries Ltd filed Critical Sumitomo Heavy Industries Ltd
Priority to JP2008306967A priority Critical patent/JP2010133711A/en
Publication of JP2010133711A publication Critical patent/JP2010133711A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Container, Conveyance, Adherence, Positioning, Of Wafer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To solve the problem that a method of detecting the position of a mark by image processing cannot grasp high-frequency positional variation due to the time required in the processing. <P>SOLUTION: (a) The moving object is imaged and acceleration of the object is measured. (b) The position of the object at the point of time when the image data are obtained is obtained on the basis of the image data obtained by imaging the object. (c) The temporal variation of the position of the object is obtained on the basis of the positional information obtained on the basis of the acceleration of the object and the position of the object at the point of time when the image data are obtained. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、目標物を撮像して、その位置の時間変化を計測する方法及び装置に関する。   The present invention relates to a method and an apparatus for imaging a target and measuring a temporal change in its position.

半導体製造プロセス等において、観察対象物に付されたアライメントマークを撮像装置で撮像し、得られた画像データからマークの位置を検出する方法が広く採用されている(例えば、特許文献1)。   In a semiconductor manufacturing process or the like, a method is widely employed in which an alignment mark attached to an observation object is imaged by an imaging device and the position of the mark is detected from the obtained image data (for example, Patent Document 1).

構造体に取り付けられて横方向に移動するトロリーの下面に設けられた画像センサで、吊り具に設けられているマークを検出し、吊り具の振れ変位と速度が検出される(特許文献2)。構造体に取り付けられた加速度センサが構造体の振動(変位等)を検出する。構造体の変位と、吊り具の振れ変位等に基づいて、トロリーの速度制御が行われる。   An image sensor provided on the lower surface of the trolley that is attached to the structure and moves in the lateral direction detects a mark provided on the hanger, and detects deflection displacement and speed of the hanger (Patent Document 2). . An acceleration sensor attached to the structure detects vibrations (displacement, etc.) of the structure. The speed control of the trolley is performed based on the displacement of the structure and the swing displacement of the suspension.

特開2004−264404号公報JP 2004-264404 A 特開平8−290892号公報Japanese Patent Laid-Open No. 8-290892

画像処理によりマークの位置を検出する方法は、処理に時間を要するため、高周波の位置変動を捉えることができない。加速度センサから得られた加速度を2階積分して位置を算出することができる。ところが、加速度の2階積分値はドリフトを伴うため、加速度に基づいて算出された位置が、真の位置から徐々にずれてしまう。   The method of detecting the position of the mark by image processing requires time for processing, and thus cannot detect high-frequency position fluctuations. The position can be calculated by second-order integration of the acceleration obtained from the acceleration sensor. However, since the second-order integral value of acceleration is accompanied by a drift, the position calculated based on the acceleration gradually shifts from the true position.

本発明の一観点によると、
(a)移動する目標物を撮像すると共に、該目標物の加速度を測定する工程と、
(b)前記目標物を撮像して得られた画像データに基づいて、該画像データが取得された時刻における該目標物の位置を求める工程と、
(c)前記目標物の加速度に基づいて得られる位置情報と、前記画像データが取得された時刻における該目標物の位置とに基づいて、該目標物の位置の時間変化を求める工程と
を有する目標物の位置の時間変化計測方法が提供される。
According to one aspect of the invention,
(A) imaging a moving target and measuring the acceleration of the target;
(B) determining the position of the target at the time when the image data was acquired based on image data obtained by imaging the target;
(C) obtaining a time change of the position of the target based on position information obtained based on the acceleration of the target and the position of the target at the time when the image data was acquired. A method for measuring time change of the position of a target is provided.

本発明の他の観点によると、
目標物を撮像する撮像装置と、
目標物の加速度を測定する加速度センサと、
前記撮像装置で撮像された画像データ、及び前記加速度センサで測定された加速度データが入力される制御装置と
を有し、該制御装置は
(a)移動する目標物を、第1の時間刻み幅で撮像すると共に、該第1の時間刻み幅よりも短い第2の時間刻み幅で、該目標物の加速度を測定する工程と、
(b)前記目標物を撮像して得られた画像データに基づいて、該画像データが取得された時刻における該目標物の位置を求める工程と、
(c)前記目標物の加速度に基づいて得られる位置情報と、前記画像データが取得された時刻における該目標物の位置とに基づいて、該目標物の位置の時間変化を求める工程と
を有する目標物の位置の時間変化計測装置が提供される。
According to another aspect of the invention,
An imaging device for imaging a target;
An acceleration sensor for measuring the acceleration of the target;
A control device to which image data captured by the imaging device and acceleration data measured by the acceleration sensor are input, the control device: (a) a moving target with a first time interval And measuring the acceleration of the target with a second time step shorter than the first time step, and
(B) determining the position of the target at the time when the image data was acquired based on image data obtained by imaging the target;
(C) obtaining a time change of the position of the target based on position information obtained based on the acceleration of the target and the position of the target at the time when the image data was acquired. A time change measuring device for the position of a target is provided.

画像データが取得されない時間帯の位置を、加速度に基づいて決定することができる。加速度に基づいて得られた位置と、画像データに基づいて得られた位置との両方に基づいて、目標物の決定するため、加速度センサのノイズに起因する誤差が累積されることを抑制することができる。   The position of the time zone when image data is not acquired can be determined based on the acceleration. In order to determine the target based on both the position obtained based on the acceleration and the position obtained based on the image data, it is possible to suppress accumulation of errors caused by noise of the acceleration sensor. Can do.

図面を参照しながら、実施例について説明する。   Embodiments will be described with reference to the drawings.

図1Aに、実施例1による位置の時間変化計測装置の概略図を示す。平面を画定するベース10の上に、ワーク20及び基準部材15が配置されている。ワーク20は、例えばステージ装置の移動体であり、ベース10の上を2次元方向に並進移動する。基準部材15は、ベース10に固定されている。基準部材15の上面に、基準マークRo、Rx、及びRyが表示されている。基準マークRoを原点とし、基準マークRoからRxに向かう向きをX軸の正の向きとし、基準マークRoからRyに向かう向きをY軸の正の向きとするXY直交座標系(基準座標系)が定義される。ワーク20に、目標物(ターゲット)11が固定されている。目標物11の上面に、目標マークPが表示されている。   FIG. 1A is a schematic diagram of a position time change measuring apparatus according to the first embodiment. A workpiece 20 and a reference member 15 are disposed on a base 10 that defines a plane. The workpiece 20 is a moving body of a stage device, for example, and translates on the base 10 in a two-dimensional direction. The reference member 15 is fixed to the base 10. Reference marks Ro, Rx, and Ry are displayed on the upper surface of the reference member 15. XY orthogonal coordinate system (reference coordinate system) in which the reference mark Ro is the origin, the direction from the reference mark Ro to Rx is the positive direction of the X axis, and the direction from the reference mark Ro to Ry is the positive direction of the Y axis Is defined. A target (target) 11 is fixed to the workpiece 20. A target mark P is displayed on the upper surface of the target 11.

図1Bに示すように、目標物11内に加速度センサ12が格納されている。加速度センサ12は、X方向及びY方向の加速度を測定し、測定結果を制御装置40に入力する。   As shown in FIG. 1B, an acceleration sensor 12 is stored in the target 11. The acceleration sensor 12 measures the acceleration in the X direction and the Y direction, and inputs the measurement result to the control device 40.

ベース10の上方に撮像装置30が配置されている。撮像装置30は、受光部32と、テレセントリックレンズ系33とを含む。光源35から放射された照明光が、光ファイバ36を経由して、テレセントリックレンズ系33まで導光され、ベース10に照射される。受光部32の受像面に、UV直交座標系(カメラ座標系)が定義される。ベース10上の基準マークRo、Rx、Ry、及び目標マークPが、受像面に投影される。受像面に投影された像は、画像データとして制御装置40に入力される。   An imaging device 30 is disposed above the base 10. The imaging device 30 includes a light receiving unit 32 and a telecentric lens system 33. Illumination light emitted from the light source 35 is guided to the telecentric lens system 33 via the optical fiber 36 and irradiated to the base 10. A UV orthogonal coordinate system (camera coordinate system) is defined on the image receiving surface of the light receiving unit 32. The reference marks Ro, Rx, Ry and the target mark P on the base 10 are projected on the image receiving surface. The image projected on the image receiving surface is input to the control device 40 as image data.

図2に、実施例による位置の時間変化計測方法のフローチャートを示す。まず、ワーク20に、目標物11を取り付けて固定する。   FIG. 2 shows a flowchart of a method for measuring time change in position according to the embodiment. First, the target 11 is attached and fixed to the workpiece 20.

ステップST1において、撮像装置30でベース10上の画像を取得する。UVカメラ座標系において、基準マークRo、Rx、Ryの位置を検出する。これにより、XY基準座標系と、UVカメラ座標系との対応関係が得られる。   In step ST1, the image on the base 10 is acquired by the imaging device 30. In the UV camera coordinate system, the positions of the reference marks Ro, Rx, Ry are detected. Thereby, the correspondence between the XY reference coordinate system and the UV camera coordinate system is obtained.

以下、図3A及び図3Bを参照して、基準マークRoの位置検出方法の一例について説明する。なお、他の基準マークRx、Ry、及び目標マークPの位置検出も同様の方法で行われる。   Hereinafter, an example of a method for detecting the position of the reference mark Ro will be described with reference to FIGS. 3A and 3B. The position detection of the other reference marks Rx, Ry and the target mark P is performed in the same manner.

図3Aに示すように、UVカメラ座標が定義された受像面に、基準部材15、基準マークRo、Rx、Ry、ワーク20、目標物11、及び目標マークPの像が投影されている。まず、画像データから、基準マークRoを含む正方形または長方形の分析対象領域50を切り出す。分析対象領域50のUVカメラ座標内の位置、例えば図3Aにおいて左下の頂点51のUV座標を記憶する。   As shown in FIG. 3A, images of the reference member 15, the reference marks Ro, Rx, Ry, the workpiece 20, the target object 11, and the target mark P are projected on the image receiving surface on which the UV camera coordinates are defined. First, a square or rectangular analysis target region 50 including the reference mark Ro is cut out from the image data. The position of the analysis target area 50 in the UV camera coordinates, for example, the UV coordinate of the lower left vertex 51 in FIG. 3A is stored.

図3Bに、分析対象領域50の平面図を示す。分析対象領域50内の画像データに対し、低域通過フィルタ処理または収縮膨張操作を行うことにより、ノイズを除去する。ノイズが除去された画像データに基づいて、重心演算またはピーク値検出を行うことにより、分析対象領域50内における基準マークRoの位置を検出する。重心演算を行う場合には、画像信号強度にしきい値を設定しておき、このしきい値以上の画像信号を重心演算の対象とする。しきい値未満の画像信号が演算の対象とならないため、背景の影響を受けにくくなる。   FIG. 3B shows a plan view of the analysis target region 50. Noise is removed by performing low-pass filtering or contraction / expansion operation on the image data in the analysis target region 50. Based on the image data from which the noise has been removed, the position of the reference mark Ro in the analysis target region 50 is detected by performing centroid calculation or peak value detection. When performing the centroid calculation, a threshold is set for the image signal intensity, and an image signal equal to or higher than the threshold is set as the centroid calculation target. Since image signals less than the threshold value are not subject to calculation, they are less affected by the background.

基準マークRo等は、故意にピントがずれた状態にしておいてもよい。ピントがずれた状態にしておくと、基準マークRo等の外周線の形状の微小なゆらぎや、背景の微細な濃淡の影響を受けにくくなる。   The reference mark Ro or the like may be intentionally out of focus. If the focus is shifted, it is less likely to be affected by minute fluctuations in the shape of the outer peripheral line such as the reference mark Ro and the fine gradation of the background.

カメラ座標内における分析対象領域50の位置と、分析対象領域50内における基準マークRoの位置とに基づいて、カメラ座標系内における基準マークRoのUV座標を算出する。   Based on the position of the analysis target area 50 in the camera coordinates and the position of the reference mark Ro in the analysis target area 50, the UV coordinates of the reference mark Ro in the camera coordinate system are calculated.

次に、図2のステップST2において、加速度センサ12の校正(キャリブレーション)を行う。具体的には、ワーク20を所定の距離だけ移動させ、加速度センサ12の出力から移動距離を算出する。実際に移動した距離は、撮像装置30からの画像データから算出することができる。実際に移動した距離と、加速度センサ12の出力から算出された移動距離とが等しくなるように、加速度センサ12を較正しておく。なお、このときの移動距離は、加速度センサ12で測定された加速度のノイズ成分が累積されることに起因して生ずる移動距離の誤差が無視できる程度に設定しておく。   Next, in step ST2 of FIG. 2, the acceleration sensor 12 is calibrated. Specifically, the workpiece 20 is moved by a predetermined distance, and the movement distance is calculated from the output of the acceleration sensor 12. The actually moved distance can be calculated from the image data from the imaging device 30. The acceleration sensor 12 is calibrated so that the distance actually moved is equal to the movement distance calculated from the output of the acceleration sensor 12. The moving distance at this time is set to such an extent that the error of the moving distance caused by accumulating the noise components of the acceleration measured by the acceleration sensor 12 can be ignored.

ステップST3において、ワーク20を移動させながら、撮像装置30により画像データを収集するとともに、加速度センサ12により加速度データを収集する。画像データの収集は、時間刻み幅Δtcで行い、加速度データの収集は、時間刻み幅Δtaで行う。加速度データを収集する時間刻み幅Δtaは、画像データを収集する時間刻み幅Δtcよりも短い。   In step ST <b> 3, while moving the workpiece 20, image data is collected by the imaging device 30 and acceleration data is collected by the acceleration sensor 12. Image data is collected at a time step size Δtc, and acceleration data is collected at a time step size Δta. The time interval Δta for collecting acceleration data is shorter than the time interval Δtc for collecting image data.

図4に、実施例1における位置の時間変化計測方法のブロック図を示す。ステップST3においては、撮像装置30が、時間刻み幅Δtcで、目標マークPを含む画像データI(t)を生成する。制御装置40は、画像データI(t)の画像処理を行い、画像データが取得された時刻における目標マークPのカメラ座標(Uc,Vc)を求める。加速度センサ12が、時間刻み幅Δtaで、加速度(a,a)を出力する。ここで、a及びaは、それぞれX方向及びY方向の加速度である。 FIG. 4 shows a block diagram of a method for measuring time change of position in the first embodiment. In step ST3, the imaging device 30 generates image data I (t) including the target mark P with a time interval Δtc. The control device 40 performs image processing on the image data I (t), and obtains the camera coordinates (Uc, Vc) of the target mark P at the time when the image data is acquired. The acceleration sensor 12 outputs acceleration (a x , a y ) with a time interval Δta. Here, a x and a y are accelerations in the X direction and the Y direction, respectively.

ステップST4において、図4に示すように、目標マークPのカメラ座標における位置(Uc,Vc)を、基準座標系における位置(Xc,Yc)に変換する。   In step ST4, as shown in FIG. 4, the position (Uc, Vc) of the target mark P in the camera coordinates is converted into a position (Xc, Yc) in the reference coordinate system.

図5Aに、目標マークPの位置(Xc,Yc)の時間変化の一例を示す。目標マークPの実際の軌跡を破線で示している。図5Aの時刻t、t、t、・・・に示した黒丸記号が、画像データに基づいて得られた位置(Xc,Yc)を示す。時間刻み幅t−t、t−t、t−t、・・・はΔtcに等しい。撮像装置30のシャッタースピードの制約により、時間刻み幅Δtcよりも短い刻み幅で画像データを取得することはできない。 FIG. 5A shows an example of a temporal change in the position (Xc, Yc) of the target mark P. The actual trajectory of the target mark P is indicated by a broken line. The black circle symbols shown at times t 0 , t 1 , t 2 ,... In FIG. 5A indicate the positions (Xc, Yc) obtained based on the image data. The time increments t 1 -t 0 , t 2 -t 1 , t 3 -t 2 ,... Are equal to Δtc. Due to the restriction of the shutter speed of the imaging device 30, image data cannot be acquired with a step size shorter than the time step size Δtc.

ステップST5において、図4に示すように、加速度(a,a)の時間変化(時系列信号)を2階積分することにより、目標マークPの位置(Xa,Ya)を算出する。 In step ST5, as shown in FIG. 4, the acceleration (a x, a y) by second-order integration time change (time-series signal), calculates the position of the target mark P (Xa, Ya).

図5Bに、加速度に基づいて算出された目標マークPの位置(Xa,Ya)の時間変化(時系列信号)を示す。実際には、時間刻み幅Δtaごとに位置(Xa,Ya)が算出されるが、時間刻み幅Δtaは、時間刻み幅Δtcよりも十分短いため、図5Bでは、位置(Xa,Ya)の時間変化を連続線で表している。なお、目標マークPの実際の軌跡を破線で示している。   FIG. 5B shows a time change (time-series signal) of the position (Xa, Ya) of the target mark P calculated based on the acceleration. Actually, the position (Xa, Ya) is calculated for each time step size Δta. However, since the time step size Δta is sufficiently shorter than the time step size Δtc, the time at the position (Xa, Ya) is shown in FIG. 5B. The change is represented by a continuous line. The actual trajectory of the target mark P is indicated by a broken line.

加速度から求めた位置には、加速度センサのノイズに起因する誤差が累積されるため、時間が経過するに従って、算出された位置と実際の位置との差が大きくなる。   Since the error due to the noise of the acceleration sensor is accumulated at the position obtained from the acceleration, the difference between the calculated position and the actual position increases with time.

ステップST6において、図4に示すように、画像データから求めた位置(Xc,Yc)と、加速度から求めた位置(Xa,Ya)とに基づいて、目標マークPの位置(Xp,Yp)の時間変化を求める。以下、目標マークPの位置(Xp,Yp)の時間変化を求める方法について説明する。   In step ST6, as shown in FIG. 4, the position (Xp, Yp) of the target mark P is determined based on the position (Xc, Yc) obtained from the image data and the position (Xa, Ya) obtained from the acceleration. Find time change. Hereinafter, a method for obtaining the time change of the position (Xp, Yp) of the target mark P will be described.

図5Cに示すように、時刻tにおいて、加速度から求められた位置(Xa,Ya)が、画像データから求められた位置(Xc,Yc)に一致するように、加速度から求められた位置(Xa,Ya)に補正Aを加える(X座標及びY座標を増減させる)。時刻tからtまでの目標マークPの位置(Xp,Yp)として、補正後の位置(Xa,Ya)を採用する。時刻tにおける補正後の位置(Xa,Ya)は、加速度センサのノイズ成分の蓄積により、画像データから求められた位置(Xc,Yc)に一致しない。 As shown in FIG. 5C, at time t 0 , the position (Xa 0 , Ya 0 ) obtained from the acceleration is obtained from the acceleration so that it matches the position (Xc 0 , Yc 0 ) obtained from the image data. It was position (Xa, Ya) to (increase or decrease the X coordinate and Y coordinate) of adding the correction a 0. The corrected position (Xa, Ya) is adopted as the position (Xp, Yp) of the target mark P from time t 0 to t 1 . The corrected position (Xa 1 , Ya 1 ) at time t 1 does not match the position (Xc 1 , Yc 1 ) obtained from the image data due to accumulation of noise components of the acceleration sensor.

時刻tにおいて、加速度から求められた補正後の位置(Xa,Ya)が、画像データから求められた位置(Xc,Yc)に一致するように、加速度から求められた位置(Xa,Ya)に、さらに補正Aを加える。時刻tからtまでの目標マークPの位置(Xp,Yp)として、補正Aを加えた後の位置(Xa,Ya)を採用する。時刻t以降も、同様に加速度から求められた位置(Xa,Ya)を、画像データから求められた位置(Xc,Yc)に基づいて順次補正することにより、目標マークPの位置(Xp,Yp)を決定する。 At time t 1 , the position (Xa 1 , Ya 1 ) obtained from the acceleration is corrected so that the position (Xc 1 , Yc 1 ) obtained from the image data matches the position (Xc 1 , Yc 1 ) obtained from the image data. xa, the Ya), further adding the correction a 1. Position of the target mark P from time t 1 to t 2 as (Xp, Yp), to adopt a position after the addition of the correction A 1 (Xa, Ya). After time t 2 , the position (Xp, Ya) similarly obtained from the acceleration is sequentially corrected based on the position (Xc, Yc) obtained from the image data, so that the position (Xp, Yp) is determined.

一般的に、加速度データは、画像データよりも短い周期で取得することが可能である。加速度と画像データとを併用することにより、画像データが得られない期間にも、目標マークの位置Pを求めることができる。また、加速度から求められた位置(Xa,Ya)を、時刻t、t、t、・・・の時点で、画像データから求められた位置(Xc,Yc)に一致するように補正することにより、加速度センサのノイズ成分が蓄積されることにより発生する誤差の累積を抑制することができる。 In general, acceleration data can be acquired at a shorter cycle than image data. By using the acceleration and the image data together, the target mark position P can be obtained even during a period when the image data cannot be obtained. Further, the position (Xa, Ya) obtained from the acceleration is corrected so as to coincide with the position (Xc, Yc) obtained from the image data at the time t 0 , t 1 , t 2 ,. By doing so, it is possible to suppress accumulation of errors caused by accumulating noise components of the acceleration sensor.

上記実施例1では、時刻t、t、t・・・において、目標マークPの位置が不連続に変化する。時刻t−0における位置(Xp,Yp)が、時刻t+0における位置(Xp,Yp)に一致するように、時刻t−0における位置(Xp,Yp)を修正してもよい。このとき、時刻tとtとの中間の時刻における位置(Xp,Yp)は、補間演算により修正すればよい。 In the first embodiment, the position of the target mark P changes discontinuously at times t 1 , t 2 , t 3 . Position at time t 1 -0 (Xp, Yp) is the position at time t 1 +0 (Xp, Yp) to match the position at time t 0 -0 (Xp, Yp) may be modified. At this time, the position (Xp, Yp) at an intermediate time between the times t 0 and t 1 may be corrected by interpolation calculation.

次に、図6を参照して実施例2による位置の時間変化計測方法について説明する。実施例2による方法のフローチャートは、図2に示した実施例1による方法のフローチャートと同一であり、ステップST5の具体的な実行方法が、実施例1と実施例2とで異なる。   Next, a method for measuring a time change of a position according to the second embodiment will be described with reference to FIG. The flowchart of the method according to the second embodiment is the same as the flowchart of the method according to the first embodiment shown in FIG. 2, and the specific execution method of step ST5 is different between the first and second embodiments.

図6に、実施例2による位置の時間変化計測方法のブロック図を示す。画像データに基づいて、位置(Xc,Yc)を求める処理、及び加速度に基づいて位置(Xa,Ya)を求める処理は、実施例1の場合と同一である。   FIG. 6 shows a block diagram of a method for measuring time change of position according to the second embodiment. The processing for obtaining the position (Xc, Yc) based on the image data and the processing for obtaining the position (Xa, Ya) based on the acceleration are the same as those in the first embodiment.

実施例2では、画像データから求められた位置(Xc,Yc)に第1のローパスフィルタLPF1を適用する。第1のローパスフィルタLPF1の伝達関数Fは、以下の通りである。 In the second embodiment, the first low-pass filter LPF1 is applied to the position (Xc, Yc) obtained from the image data. The transfer function F L of the first low-pass filter LPF1 is as follows.

加速度から求められた位置(Xa,Ya)に、ハイパスフィルタHPFを適用する。ハイパスフィルタHPFの伝達関数Fは、以下の通りである。 A high-pass filter HPF is applied to the position (Xa, Ya) obtained from the acceleration. The transfer function F H of the high pass filter HPF is as follows.

ここで、sは、ラプラス演算子(微分演算子)を表し、ωはカットオフ角周波数を表し、ζは減衰率を表す。カットオフ角周波数ωは、撮像装置30の撮像周波数よりも低く設定する。減衰率ζは、一例として0.8とする。   Here, s represents a Laplace operator (differential operator), ω represents a cutoff angular frequency, and ζ represents an attenuation rate. The cut-off angular frequency ω is set lower than the imaging frequency of the imaging device 30. The attenuation rate ζ is 0.8 as an example.

なお、加速度の2階積分処理(伝達関数1/s)と、ハイパスフィルタHPFとは、1つの第2のローパスフィルタLPF2に置き換えることができる。第2のローパスフィルタLPF2の伝達関数FL2は、以下の通りである。 The acceleration second-order integration process (transfer function 1 / s 2 ) and the high-pass filter HPF can be replaced with one second low-pass filter LPF2. The transfer function F L2 of the second low-pass filter LPF2 is as follows.

第1のローパスフィルタLPF1を適用した後の位置(FXc,FYc)に、第2のローパスフィルタLPF2を適用した後の位置(FL2、FL2)を加え合わせることにより、目標マークPの位置(Xp,Yp)を算出する。 Adding the position (F L2 a X , F L2 a Y ) after applying the second low-pass filter LPF2 to the position (F L Xc, F L Yc) after applying the first low-pass filter LPF1 Thus, the position (Xp, Yp) of the target mark P is calculated.

目標マークPの実際の位置を(X,Y)とすると、加速度センサ12の出力(a,a)は、加速度センサ12のノイズ成分を(Δa,Δa)として、下記のように表される。 Assuming that the actual position of the target mark P is (X, Y), the output (a X , a Y ) of the acceleration sensor 12 has the noise components of the acceleration sensor 12 as (Δa X , Δa Y ) as follows: expressed.

また、画像データから得られる位置(Xc,Yc)には、ノイズ成分(ΔXc、ΔYc)が重畳されていると仮定する。目標マークPの位置(Xp,Yp)は、下記のように表される。   Further, it is assumed that noise components (ΔXc, ΔYc) are superimposed on the position (Xc, Yc) obtained from the image data. The position (Xp, Yp) of the target mark P is expressed as follows.

上述の式において、画像データから得られる位置に含まれる誤差(ΔXc、ΔYc)は、ローパスフィルタ処理により減衰する。加速度センサのノイズ成分(Δa,Δa)には、結果的にローパスフィルタ処理が適用されるため、累積されて大きな誤差を生ずることはない。 In the above equation, the error (ΔXc, ΔYc) included in the position obtained from the image data is attenuated by the low-pass filter process. As a result, low-pass filter processing is applied to the noise components (Δa X , Δa Y ) of the acceleration sensor, so that they do not accumulate and cause a large error.

このように、加速度から、位置の時系列信号の高周波成分が取得され、画像データから位置の時系列信号の低周波成分が取得され、両者が重ね合わされる。加速度と画像データとを併用することにより、画像データが得られない期間にも、目標マークの位置Pを求めることができる。また、加速度センサのノイズ成分が累積されることによる誤差の増大を防止することができる。   In this way, the high-frequency component of the position time-series signal is acquired from the acceleration, the low-frequency component of the position time-series signal is acquired from the image data, and both are superimposed. By using the acceleration and the image data together, the target mark position P can be obtained even during a period when the image data cannot be obtained. Further, an increase in error due to accumulation of noise components of the acceleration sensor can be prevented.

第1のローパスフィルタLPF1と第2のローパスフィルタLPF2の伝達関数は、上記のものに限定されない。第1のローパスフィルタLPF1の伝達関数Fと、第2のローパスフィルタLPF2の伝達関数FL2にsを乗じた伝達関数との和が1になるように、両者の伝達関数を選択すればよい。 The transfer functions of the first low-pass filter LPF1 and the second low-pass filter LPF2 are not limited to the above. A transfer function F L of the first low-pass filter LPF1, as the sum of the transfer function multiplied by the transfer function F L2 to s 2 of the second low-pass filter LPF2 becomes 1, by selecting the transfer functions of both Good.

実施例2において、画像データから求められる座標(Xc,Yc)及び加速度(a,a)の全ての時系列データを取得した後に、これらのデータを第1のローパスフィルタLPF1及び第2のローパスフィルタLPF2に入力してもよい。また、時系列データを取得している期間、すなわちワーク20が移動している最中に、取得中の時系列データを第1のローパスフィルタLPF1及び第2のローパスフィルタLPF2に入力してもよい。この方法では、ワーク20の移動中に位置の計測を行うことができる。このため、位置の計測結果を、ワーク20の移動制御にフィードバックすることができる。 In Example 2, after acquiring all the time series data of the coordinates (Xc, Yc) and acceleration (a X , a Y ) obtained from the image data, these data are converted into the first low-pass filter LPF1 and the second low-pass filter LPF1. You may input into the low-pass filter LPF2. Further, the time series data being acquired may be input to the first low-pass filter LPF1 and the second low-pass filter LPF2 while the time series data is being acquired, that is, while the work 20 is moving. . In this method, the position can be measured while the workpiece 20 is moving. For this reason, the position measurement result can be fed back to the movement control of the workpiece 20.

上記実施例1及び実施例2によって計測された位置データを使って、移動体(ステージ)の位置を制御することができる。また、半導体製造装置に、このステージを採用することが可能である。   Using the position data measured in the first and second embodiments, the position of the moving body (stage) can be controlled. Further, this stage can be employed in a semiconductor manufacturing apparatus.

以上実施例に沿って本発明を説明したが、本発明はこれらに制限されるものではない。例えば、種々の変更、改良、組み合わせ等が可能なことは当業者に自明であろう。   Although the present invention has been described with reference to the embodiments, the present invention is not limited thereto. It will be apparent to those skilled in the art that various modifications, improvements, combinations, and the like can be made.

(1A)は、実施例1による位置の時間変化計測装置の概略斜視図であり、(1B)は、その目標物の斜視図である。(1A) is a schematic perspective view of the position time change measuring apparatus according to the first embodiment, and (1B) is a perspective view of the target. 実施例1による位置の時間変化計測方法のフローチャートである。3 is a flowchart of a method for measuring a time change of a position according to the first embodiment. (3A)は、基準部材とワークの平面図であり、(3B)は、受像面内の基準マークの像を示す図である。(3A) is a plan view of the reference member and the workpiece, and (3B) is a view showing an image of the reference mark in the image receiving surface. 実施例1による位置の時間変化計測方法を示すブロック図である。It is a block diagram which shows the time change measuring method of the position by Example 1. FIG. (5A)は、画像データから得られる位置の時間変化を示すグラフであり、(5B)は、加速度から得られる位置の時間変化を示すグラフであり、(5C)は、実施例1による方法で得られる位置の時間変化を示すグラフである。(5A) is a graph showing the time change of the position obtained from the image data, (5B) is a graph showing the time change of the position obtained from the acceleration, and (5C) is a method according to the first embodiment. It is a graph which shows the time change of the position obtained. 実施例2による位置の時間変化計測方法を示すブロック図である。It is a block diagram which shows the time change measurement method of the position by Example 2. FIG.

符号の説明Explanation of symbols

10 ベース
11 目標物(ターゲット)
12 加速度センサ
15 基準部材
20 ワーク
30 撮像装置
32 受光器
33 テレセントリックレンズ系
35 光源
36 光ファイバ
40 制御装置
50 分析対象領域
51 頂点
LPF1 第1のローパスフィルタ
LPF2 第2のローパスフィルタ
Ro、Rx、Ry 基準マーク
P 目標マーク
XY 基準座標系
UV カメラ座標系
10 Base 11 Target (Target)
12 acceleration sensor 15 reference member 20 work 30 imaging device 32 light receiver 33 telecentric lens system 35 light source 36 optical fiber 40 control device 50 analysis target region 51 vertex LPF1 first low-pass filter LPF2 second low-pass filter Ro, Rx, Ry reference Mark P Target mark XY Reference coordinate system UV Camera coordinate system

Claims (8)

(a)移動する目標物を撮像すると共に、該目標物の加速度を測定する工程と、
(b)前記目標物を撮像して得られた画像データに基づいて、該画像データが取得された時刻における該目標物の位置を求める工程と、
(c)前記目標物の加速度に基づいて得られる位置情報と、前記画像データが取得された時刻における該目標物の位置とに基づいて、該目標物の位置の時間変化を求める工程と
を有する目標物の位置の時間変化計測方法。
(A) imaging a moving target and measuring the acceleration of the target;
(B) determining the position of the target at the time when the image data was acquired based on image data obtained by imaging the target;
(C) obtaining a time change of the position of the target based on position information obtained based on the acceleration of the target and the position of the target at the time when the image data was acquired. Time change measurement method for target position.
前記工程(a)において、
第1の時間刻み幅で、前記目標物を撮像し、該第1の時間刻み幅よりも短い第2の時間刻み幅で、該目標物の加速度を測定し、
前記工程(c)において、
前記画像データが取得されている時刻において、前記加速度から求められた位置情報を、前記画像データから求められた位置に一致するように補正し、次の画像データが取得されている時刻までの時間帯においては、前記加速度から求められた位置情報を補正して、前記目標物の位置とする請求項1に記載の目標物の位置の時間変化計測方法。
In the step (a),
Imaging the target at a first time step, measuring an acceleration of the target at a second time step shorter than the first time step;
In the step (c),
At the time when the image data is acquired, the position information obtained from the acceleration is corrected so as to coincide with the position obtained from the image data, and the time until the next image data is obtained The method according to claim 1, wherein the position information obtained from the acceleration is corrected to obtain the position of the target.
前記工程(c)が、
該画像データから求められた位置の時間変化に、第1のローパスフィルタを適用して第1の位置の時間変化を算出する工程と、
前記加速度の時間変化に第2のローパスフィルタを適用して第2の位置の時間変化を算出する工程と、
前記第1の時間変化と前記第2の位置の時間変化とを加え合わせることにより、前記目標物の位置の時間変化とする工程と
を含む請求項1に記載の目標物の位置の時間変化計測方法。
The step (c)
Applying a first low-pass filter to the time change of the position obtained from the image data to calculate the time change of the first position;
Applying a second low-pass filter to the acceleration time change to calculate a time change of the second position;
The time change measurement of the position of the target according to claim 1, further comprising a step of setting the time change of the position of the target by adding the first time change and the time change of the second position. Method.
ラプラス演算子をsとして、前記第1のローパスフィルタの伝達関数と、前記第2のローパスフィルタの伝達関数にsを乗じた伝達関数との和が1である請求項3に記載の目標物の位置の時間変化計測方法。 4. The target according to claim 3, wherein a sum of a transfer function of the first low-pass filter and a transfer function obtained by multiplying the transfer function of the second low-pass filter by s 2 is 1 where Laplace operator is s. Time change measurement method of the position of the. 目標物を撮像する撮像装置と、
目標物の加速度を測定する加速度センサと、
前記撮像装置で撮像された画像データ、及び前記加速度センサで測定された加速度データが入力される制御装置と
を有し、該制御装置は
(a)移動する目標物を、第1の時間刻み幅で撮像すると共に、該第1の時間刻み幅よりも短い第2の時間刻み幅で、該目標物の加速度を測定する工程と、
(b)前記目標物を撮像して得られた画像データに基づいて、該画像データが取得された時刻における該目標物の位置を求める工程と、
(c)前記目標物の加速度に基づいて得られる位置情報と、前記画像データが取得された時刻における該目標物の位置とに基づいて、該目標物の位置の時間変化を求める工程と
を有する目標物の位置の時間変化計測装置。
An imaging device for imaging a target;
An acceleration sensor for measuring the acceleration of the target;
A control device to which image data captured by the imaging device and acceleration data measured by the acceleration sensor are input, the control device: (a) a moving target with a first time interval And measuring the acceleration of the target with a second time step shorter than the first time step, and
(B) determining the position of the target at the time when the image data was acquired based on image data obtained by imaging the target;
(C) obtaining a time change of the position of the target based on position information obtained based on the acceleration of the target and the position of the target at the time when the image data was acquired. Time change measurement device for target position.
前記工程(c)において、
前記画像データが取得されている時刻において、前記加速度から求められた位置情報を、前記画像データから求められた位置に一致するように補正し、次の画像データが取得されている時刻までの時間帯においては、前記加速度から求められた位置情報を補正して、前記目標物の位置とする請求項5に記載の目標物の位置の時間変化計測装置。
In the step (c),
At the time when the image data is acquired, the position information obtained from the acceleration is corrected so as to coincide with the position obtained from the image data, and the time until the next image data is obtained 6. The apparatus according to claim 5, wherein in the belt, the position information obtained from the acceleration is corrected to obtain the position of the target.
前記工程(c)が、
該画像データから求められた位置の時間変化に、第1のローパスフィルタを適用して第1の位置の時間変化を算出する工程と、
前記加速度の時間変化に第2のローパスフィルタを適用して第2の位置の時間変化を算出する工程と、
前記第1の時間変化と前記第2の位置の時間変化とを加え合わせることにより、前記目標物の位置の時間変化とする工程と
を含む請求項5に記載の目標物の位置の時間変化計測装置。
The step (c)
Applying a first low-pass filter to the time change of the position obtained from the image data to calculate the time change of the first position;
Applying a second low-pass filter to the time change of the acceleration to calculate the time change of the second position;
The time change measurement of the position of the target according to claim 5, further comprising a step of setting the time change of the position of the target by adding the time change of the first time and the time change of the second position. apparatus.
ラプラス演算子をsとして、前記第1のローパスフィルタの伝達関数と、前記第2のローパスフィルタの伝達関数にsを乗じた伝達関数との和が1である請求項7に記載の目標物の位置の時間変化計測装置。 8. The target according to claim 7, wherein a sum of a transfer function of the first low-pass filter and a transfer function obtained by multiplying the transfer function of the second low-pass filter by s 2 is 1, where Laplace operator is s. Time change measuring device of the position of.
JP2008306967A 2008-12-02 2008-12-02 Method and device of measuring temporal variation of position of object Pending JP2010133711A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008306967A JP2010133711A (en) 2008-12-02 2008-12-02 Method and device of measuring temporal variation of position of object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008306967A JP2010133711A (en) 2008-12-02 2008-12-02 Method and device of measuring temporal variation of position of object

Publications (1)

Publication Number Publication Date
JP2010133711A true JP2010133711A (en) 2010-06-17

Family

ID=42345153

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008306967A Pending JP2010133711A (en) 2008-12-02 2008-12-02 Method and device of measuring temporal variation of position of object

Country Status (1)

Country Link
JP (1) JP2010133711A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016006415A (en) * 2014-05-29 2016-01-14 アニマ株式会社 Method and apparatus for estimating position of optical marker in optical motion capture
WO2017061388A1 (en) * 2015-10-09 2017-04-13 ソニー株式会社 Information processing device, position and/or orientation estimating method, and computer program
WO2019176020A1 (en) * 2018-03-14 2019-09-19 株式会社ソニー・インタラクティブエンタテインメント Position estimation device, position estimation method, and program
WO2021002001A1 (en) * 2019-07-04 2021-01-07 三菱電機株式会社 Moving body positioning device and moving body positioning system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09292215A (en) * 1996-04-26 1997-11-11 Toyota Motor Corp Displacement measuring device and displacement measuring method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09292215A (en) * 1996-04-26 1997-11-11 Toyota Motor Corp Displacement measuring device and displacement measuring method

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016006415A (en) * 2014-05-29 2016-01-14 アニマ株式会社 Method and apparatus for estimating position of optical marker in optical motion capture
WO2017061388A1 (en) * 2015-10-09 2017-04-13 ソニー株式会社 Information processing device, position and/or orientation estimating method, and computer program
JP2017072560A (en) * 2015-10-09 2017-04-13 ソニー株式会社 Information processing apparatus, position and/or attitude estimation method, and computer program
CN108139204A (en) * 2015-10-09 2018-06-08 索尼株式会社 The method of estimation and computer program of information processing unit, position and/or posture
US10507381B2 (en) 2015-10-09 2019-12-17 Sony Corporation Information processing device, position and/or attitude estimiating method, and computer program
CN108139204B (en) * 2015-10-09 2020-11-03 索尼株式会社 Information processing apparatus, method for estimating position and/or orientation, and recording medium
WO2019176020A1 (en) * 2018-03-14 2019-09-19 株式会社ソニー・インタラクティブエンタテインメント Position estimation device, position estimation method, and program
WO2019176150A1 (en) * 2018-03-14 2019-09-19 株式会社ソニー・インタラクティブエンタテインメント Position estimation device, position estimation method, and program
US11402897B2 (en) 2018-03-14 2022-08-02 Sony Interactive Entertainment Inc. Position estimation apparatus, position estimation method, and program
WO2021002001A1 (en) * 2019-07-04 2021-01-07 三菱電機株式会社 Moving body positioning device and moving body positioning system
JPWO2021002001A1 (en) * 2019-07-04 2021-10-28 三菱電機株式会社 Mobile positioning device and mobile positioning system
JP7006847B2 (en) 2019-07-04 2022-01-24 三菱電機株式会社 Mobile positioning device and mobile positioning system

Similar Documents

Publication Publication Date Title
KR101461068B1 (en) Three-dimensional measurement apparatus, three-dimensional measurement method, and storage medium
EP3081900B1 (en) Measurement devices and methods for measuring the shape of an object to be measured, and method of manufacturing an article
US9630322B2 (en) Information processing apparatus, method therefor, measurement apparatus, and working apparatus for estimating a position/orientation of a three-dimensional object based on relative motion
JP5293131B2 (en) Compound eye distance measuring device for vehicle and compound eye distance measuring method
JP6209833B2 (en) Inspection tool, inspection method, stereo camera production method and system
JP2012220473A (en) Three-dimensional shape measurement device and robot system
WO2002046713A2 (en) Automated system with improved height sensing
EP2831537A1 (en) Apparatus, method and computer program for three-dimensional measurement
WO2017209015A1 (en) Method of calibrating stereo camera installation parameter
EP3809141B1 (en) Elevator comprising a device for measuring the speed of the elevator
AU2016397317A1 (en) Passenger counting device, system, method and program, and vehicle movement amount calculation device, method and program
WO2019021876A1 (en) In-vehicle camera calibration device and method
JP2011141221A (en) Positioning device and positioning method
JP2010133711A (en) Method and device of measuring temporal variation of position of object
JP2019029968A5 (en)
JP2019129482A (en) Image processing device
WO2014073590A1 (en) Three-dimensional measuring device and three-dimensional measuring method
JP2009168461A (en) Camera calibration device
JP6867487B2 (en) Imaging device
WO2022124232A1 (en) Image processing system and image processing method
JP5160495B2 (en) Welding workpiece shape measuring device and program thereof
JP6371742B2 (en) Measuring device and acquisition method
WO2017042995A1 (en) In-vehicle stereo camera device and method for correcting same
JP2006349443A (en) Camera calibration device
JP2021033345A (en) Image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121030

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121220

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130115