JP2014016470A - Position prediction device, position prediction method and substrate treatment apparatus - Google Patents

Position prediction device, position prediction method and substrate treatment apparatus Download PDF

Info

Publication number
JP2014016470A
JP2014016470A JP2012153806A JP2012153806A JP2014016470A JP 2014016470 A JP2014016470 A JP 2014016470A JP 2012153806 A JP2012153806 A JP 2012153806A JP 2012153806 A JP2012153806 A JP 2012153806A JP 2014016470 A JP2014016470 A JP 2014016470A
Authority
JP
Japan
Prior art keywords
prediction
processing
measurement
unit
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012153806A
Other languages
Japanese (ja)
Other versions
JP6006552B2 (en
Inventor
Kuniaki Nomura
邦明 野村
Shoichi Umagoe
昌一 馬越
Hiroaki Usumoto
宏昭 臼本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dainippon Screen Manufacturing Co Ltd
Original Assignee
Dainippon Screen Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dainippon Screen Manufacturing Co Ltd filed Critical Dainippon Screen Manufacturing Co Ltd
Priority to JP2012153806A priority Critical patent/JP6006552B2/en
Publication of JP2014016470A publication Critical patent/JP2014016470A/en
Application granted granted Critical
Publication of JP6006552B2 publication Critical patent/JP6006552B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Exposure And Positioning Against Photoresist Photosensitive Materials (AREA)
  • Container, Conveyance, Adherence, Positioning, Of Wafer (AREA)
  • Exposure Of Semiconductors, Excluding Electron Or Ion Beam Exposure (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique capable of predicting the position of an object upon practicing of treatment at sufficient precision.SOLUTION: The position prediction device 1 comprises: a measurement part, with each of a plurality of times within a time after the relative movement start of an object 9 and a treatment head 102 and before the treatment time at which a treatment head 102 practices treatment to the object 9 as measurement time, the measurement part measuring the position of the object 9 in each of a plurality of the measurement times; and a prediction part which predicts the position of the object 9 of the treatment time based on the measurement position of the object 9 in each of a plurality of the measurement times.

Description

本発明は、対象物に対して相対的に移動しつつ対象物に対して処理を施す処理ヘッドを備える処理装置において、処理ヘッドに対する対象物の位置を予測する技術に関する。   The present invention relates to a technique for predicting the position of an object relative to a processing head in a processing apparatus including a processing head that performs processing on the object while moving relative to the object.

対象物と処理ヘッドとを相対的に移動させながら、処理ヘッドから対象物に対して光線や液滴などを出射して、対象物に対して処理を施す装置が各種存在している。例えば、フォトレジスト等の感光材料が塗布された基板を、処理ヘッドである光学ヘッドに対して相対移動させつつ、光学ヘッドから基板に対して光を照射して、基板上にパターン(回路パターン)を形成する基板処理装置が知られている。また例えば、印刷用紙を処理ヘッドであるプリントヘッドに対して相対移動させつつ、プリントヘッドから印刷用紙に対してインク滴を吐出して、印刷用紙上に画像等を形成するインクジェット方式の画像形成装置が知られている。   There are various apparatuses that perform processing on an object by emitting light rays or droplets from the processing head to the object while relatively moving the object and the processing head. For example, a substrate coated with a photosensitive material such as a photoresist is moved relative to an optical head that is a processing head, and light is irradiated from the optical head to the substrate to form a pattern (circuit pattern) on the substrate. There is known a substrate processing apparatus for forming a substrate. In addition, for example, an inkjet image forming apparatus that forms an image or the like on a print sheet by ejecting ink droplets from the print head to the print sheet while moving the print sheet relative to a print head that is a processing head. It has been known.

この類の装置においては、多くの場合、光あるいは液滴などを、対象物上の目標位置に、正確に、照射あるいは吐出できる機能が要求される。例えば、上述した基板処理装置においては、基板上の目標位置(例えば、下層パターンの形成位置)に、高精度に位置合わせされた状態で、光を照射できる機能が要求される。基板に形成すべきパターンは微細化の一途をたどっているため、基板処理装置に要求される処理精度は年々厳しくなってきている。   In many cases, this type of apparatus is required to have a function capable of accurately irradiating or discharging light or droplets onto a target position on an object. For example, the above-described substrate processing apparatus is required to have a function capable of irradiating light in a state of being accurately aligned with a target position (for example, a formation position of a lower layer pattern) on the substrate. Since the pattern to be formed on the substrate is continually miniaturized, the processing accuracy required for the substrate processing apparatus is becoming stricter year by year.

ところが、処理実行時においては、処理ヘッドに対する対象物の位置が、理想位置から微小にずれている場合がある。このような位置ずれが生じていると、処理ヘッドから出射された光線や液滴などを、対象物上の目標位置に正確に到達させることができない。そこで、例えば、特許文献1には、基板の面上にスペーサ材料を塗布してスペーサのパターンを形成する工程処理部を備える工程処理装置において、計測カメラで撮像した画像データに基づいて基板の位置ずれ量を特定し、さらに、計測カメラと工程処理部との相対距離を考慮して当該位置ずれ量を修正することが開示されている。また例えば、特許文献2には、タンデム方式の画像形成装置において、各色の位置ずれ検出用パターンを検出して、各カラーパターンの位置ずれ量を算出する技術が開示されている。   However, when processing is performed, the position of the object relative to the processing head may be slightly deviated from the ideal position. When such a positional deviation occurs, it is impossible to accurately reach the target position on the object such as a light beam or a droplet emitted from the processing head. Therefore, for example, in Patent Document 1, in a process processing apparatus including a process processing unit that applies a spacer material on a surface of a substrate to form a spacer pattern, the position of the substrate based on image data captured by a measurement camera. It is disclosed that the amount of deviation is specified, and further, the amount of positional deviation is corrected in consideration of the relative distance between the measurement camera and the process processing unit. Further, for example, Patent Document 2 discloses a technique for detecting a misregistration detection pattern for each color and calculating a misregistration amount of each color pattern in a tandem image forming apparatus.

特開2010−79797号公報JP 2010-79797 A 特開2009−157056号公報JP 2009-157056 A

ところで、処理ヘッドに対する対象物の位置ずれは、駆動系の振動や機械誤差、対象物の状態などの各種の要因が、場合によっては複合的に作用しあうことによって生じる。このため、処理ヘッドに対する対象物の位置ずれ量は、相対移動が開始された後に、時間とともに変化する可能性があり、その変化の態様も、1回の搬送動作毎に異なったものとなっている可能性がある。このような状況においては、処理が実行される際の対象物の位置ずれ量を高精度に予測することは容易ではなく、例えば、特許文献1,2の構成においても、予測された位置ずれ量が、処理が実行される際の対象物の実際の位置ずれ量から大きく外れてしまうおそれがある。この場合、目標位置からずれた位置に処理が施されることになり、処理精度が低下してしまう。   By the way, misalignment of the object with respect to the processing head is caused by various factors such as drive system vibration, mechanical error, and state of the object acting in a complex manner. For this reason, the positional deviation amount of the object with respect to the processing head may change with time after the relative movement is started, and the mode of the change is also different for each transport operation. There is a possibility. In such a situation, it is not easy to predict the positional deviation amount of the object when the process is executed with high accuracy. For example, even in the configurations of Patent Documents 1 and 2, the predicted positional deviation amount However, there is a possibility that the actual positional deviation amount of the object when the process is executed is greatly deviated. In this case, the process is performed at a position shifted from the target position, and the processing accuracy is lowered.

この発明は、上記の課題に鑑みてなされたものであり、対象物と処理ヘッドとを相対移動させつつ対象物に処理を施すにあたって、処理ヘッドが対象物に対して処理を実行する際の対象物の位置を、十分な精度で予測できる技術を提供することを目的とする。   The present invention has been made in view of the above-described problems, and the target when the processing head executes processing on the target object when performing processing on the target object while relatively moving the target object and the processing head. The object is to provide a technique capable of predicting the position of an object with sufficient accuracy.

第1の態様は、対象物に対して相対的に移動しつつ前記対象物に対して処理を施す処理ヘッドを備える処理装置において、前記処理ヘッドが前記対象物に対して処理を実行する処理時刻における、前記処理ヘッドに対する前記対象物の位置を予測する位置予測装置であって、前記対象物と前記処理ヘッドとが相対的に移動開始された後であって前記処理時刻よりも前の時間内の複数の時刻のそれぞれを測定時刻とし、複数の測定時刻のそれぞれにおける、前記対象物の位置を測定する測定部と、前記複数の測定時刻のそれぞれにおける前記対象物の測定位置に基づいて、前記処理時刻の前記対象物の位置を予測する予測部と、を備える。   In a processing apparatus including a processing head that performs processing on the target while moving relative to the target, the first aspect is a processing time at which the processing head executes processing on the target A position predicting device for predicting the position of the object relative to the processing head, wherein the object and the processing head start moving relatively and before the processing time. Each of the plurality of times as a measurement time, based on the measurement unit for measuring the position of the object at each of the plurality of measurement times, and the measurement position of the object at each of the plurality of measurement times, A prediction unit that predicts the position of the object at the processing time.

第2の態様は、第1の態様に係る位置予測装置であって、前記予測部が、前記複数の測定時刻のうちの1以上の測定時刻と前記処理時刻とを対象時刻とし、処理パラメータを含む予測モデルを用いて、前記対象時刻における前記対象物の位置を、当該対象時刻よりも前の2個以上の測定時刻のそれぞれにおける前記対象物の測定位置に基づいて、予測する予測位置算出部と、前記予測位置算出部が、前記複数の測定時刻のいずれかを対象時刻として前記対象物の位置を予測した場合に、得られた予測位置と、当該対象時刻とされた測定時刻における前記対象物の測定位置との差分を算出して、予測誤差として取得する予測誤差取得部と、前記予測誤差をゼロに近づけるように、前記処理パラメータを調整するパラメータ調整部と、前記予測位置算出部が、前記処理時刻を対象時刻として、前記パラメータ調整部によって調整された処理パラメータを含む前記予測モデルを用いて、前記対象物の位置を予測した場合に、得られた予測位置を、最終予測位置として出力する出力部と、を備える。   A 2nd aspect is a position prediction apparatus which concerns on a 1st aspect, Comprising: The said prediction part makes 1 or more measurement time of the said several measurement time and the said process time into object time, and sets a process parameter. A predicted position calculation unit that predicts the position of the target object at the target time based on the measurement position of the target object at each of two or more measurement times before the target time, using a prediction model including And when the predicted position calculation unit predicts the position of the target object using any one of the plurality of measurement times as a target time, and the target at the measurement time determined as the target time. A prediction error acquisition unit that calculates a difference from the measurement position of the object and acquires it as a prediction error; a parameter adjustment unit that adjusts the processing parameter so that the prediction error approaches zero; and the prediction position When the calculation unit predicts the position of the target object using the prediction model including the processing parameter adjusted by the parameter adjustment unit with the processing time as the target time, the predicted position obtained is the final An output unit that outputs the predicted position.

第3の態様は、第2の態様に係る位置予測装置であって、前記予測部が、前記予測位置算出部を複数備え、前記複数の予測位置算出部が、互いに異なる予測モデルを用いて前記対象物の位置を予測し、前記出力部が、前記複数の予測モデルのそれぞれを用いて取得された前記予測位置について算出された前記予測誤差に基づいて、前記複数の予測モデルのそれぞれを評価する評価部、をさらに備え、前記複数の予測モデルのうち、前記評価部によって肯定的評価を与えられた予測モデルを用いて取得された、前記処理時刻における前記対象物の前記予測位置を、前記最終予測位置として出力する。   A third aspect is a position prediction apparatus according to the second aspect, wherein the prediction unit includes a plurality of the prediction position calculation units, and the plurality of prediction position calculation units use the prediction models different from each other. The position of the object is predicted, and the output unit evaluates each of the plurality of prediction models based on the prediction error calculated for the prediction position acquired using each of the plurality of prediction models. An evaluation unit, the prediction position of the object at the processing time obtained using a prediction model given a positive evaluation by the evaluation unit among the plurality of prediction models, Output as predicted position.

第4の態様は、第1から第3のいずれかの態様の係る位置予測装置であって、前記測定部が、前記処理ヘッドに対して固定され、前記対象物を撮像する撮像ユニットと、前記複数の測定時刻のそれぞれにおいて、前記撮像ユニットに前記対象物を撮像させる撮像制御部と、前記撮像ユニットが取得した撮像データを解析して、当該撮像データが取得された測定時刻における前記対象物の位置を特定して、前記対象物の測定位置として取得する解析処理部と、を備える。   A fourth aspect is the position prediction apparatus according to any one of the first to third aspects, wherein the measurement unit is fixed to the processing head, and the imaging unit captures the object. At each of a plurality of measurement times, an imaging control unit that causes the imaging unit to image the object, and the imaging data acquired by the imaging unit are analyzed, and the object at the measurement time at which the imaging data is acquired is analyzed. An analysis processing unit that specifies a position and acquires the position as a measurement position of the object.

第5の態様は、第4の態様に係る位置予測装置であって、前記撮像ユニットが、複数の撮像部を備え、前記複数の撮像部が、前記処理ヘッドが前記対象物に対して相対移動される移動方向について、前記処理ヘッドの下流側において、前記移動方向に沿って配列されており、前記撮像制御部が、前記複数の撮像部のそれぞれが、前記対象物上の特徴部分の上方に到達する時刻に、当該撮像部に前記特徴部分を撮像させる。   A 5th aspect is a position prediction apparatus which concerns on a 4th aspect, Comprising: The said imaging unit is provided with the some imaging part, and the said several imaging part is the said processing head relative movement with respect to the said target object. Are arranged along the movement direction on the downstream side of the processing head, and the imaging control unit is configured so that each of the plurality of imaging units is above a characteristic portion on the object. At the time of arrival, the image capturing unit is caused to image the characteristic portion.

第6の態様は、対象物に対して相対的に移動しつつ前記対象物に対して処理を施す処理ヘッドを備える処理装置において、前記処理ヘッドが前記対象物に対して処理を実行する処理時刻における、前記処理ヘッドに対する前記対象物の位置を予測する位置予測方法であって、a)前記対象物と前記処理ヘッドとが相対的に移動開始された後であって前記処理時刻よりも前の時間内の複数の時刻のそれぞれを測定時刻とし、複数の測定時刻のそれぞれにおける、前記対象物の位置を測定する工程と、b)前記a)工程で取得された前記複数の測定時刻のそれぞれにおける前記対象物の測定位置に基づいて、前記処理時刻の前記対象物の位置を予測する工程と、を備える。   According to a sixth aspect of the present invention, in the processing apparatus including a processing head that performs processing on the target while moving relative to the target, processing time at which the processing head executes processing on the target A position prediction method for predicting the position of the object with respect to the processing head, wherein a) the object and the processing head are started to move relatively and before the processing time. Each of a plurality of times within the time is set as a measurement time, and the step of measuring the position of the object at each of the plurality of measurement times, and b) each of the plurality of measurement times acquired in step a) Predicting the position of the object at the processing time based on the measurement position of the object.

第7の態様は、第6の態様に係る位置予測方法であって、前記b)工程が、b1)前記複数の測定時刻のうちの1以上の測定時刻と前記処理時刻とを対象時刻とし、処理パラメータを含む予測モデルを用いて、前記対象時刻における前記対象物の位置を、当該対象時刻よりも前の2個以上の測定時刻のそれぞれにおける前記対象物の測定位置に基づいて、予測する工程と、b2)前記b1)工程で、前記複数の測定時刻のいずれかを対象時刻として前記対象物の位置が予測された場合に、得られた予測位置と、当該対象時刻とされた測定時刻における前記対象物の測定位置との差分を算出して、予測誤差として取得する工程と、b3)前記予測誤差をゼロに近づけるように、前記処理パラメータを調整する工程と、b4)前記b1)工程で、前記処理時刻を対象時刻として、前記b3)工程で調整された処理パラメータを含む前記予測モデルを用いて、前記対象物の位置が予測された場合に、得られた予測位置を、最終予測位置として出力する工程と、を備える。   A seventh aspect is a position prediction method according to the sixth aspect, wherein the step b) includes b1) one or more of the plurality of measurement times and the processing time as a target time. Predicting the position of the object at the target time based on the measurement position of the object at each of two or more measurement times before the target time, using a prediction model including a processing parameter. And b2) In the step b1), when the position of the object is predicted with any one of the plurality of measurement times as the target time, the obtained predicted position and the measurement time at the target time are Calculating a difference from the measurement position of the object and obtaining it as a prediction error; b3) adjusting the processing parameter so that the prediction error approaches zero; and b4) b1). , When the position of the target object is predicted using the prediction model including the processing parameter adjusted in the step b3) with the processing time as the target time, the obtained predicted position is used as the final predicted position. And a step of outputting.

第8の態様は、第7の態様に係る位置予測方法であって、前記b1)工程において、前記対象時刻における前記対象物の位置を、互いに異なる複数の予測モデルのそれぞれを用いて予測し、前記b)工程が、b5)前記複数の予測モデルのそれぞれを用いて取得された前記予測位置について算出された前記予測誤差に基づいて、前記複数の予測モデルのそれぞれを評価する工程、をさらに備え、前記b4)工程において、前記b5)工程で肯定的評価を与えられた予測モデルを用いて取得された、前記処理時刻における前記対象物の前記予測位置を、前記最終予測位置として出力する。   An eighth aspect is a position prediction method according to the seventh aspect, wherein in the step b1), the position of the object at the target time is predicted using each of a plurality of different prediction models, The step b) further comprises: b5) evaluating each of the plurality of prediction models based on the prediction error calculated for the prediction position acquired using each of the plurality of prediction models. In the step b4), the predicted position of the object at the processing time obtained using the prediction model given a positive evaluation in the step b5) is output as the final predicted position.

第9の態様は、第6から第8のいずれかの態様に係る位置予測方法であって、前記a)工程が、a1)前記処理ヘッドに対して固定された撮像ユニットに、前記複数の測定時刻のそれぞれにおいて、前記対象物を撮像させる工程と、a2)前記撮像ユニットが取得した撮像データを解析して、当該撮像データが取得された測定時刻における前記対象物の位置を特定して、前記対象物の測定位置として取得する工程と、を備える。   A ninth aspect is a position prediction method according to any one of the sixth to eighth aspects, wherein the step a) includes: a1) the plurality of measurements on an imaging unit fixed to the processing head. A step of imaging the object at each of the times; a2) analyzing the imaging data acquired by the imaging unit, identifying the position of the object at the measurement time at which the imaging data was acquired, and Obtaining as a measurement position of the object.

第10の態様は、第9の態様に係る位置予測方法であって、前記撮像ユニットが、複数の撮像部を備え、前記複数の撮像部が、前記処理ヘッドが前記対象物に対して相対移動される移動方向について、前記処理ヘッドの下流側において、前記移動方向に沿って配列されており、前記a1)工程において、前記複数の撮像部のそれぞれが、前記対象物上の特徴部分の上方に到達する時刻に、当該撮像部に前記特徴部分を撮像させる。   A tenth aspect is a position prediction method according to the ninth aspect, wherein the imaging unit includes a plurality of imaging units, and the plurality of imaging units are configured to move the processing head relative to the object. Are arranged along the movement direction on the downstream side of the processing head, and in the step a1), each of the plurality of imaging units is located above the characteristic portion on the object. At the time of arrival, the image capturing unit is caused to image the characteristic portion.

第11の態様は、基板処理装置であって、基板に対して光を照射してパターンを露光する処理ヘッドと、前記基板と前記処理ヘッドとを相対的に移動させる駆動機構と、前記処理ヘッドが基板に対して光を照射する処理時刻における、前記処理ヘッドに対する基板の位置を予測する位置予測部と、前記位置予測部が予測した、前記処理時刻における前記基板の位置に基づいて、前記処理ヘッドからの光の照射位置を補正する補正部と、を備え、前記位置予測部が、前記基板と前記処理ヘッドとが相対的に移動開始された後であって前記処理時刻よりも前の時間内の複数の時刻のそれぞれを測定時刻とし、複数の測定時刻のそれぞれにおける、前記対象物の位置を測定する測定部と、前記複数の測定時刻のそれぞれにおける前記対象物の測定位置に基づいて、前記処理時刻の前記対象物の位置を予測する予測部と、を備える。   An eleventh aspect is a substrate processing apparatus, a processing head that irradiates a substrate with light to expose a pattern, a drive mechanism that relatively moves the substrate and the processing head, and the processing head A position prediction unit that predicts the position of the substrate relative to the processing head at a processing time when the substrate is irradiated with light, and the processing based on the position of the substrate at the processing time predicted by the position prediction unit. A correction unit that corrects the irradiation position of light from the head, and the position prediction unit is a time after the substrate and the processing head start to move relatively and before the processing time. Each of a plurality of times is a measurement time, a measurement unit that measures the position of the object at each of a plurality of measurement times, and a measurement position of the object at each of the plurality of measurement times Based on, and a prediction unit for predicting a position of the object of the processing time.

第1、第6の態様によると、対象物と処理ヘッドとが相対的に移動開始された後の複数の測定時刻のそれぞれにおける、対象物の測定位置に基づいて、処理時刻の対象物の位置を予測する。この構成によると、相対移動の開始後の対象物の変位状況を加味して対象物の位置を予測することができる。したがって、処理が実行される際の対象物の位置を十分な精度で予測できる。   According to the first and sixth aspects, the position of the object at the processing time based on the measurement position of the object at each of the plurality of measurement times after the object and the processing head start moving relatively. Predict. According to this configuration, the position of the object can be predicted in consideration of the displacement state of the object after the start of relative movement. Therefore, it is possible to predict the position of the object when the process is executed with sufficient accuracy.

第2、第7の態様によると、測定時刻における対象物の位置が予測モデルを用いて予測される。そして、得られた予測位置と実際の測定位置との差分をゼロに近づけるように、予測モデルに含まれる処理パラメータが調整される。この構成によると、予測モデルに含まれる処理パラメータが、相対移動の開始後の対象物の変位状況に応じたものに調整されていくので、予測精度をより向上させることができる。   According to the second and seventh aspects, the position of the object at the measurement time is predicted using the prediction model. Then, the processing parameter included in the prediction model is adjusted so that the difference between the obtained predicted position and the actual measurement position approaches zero. According to this configuration, the processing parameters included in the prediction model are adjusted according to the displacement state of the object after the start of relative movement, so that the prediction accuracy can be further improved.

第3、第8の態様によると、互いに異なる複数の予測モデルのそれぞれを用いて対象物の位置が予測され、当該複数の予測モデルのうち、肯定的評価を与えられた予測モデルを用いて取得された予測位置が、最終予測位置として出力される。この構成によると、対象物の様々な変位状況に幅広く対応することが可能となり、高い汎用性が実現される。また、相対移動の開始後の対象物の変位状況に最もよく合致した予測モデルを用いて取得された予測位置が、最終予測位置として出力されることになるので、高い予測精度を安定して実現することができる。   According to the third and eighth aspects, the position of the object is predicted using each of a plurality of different prediction models, and obtained using a prediction model given a positive evaluation among the plurality of prediction models. The predicted position is output as the final predicted position. According to this configuration, it is possible to widely cope with various displacement situations of the object, and high versatility is realized. In addition, the predicted position obtained using the prediction model that best matches the displacement status of the object after the start of relative movement is output as the final predicted position, so high prediction accuracy can be realized stably. can do.

第4、第5、第9、第10の態様によると、複数の測定時刻のそれぞれにおいて、撮像ユニットが対象物を撮像し、取得された撮像データに基づいて、各測定時刻の対象物の測定位置が特定される。この構成によると、複数の測定時刻のそれぞれにおける、対象物の測定位置を、簡易な構成で取得することができる。   According to the fourth, fifth, ninth, and tenth aspects, the imaging unit images the object at each of the plurality of measurement times, and the measurement of the object at each measurement time is performed based on the acquired imaging data. A location is identified. According to this configuration, the measurement position of the object at each of a plurality of measurement times can be acquired with a simple configuration.

第11の態様によると、基板と処理ヘッドとが相対的に移動開始された後の複数の測定時刻のそれぞれにおける、基板の測定位置に基づいて、処理時刻の基板の位置を予測する。この構成によると、相対移動の開始後の基板の変位状況を加味して基板の位置を予測することができる。したがって、処理が実行される際の基板の位置を十分な精度で予測できる。その結果、処理ヘッドから、基板上の目標位置に正確に光を照射することができる。   According to the eleventh aspect, the position of the substrate at the processing time is predicted based on the measurement position of the substrate at each of the plurality of measurement times after the movement of the substrate and the processing head is relatively started. According to this configuration, the position of the substrate can be predicted in consideration of the displacement state of the substrate after the start of relative movement. Therefore, the position of the substrate when processing is performed can be predicted with sufficient accuracy. As a result, it is possible to accurately irradiate the target position on the substrate from the processing head.

位置予測装置を搭載した処理装置の概略構成を模式的に示す図である。It is a figure which shows typically schematic structure of the processing apparatus carrying a position prediction apparatus. 制御部のハードウエア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of a control part. 第1実施形態に係る位置予測装置が備える構成を示すブロック図である。It is a block diagram which shows the structure with which the position prediction apparatus which concerns on 1st Embodiment is provided. 第1実施形態に係る位置予測処理の流れを説明するための模式図である。It is a schematic diagram for demonstrating the flow of the position prediction process which concerns on 1st Embodiment. 第1実施形態に係る位置予測処理の流れを説明するための模式図である。It is a schematic diagram for demonstrating the flow of the position prediction process which concerns on 1st Embodiment. 第1実施形態に係る位置予測処理の流れを説明するための模式図である。It is a schematic diagram for demonstrating the flow of the position prediction process which concerns on 1st Embodiment. 第1実施形態に係る位置予測処理の流れを説明するための模式図である。It is a schematic diagram for demonstrating the flow of the position prediction process which concerns on 1st Embodiment. 第1実施形態に係る位置予測処理の流れを説明するための模式図である。It is a schematic diagram for demonstrating the flow of the position prediction process which concerns on 1st Embodiment. 第1実施形態に係る位置予測処理の流れを説明するための模式図である。It is a schematic diagram for demonstrating the flow of the position prediction process which concerns on 1st Embodiment. 第1実施形態に係る位置予測処理の流れを説明するための模式図である。It is a schematic diagram for demonstrating the flow of the position prediction process which concerns on 1st Embodiment. 第2実施形態に係る位置予測装置が備える構成を示すブロック図である。It is a block diagram which shows the structure with which the position prediction apparatus which concerns on 2nd Embodiment is provided. 第2実施形態に係る位置予測処理の流れを説明するための模式図である。It is a schematic diagram for demonstrating the flow of the position prediction process which concerns on 2nd Embodiment. 第2実施形態に係る位置予測処理の流れを説明するための模式図である。It is a schematic diagram for demonstrating the flow of the position prediction process which concerns on 2nd Embodiment. 第2実施形態に係る位置予測処理の流れを説明するための模式図である。It is a schematic diagram for demonstrating the flow of the position prediction process which concerns on 2nd Embodiment. 第2実施形態に係る位置予測処理の流れを説明するための模式図である。It is a schematic diagram for demonstrating the flow of the position prediction process which concerns on 2nd Embodiment. 第2実施形態に係る位置予測処理の流れを説明するための模式図である。It is a schematic diagram for demonstrating the flow of the position prediction process which concerns on 2nd Embodiment. 第2実施形態に係る位置予測処理の流れを説明するための模式図である。It is a schematic diagram for demonstrating the flow of the position prediction process which concerns on 2nd Embodiment. 第2実施形態に係る位置予測処理の流れを説明するための模式図である。It is a schematic diagram for demonstrating the flow of the position prediction process which concerns on 2nd Embodiment. 変形例に係る位置予測処理の流れを説明するための模式図である。It is a schematic diagram for demonstrating the flow of the position prediction process which concerns on a modification.

以下、添付の図面を参照しながら、本発明の実施形態について説明する。以下の実施形態は、本発明を具体化した一例であって、本発明の技術的範囲を限定するものではない。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. The following embodiment is an example embodying the present invention, and does not limit the technical scope of the present invention.

<I.第1の実施の形態>
<1.処理装置100>
第1の実施の形態に係る位置予測装置1が搭載される処理装置100の構成について、図1、図2を参照しながら説明する。図1は、位置予測装置1を搭載した処理装置100の概略構成を模式的に示す図である。図2は、制御部105のハードウエア構成を示すブロック図である。
<I. First Embodiment>
<1. Processing apparatus 100>
A configuration of the processing apparatus 100 on which the position prediction apparatus 1 according to the first embodiment is mounted will be described with reference to FIGS. 1 and 2. FIG. 1 is a diagram schematically illustrating a schematic configuration of a processing apparatus 100 in which the position prediction apparatus 1 is mounted. FIG. 2 is a block diagram illustrating a hardware configuration of the control unit 105.

処理装置100は、対象物9を載置するステージ101と、ステージ101の上方に配置され、処理装置100の基体部110に対して固定されている処理ヘッド102と、ステージ101を基体部110に対して(すなわち、処理ヘッド102に対して)移動させる駆動機構103とを備える。   The processing apparatus 100 includes a stage 101 on which the object 9 is placed, a processing head 102 disposed above the stage 101 and fixed to the base unit 110 of the processing apparatus 100, and the stage 101 on the base unit 110. And a drive mechanism 103 that moves relative to the processing head 102.

処理装置100においては、駆動機構103が、対象物9を載置したステージ101を移動させつつ(この実施の形態においては、例えば、+X方向に移動させつつ)、処理ヘッド102が、対象物9に対する処理を実行する。つまり、処理ヘッド102は、対象物9に対して−X方向に相対移動しながら、対象物9の各位置に対する処理を次々と実行する。   In the processing apparatus 100, the driving mechanism 103 moves the stage 101 on which the object 9 is placed (in this embodiment, for example, in the + X direction), while the processing head 102 moves the object 9. The process for is executed. That is, the processing head 102 sequentially performs processing on each position of the target object 9 while relatively moving in the −X direction with respect to the target object 9.

処理ヘッド102は、例えば、基板(具体的には、レジスト等の感光材料の層が形成された基板)上にパターン(例えば、回路パターン)を露光(描画)する描画ヘッドである。この場合、処理ヘッド102は、具体的には、基板に描画すべきパターンを記述したデータであるパターンデータ(具体的には、例えば、CAD(computer aided design)を用いて生成されたCADデータをラスタライズしたデータ)に応じて光を空間変調し、当該空間変調された光を、対象物9である基板に照射する。ただし、当該処理ヘッド102は、例えば、回折格子型の光変調素子であるGLV(Grating Light Valve:グレーチング・ライト・バルブ)(「GLV」は登録商標)を用いて、光を空間変調する構成とすることができる。このような処理ヘッド102を備える場合、処理装置100は、基板処理装置(具体的には、描画装置)を構成することになる。すなわち、描画装置である処理装置100においては、処理ヘッド102である描画ヘッドが、対象物9である基板に対して相対移動しながら、基板の各位置に光を照射することによって、基板に対するパターンの描画処理が行われる。   The processing head 102 is, for example, a drawing head that exposes (draws) a pattern (for example, a circuit pattern) on a substrate (specifically, a substrate on which a layer of a photosensitive material such as a resist is formed). In this case, the processing head 102 specifically uses pattern data (specifically, for example, CAD data generated using CAD (computer aided design)) that describes data to be drawn on the substrate. The light is spatially modulated in accordance with the rasterized data, and the substrate that is the object 9 is irradiated with the spatially modulated light. However, the processing head 102 is configured to spatially modulate light using, for example, a GLV (Grating Light Valve) (“GLV” is a registered trademark) which is a diffraction grating type light modulation element. can do. When such a processing head 102 is provided, the processing apparatus 100 constitutes a substrate processing apparatus (specifically, a drawing apparatus). That is, in the processing apparatus 100 that is a drawing apparatus, the drawing head that is the processing head 102 irradiates light to each position of the substrate while moving relative to the substrate that is the object 9, thereby forming a pattern on the substrate. The drawing process is performed.

処理装置100には、位置予測装置1が搭載されている。位置予測装置1は、処理ヘッド102から対象物9への処理が実行される時刻(処理時刻)における、処理ヘッド102に対する対象物9の相対位置を、予測する。位置予測装置1の構成および動作は、後に説明する。   The position prediction device 1 is mounted on the processing device 100. The position prediction apparatus 1 predicts the relative position of the object 9 with respect to the processing head 102 at the time (processing time) when the processing from the processing head 102 to the object 9 is executed. The configuration and operation of the position prediction apparatus 1 will be described later.

また、処理装置100は、位置予測装置1から出力された対象物9の予測位置に基づいて、処理ヘッド102の処理位置を補正する、補正部104を備える。補正部104は、具体的には、例えば、位置予測装置1から出力された、処理時刻における対象物9の予測位置に基づいて、当該処理時刻における、対象物9の理想位置からのずれ量を算出して、これを「位置ずれ量」として取得する。そして、補正部104は、当該処理時刻における処理ヘッド102の処理位置(処理ヘッド102が例えば描画ヘッドである場合は、光の照射位置)を、当該位置ずれ量だけずらすように補正する。これによって、対象物9の目標位置に正確に処理が施されることになる。   In addition, the processing device 100 includes a correction unit 104 that corrects the processing position of the processing head 102 based on the predicted position of the object 9 output from the position prediction device 1. Specifically, for example, based on the predicted position of the object 9 at the processing time output from the position prediction device 1, the correction unit 104 calculates the amount of deviation from the ideal position of the object 9 at the processing time. This is calculated and acquired as the “positional deviation amount”. Then, the correction unit 104 corrects the processing position of the processing head 102 at the processing time (the irradiation position of light when the processing head 102 is a drawing head, for example) so as to be shifted by the positional deviation amount. As a result, the target position of the object 9 is accurately processed.

なお、処理ヘッド102が、例えば、描画ヘッドである場合、補正部104は、例えば、描画ヘッドから出射される光の経路上に配置された光学部品(例えば、ガラス板)と、当該光学部品の姿勢を変更する駆動機構とを含んで構成すればよい。この場合、駆動機構が光学部品の姿勢を変更することによって、描画ヘッドから出射される光が基板に入射する位置を、所望の量だけずらすことができる。すなわち、光の照射位置を所望の量だけ補正することができる。   When the processing head 102 is, for example, a drawing head, the correction unit 104 includes, for example, an optical component (for example, a glass plate) disposed on the path of light emitted from the drawing head, and the optical component. What is necessary is just to comprise including the drive mechanism which changes an attitude | position. In this case, the position where the light emitted from the drawing head enters the substrate can be shifted by a desired amount by changing the attitude of the optical component by the drive mechanism. That is, the light irradiation position can be corrected by a desired amount.

また、処理装置100は、これが備える各部と電気的に接続され、各種の演算処理を実行しつつ処理装置100の各部の動作を制御する制御部105を備える。   In addition, the processing device 100 includes a control unit 105 that is electrically connected to each unit included in the processing device 100 and controls the operation of each unit of the processing device 100 while executing various arithmetic processes.

制御部105は、図2に示されるように、例えば、CPU151、ROM152、RAM153、記憶装置154等が、バスライン155を介して相互接続された一般的なコンピュータによって構成されている。ROM152は基本プログラム等を格納しており、RAM153はCPU151が所定の処理を行う際の作業領域として供される。記憶装置154は、フラッシュメモリ、あるいは、ハードディスク装置等の不揮発性の記憶装置によって構成されている。記憶装置154には処理プログラムP0が格納されており、この処理プログラムP0に記述された手順に従って、主制御部としてのCPU151が演算処理を行うことにより、各種機能が実現されるように構成されている。処理プログラムP0は、通常、予め記憶装置154等のメモリに格納されて使用されるものであるが、CD−ROMあるいはDVD−ROM、外部のフラッシュメモリ等の記録媒体に記録された形態(プログラムプロダクト)で提供され(あるいは、ネットワークを介した外部サーバからのダウンロードなどにより提供され)、追加的または交換的に記憶装置154等のメモリに格納されるものであってもよい。なお、制御部105において実現される一部あるいは全部の機能は、専用の論理回路等でハードウエア的に実現されてもよい。また、制御部105では、入力部156、表示部157、通信部158もバスライン155に接続されている。入力部156は、各種スイッチ、タッチパネル等により構成されており、オペレータから各種の入力設定指示を受け付ける。表示部157は、液晶表示装置、ランプ等により構成されており、CPU151による制御の下、各種の情報を表示する。通信部158は、LAN等を介したデータ通信機能を有する。   As illustrated in FIG. 2, the control unit 105 is configured by a general computer in which, for example, a CPU 151, a ROM 152, a RAM 153, a storage device 154, and the like are interconnected via a bus line 155. The ROM 152 stores basic programs and the like, and the RAM 153 is used as a work area when the CPU 151 performs predetermined processing. The storage device 154 is configured by a nonvolatile storage device such as a flash memory or a hard disk device. The storage device 154 stores a processing program P0. The CPU 151 as the main control unit performs arithmetic processing according to the procedure described in the processing program P0, and is configured to realize various functions. Yes. The processing program P0 is normally stored and used in advance in a memory such as the storage device 154, but is recorded in a recording medium such as a CD-ROM or DVD-ROM or an external flash memory (program product). ) (Or provided by downloading from an external server via a network, etc.) and stored in a memory such as the storage device 154 in addition or exchange. Note that some or all of the functions realized in the control unit 105 may be realized in hardware by a dedicated logic circuit or the like. In the control unit 105, an input unit 156, a display unit 157, and a communication unit 158 are also connected to the bus line 155. The input unit 156 includes various switches, a touch panel, and the like, and receives various input setting instructions from an operator. The display unit 157 includes a liquid crystal display device, a lamp, and the like, and displays various types of information under the control of the CPU 151. The communication unit 158 has a data communication function via a LAN or the like.

<2.位置予測装置1>
位置予測装置1は、上述したとおり、処理装置100に搭載されて、処理ヘッド102から対象物9への処理が実行される処理時刻における、処理ヘッド102に対する対象物9の相対位置を予測する。なお、以下の説明においては、位置予測装置1が予測対象とする処理時刻は、処理ヘッド102が対象物9に対する処理を開始する時刻(後述する「処理開始時刻」)であるとする。
<2. Position prediction apparatus 1>
As described above, the position predicting device 1 is mounted on the processing device 100 and predicts the relative position of the object 9 with respect to the processing head 102 at the processing time when the processing from the processing head 102 to the object 9 is executed. In the following description, it is assumed that the processing time to be predicted by the position prediction apparatus 1 is the time at which the processing head 102 starts processing the object 9 (“processing start time” described later).

位置予測装置1の構成について、図1、図2に加えて、図3を参照しながら説明する。図3は、位置予測装置1が備える構成を示すブロック図である。   The configuration of the position prediction apparatus 1 will be described with reference to FIG. 3 in addition to FIGS. FIG. 3 is a block diagram illustrating a configuration included in the position prediction apparatus 1.

位置予測装置1は、対象物9の位置を測定する測定部10と、測定部10が取得した対象物9の測定位置に基づいて対象物9の位置を予測する予測部20とを備える。測定部10が備える撮像制御部12および解析処理部13と、予測部20とは、例えば、制御部105の記憶装置154に格納された位置予測プログラムP1に記述された手順に従って、主制御部としてのCPU151が演算処理を行うことにより、実現される。位置予測プログラムP1は、通常、予め記憶装置154等のメモリに格納されて使用されるものであるが、CD−ROMあるいはDVD−ROM、外部のフラッシュメモリ等の記録媒体に記録された形態(プログラムプロダクト)で提供され(あるいは、ネットワークを介した外部サーバからのダウンロードなどにより提供され)、追加的または交換的に記憶装置154等のメモリに格納されるものであってもよい。また、これら各機能部10,20の一部あるいは全部は、専用の論理回路等でハードウエア的に実現されてもよい。   The position prediction apparatus 1 includes a measurement unit 10 that measures the position of the object 9 and a prediction unit 20 that predicts the position of the object 9 based on the measurement position of the object 9 acquired by the measurement unit 10. The imaging control unit 12, the analysis processing unit 13, and the prediction unit 20 included in the measurement unit 10 are, for example, as a main control unit according to the procedure described in the position prediction program P1 stored in the storage device 154 of the control unit 105. This is realized by the CPU 151 performing arithmetic processing. The position prediction program P1 is normally stored and used in advance in a memory such as the storage device 154, but is recorded in a recording medium such as a CD-ROM or DVD-ROM or an external flash memory (program). Product (or provided by downloading from an external server via a network, etc.) and additionally or exchangeably stored in a memory such as the storage device 154. In addition, a part or all of these functional units 10 and 20 may be realized in hardware by a dedicated logic circuit or the like.

<i.測定部10>
測定部10は、対象物9と処理ヘッド102とが相対的に移動開始された後であって予測対象となる処理時刻(ここでは、処理開始時刻)よりも前の時間内の複数の時刻のそれぞれを「測定時刻」とし、複数の測定時刻のそれぞれにおける、対象物9の位置を測定する。測定部10は、具体的には、撮像ユニット11と、撮像制御部12と、解析処理部13とを備える。
<I. Measuring unit 10>
The measuring unit 10 has a plurality of times within the time before the processing time (in this case, the processing start time) that is the target of prediction after the object 9 and the processing head 102 start moving relatively. Each of them is “measurement time”, and the position of the object 9 at each of the plurality of measurement times is measured. Specifically, the measurement unit 10 includes an imaging unit 11, an imaging control unit 12, and an analysis processing unit 13.

<撮像ユニット11>
撮像ユニット11は、処理ヘッド102に対して固定されて、ステージ101上の対象物9を撮像する。撮像ユニット11は、n個(ただし、nは、2以上の整数であり、例えば、n=10)の撮像部111を備える。
<Imaging unit 11>
The imaging unit 11 is fixed to the processing head 102 and images the object 9 on the stage 101. The imaging unit 11 includes n imaging units 111 (where n is an integer equal to or greater than 2, for example, n = 10).

n個の撮像部111のそれぞれは、ステージ101上の対象物9の面内領域を撮像する機構であり、互いに同じ構成を備える。すなわち、各撮像部111は、例えばLEDにより構成される光源と、鏡筒と、対物レンズと、エリアアイメージセンサ(二次元イメージセンサ)により構成されるCCDイメージセンサとを含んで構成される。この構成において、各撮像部111は、後述する撮像制御部12からの指示に応じて、ステージ101上の対象物9を撮像して、対象物9の面内領域(当該撮像部111の真下の領域)を撮像した二次元の画像データ(撮像データ)を取得する。   Each of the n imaging units 111 is a mechanism that images an in-plane region of the object 9 on the stage 101 and has the same configuration. That is, each imaging unit 111 includes, for example, a light source configured by LEDs, a lens barrel, an objective lens, and a CCD image sensor configured by an area image sensor (two-dimensional image sensor). In this configuration, each imaging unit 111 captures an image of the object 9 on the stage 101 in accordance with an instruction from the imaging control unit 12 described later, and an in-plane region of the object 9 (immediately below the imaging unit 111). Two-dimensional image data (imaging data) obtained by imaging (region) is acquired.

n個の撮像部111は、処理ヘッド102に対して固定されている。したがって、駆動機構103がステージ101を移動させると、複数の撮像部111も、処理ヘッド102と一体となって、対象物9に対して相対移動する。   The n imaging units 111 are fixed with respect to the processing head 102. Therefore, when the drive mechanism 103 moves the stage 101, the plurality of imaging units 111 are also moved relative to the object 9 together with the processing head 102.

また、n個の撮像部111のそれぞれは、X軸に沿って一列に配列された状態で、処理ヘッド102の−X側に配置されている。上述したとおり、処理ヘッド102は、対象物9に対して−X方向に相対移動しながら、対象物9に対する処理を実行する。つまり、n個の撮像部111は、処理ヘッド102が、処理実行時に、対象物9に対して相対移動される移動方向について、処理ヘッド102の下流側において、当該移動方向に沿って配列される。なお、n個の撮像部111は、一定の間隔をあけて配列されていてもよいし、例えば、処理ヘッド102に近づくほど間隔が小さくなるように配列されてもよい。   Further, each of the n imaging units 111 is arranged on the −X side of the processing head 102 in a state of being arranged in a line along the X axis. As described above, the processing head 102 performs processing on the target object 9 while relatively moving in the −X direction with respect to the target object 9. That is, the n imaging units 111 are arranged along the moving direction on the downstream side of the processing head 102 with respect to the moving direction in which the processing head 102 is moved relative to the object 9 when the processing is executed. . Note that the n imaging units 111 may be arranged at a certain interval, or may be arranged so that the interval decreases as the processing head 102 is approached, for example.

いま、ステージ101に載置された対象物9には、その面内に規定される処理対象領域の+X側の端部(すなわち、処理開始位置)の付近に、位置検出用のマーク(具体的には、例えば、十字状のマーク)Mが付されているとする。測定部10は、このマークMを対象物9上の特徴部分としてとらえ、当該特徴部分であるマークMを検出することによって、対象物9の位置を検出する。   Now, the object 9 placed on the stage 101 has a position detection mark (specifically, near the + X side end (that is, the processing start position) of the processing target area defined within the surface. For example, it is assumed that a cross mark (M) is attached. The measuring unit 10 detects the mark M as a characteristic part on the object 9 and detects the position of the object 9 by detecting the mark M that is the characteristic part.

処理装置100にて、対象物9に対する処理が実行される際には、まず、対象物9上のマークMが、最も−X側の撮像部111の真下よりも−X側に配置された状態とされ(図1に示される状態であり、以下「移動開始状態」ともいう)、この状態で、駆動機構103がステージ101を+X方向に移動開始する。ステージ101が+X方向に移動開始されると、n個の撮像部111と処理ヘッド102とは、対象物9に対して−X方向に相対移動開始されることになる。そして、まず、最も−X側の撮像部111がマークMの上方を通過し(図4に示される状態)、続いて、−X側から2番目の撮像部111がマークMの上方を通過し(図5に示される状態)、といった具合に、各撮像部111が次々とマークMの上方を通過する。そして、最も+X側の撮像部(第n撮像部)111がマークMの上方を通過した後に、処理ヘッド102が処理開始位置の真上に到達する(図10に示される状態)。処理ヘッド102が処理開始位置の真上に到達した時点で、処理ヘッド102が対象物9に対する処理(処理ヘッド102が例えば描画ヘッドである場合は、対象物9である基板に対する光の照射)が開始されることになる。   When the processing on the object 9 is executed by the processing apparatus 100, first, the mark M on the object 9 is arranged on the −X side from directly below the imaging unit 111 on the most −X side. In this state, the drive mechanism 103 starts moving the stage 101 in the + X direction (the state shown in FIG. 1 and also referred to as “movement start state”). When the stage 101 starts to move in the + X direction, the n imaging units 111 and the processing heads 102 start to move relative to the object 9 in the −X direction. First, the most imaging unit 111 on the −X side passes above the mark M (the state shown in FIG. 4), and then the second imaging unit 111 from the −X side passes above the mark M. (The state shown in FIG. 5), and so on, each imaging unit 111 passes over the mark M one after another. Then, after the most + X side imaging unit (n-th imaging unit) 111 passes above the mark M, the processing head 102 reaches directly above the processing start position (state shown in FIG. 10). When the processing head 102 reaches directly above the processing start position, the processing head 102 performs processing on the object 9 (in the case where the processing head 102 is a drawing head, for example, irradiation of light on the substrate that is the target 9). Will be started.

ここで、移動開始状態からステージ101の移動が開始される時刻(すなわち、処理ヘッド102と対象物9との相対移動が開始される時刻)を、「移動開始時刻」ともいう。また、処理ヘッド102が処理開始位置の真上に到達する時刻(すなわち、処理ヘッド102が対象物9に対する処理を開始する時刻)を、「処理開始時刻」ともいう。つまり、処理装置100においては、移動開始時刻の後であって、処理開始時刻の前の時間内において、各撮像部111がマークMの上方を次々と通過することになるところ、各撮像部111がマークMの上方を通過する各時刻が、「測定時刻」とされる。   Here, the time at which the movement of the stage 101 is started from the movement start state (that is, the time at which the relative movement between the processing head 102 and the object 9 is started) is also referred to as “movement start time”. The time at which the processing head 102 arrives immediately above the processing start position (that is, the time at which the processing head 102 starts processing the object 9) is also referred to as “processing start time”. That is, in the processing apparatus 100, each imaging unit 111 passes over the mark M one after another within the time after the movement start time and before the processing start time. Each time when the mark passes over the mark M is defined as a “measurement time”.

<撮像制御部12>
撮像制御部12は、撮像ユニット11を制御して、複数の測定時刻のそれぞれにおける、対象物9の撮像データを取得させる。すなわち、上述したとおり、移動開始状態から、ステージ101が+X方向に移動開始されると、n個の撮像部111のそれぞれが、順にマークMの上方を通過していくところ、撮像制御部12は、各撮像部111が、マークMの上方に到達する時刻に(すなわち、当該撮像部111の撮像領域内にマークMが捉えられたタイミングで)、当該マークMの上方にある撮像部111に、対象物9の面内領域を撮像させる。すなわち、当該撮像部111に、対象物9の特徴部分であるマークMを撮像させる。これによって、n個の撮像部111のそれぞれから、互いに異なる測定時刻の対象物9の撮像データ(具体的には、対象物9上のマークMを撮像した撮像データ)が取得されることになる。
<Imaging control unit 12>
The imaging control unit 12 controls the imaging unit 11 to acquire imaging data of the object 9 at each of a plurality of measurement times. That is, as described above, when the stage 101 starts moving in the + X direction from the movement start state, each of the n imaging units 111 sequentially passes above the mark M, and the imaging control unit 12 At the time when each imaging unit 111 reaches above the mark M (that is, at the timing when the mark M is captured in the imaging region of the imaging unit 111), the imaging unit 111 above the mark M An in-plane region of the object 9 is imaged. That is, the imaging unit 111 is caused to image the mark M that is a characteristic part of the object 9. Thereby, imaging data of the object 9 at different measurement times (specifically, imaging data obtained by imaging the mark M on the object 9) is acquired from each of the n imaging units 111. .

<解析処理部13>
解析処理部13は、撮像ユニット11が次々と取得する撮像データを解析して、当該撮像データが取得された測定時刻の対象物9の位置を、特定する。具体的には、解析処理部13は、例えば、撮像部111が取得した撮像データと、記憶装置154に予め格納されているテンプレート画像データとのパターンマッチングを行って、当該撮像データからマークMを検出する。マークMが検出されると、解析処理部13は、さらに、当該マークMの位置を特定し、当該特定された位置を、当該撮像データが取得された測定時刻における対象物9の測定位置として取得する。ただし、この測定位置(および、測定位置に基づいて算出される予測位置)は、例えば、基体部110上に規定された直交座標系で規定される二次元座標位置で表される情報であり、処理ヘッド102に対する対象物9の相対位置を示している。
<Analysis processing unit 13>
The analysis processing unit 13 analyzes the imaging data sequentially acquired by the imaging unit 11 and specifies the position of the object 9 at the measurement time at which the imaging data is acquired. Specifically, for example, the analysis processing unit 13 performs pattern matching between the imaging data acquired by the imaging unit 111 and the template image data stored in advance in the storage device 154, and sets the mark M from the imaging data. To detect. When the mark M is detected, the analysis processing unit 13 further specifies the position of the mark M, and acquires the specified position as the measurement position of the object 9 at the measurement time when the imaging data is acquired. To do. However, this measurement position (and a predicted position calculated based on the measurement position) is information represented by, for example, a two-dimensional coordinate position defined by an orthogonal coordinate system defined on the base 110. The relative position of the object 9 with respect to the processing head 102 is shown.

上述したとおり、撮像ユニット11からは、複数の測定時刻のそれぞれで撮像された対象物9の撮像データが次々と取得される。したがって、解析処理部13が、当該次々と取得される撮像データを次々と解析することによって、複数の測定時刻のそれぞれにおける、対象物9の測定位置が取得されることになる。   As described above, the imaging unit 11 sequentially acquires imaging data of the object 9 captured at each of a plurality of measurement times. Therefore, the analysis processing unit 13 analyzes the captured image data acquired one after another, thereby acquiring the measurement position of the object 9 at each of a plurality of measurement times.

<ii.予測部20>
予測部20は、測定部10が取得した、複数の測定時刻のそれぞれにおける対象物9の測定位置に基づいて、処理開始時刻の対象物9の位置を予測する。予測部20は、具体的には、予測位置算出部21と、予測誤差取得部22と、パラメータ調整部23と、出力部24とを備える。
<Ii. Prediction unit 20>
The prediction unit 20 predicts the position of the object 9 at the processing start time based on the measurement position of the object 9 at each of a plurality of measurement times acquired by the measurement unit 10. Specifically, the prediction unit 20 includes a predicted position calculation unit 21, a prediction error acquisition unit 22, a parameter adjustment unit 23, and an output unit 24.

<予測位置算出部21>
予測位置算出部21は、処理パラメータを含む予測モデルを用いて、対象時刻における対象物9の位置を、当該対象時刻よりも前の2個以上(この実施形態においては、2個)の測定時刻のそれぞれにおける対象物9の測定位置に基づいて、予測する。ただし、ここでは、3番目以降の測定時刻の全てと処理開始時刻とが、対象時刻とされる。
<Predicted position calculation unit 21>
The predicted position calculation unit 21 uses the prediction model including the processing parameter to measure the position of the object 9 at the target time at two or more (two in this embodiment) measurement times before the target time. Is predicted based on the measurement position of the object 9 in each of the above. However, here, all of the third and subsequent measurement times and the process start time are set as the target times.

予測位置算出部21は、より具体的には、測定部10が、ある測定時刻(現測定時刻)の対象物9の測定位置を取得した場合に、現測定時刻の対象物9の測定位置と、現測定時刻の前の測定時刻の対象物9の測定位置とに基づいて、現測定時刻の次の測定時刻(現測定時刻が最後の測定時刻の場合は、処理開始時刻)の対象物9の位置を予測する。なお、予測位置算出部21は、対象物9の位置を予測するにあたって、必要に応じて、駆動機構103から、各種の情報(例えば、各測定時刻におけるステージ101の移動速度などの情報)を取得し、当該情報を考慮して、対象物9の位置を予測してもよい。   More specifically, when the measurement unit 10 acquires the measurement position of the object 9 at a certain measurement time (current measurement time), the predicted position calculation unit 21 determines the measurement position of the object 9 at the current measurement time and Based on the measurement position of the object 9 at the measurement time before the current measurement time, the object 9 at the next measurement time after the current measurement time (or the processing start time when the current measurement time is the last measurement time) Predict the position of. Note that the predicted position calculation unit 21 acquires various types of information (for example, information such as the moving speed of the stage 101 at each measurement time) from the drive mechanism 103 as necessary in predicting the position of the object 9. Then, the position of the object 9 may be predicted in consideration of the information.

予測位置算出部21が用いる予測モデルは、どのようなものであってもよい。例えば、対象物9が、水平面内において進行方向と直交する方向に振動していると仮定した予測モデルを採用することができる。また例えば、対象物9が、水平面内において進行方向と平行な方向に振動していると仮定した予測モデルを採用することができる。また例えば、方向や振動数等が異なる複数の振動成分が合成された振動が発生していると仮定した予測モデルを採用することも可能である。これらの各予測モデルにおいては、例えば、振動成分の振動数、振幅、初期位相などが、処理パラメータとして含まれてもよい。また例えば、対象物9が、水平面内において、X軸と非平行な直線軸に沿って進行していると仮定した予測モデルを採用することができる。また例えば、X軸と非平行な直線軸に沿って進行しつつ、振動していると仮定した予測モデルを採用することができる。これらの予測モデルにおいては、例えば、X軸と非平行な直線軸がX軸に対してなす角度が処理パラメータとして含まれてもよい。   The prediction model used by the predicted position calculation unit 21 may be any type. For example, a prediction model that assumes that the object 9 vibrates in a direction orthogonal to the traveling direction in a horizontal plane can be employed. Further, for example, a prediction model that assumes that the object 9 vibrates in a direction parallel to the traveling direction in a horizontal plane can be employed. Further, for example, it is possible to adopt a prediction model that assumes that a vibration in which a plurality of vibration components having different directions and vibration frequencies are combined is generated. In each of these prediction models, for example, the frequency, amplitude, initial phase, and the like of the vibration component may be included as processing parameters. In addition, for example, a prediction model that assumes that the object 9 is traveling along a linear axis that is not parallel to the X axis in a horizontal plane can be employed. Further, for example, a prediction model that is assumed to vibrate while proceeding along a linear axis that is not parallel to the X axis can be employed. In these prediction models, for example, an angle formed by a linear axis that is not parallel to the X axis with respect to the X axis may be included as a processing parameter.

<予測誤差取得部22>
予測誤差取得部22は、ある測定時刻についての対象物9の予測位置(すなわち、予測位置算出部21が予測モデルを用いて予測した対象物9の位置)と、当該測定時刻についての対象物9の測定位置(すなわち、測定部10が実際に測定して取得した対象物9の位置)との差分を算出して、当該測定時刻における予測モデルの予測誤差として取得する。
<Prediction error acquisition unit 22>
The prediction error acquisition unit 22 predicts the position of the object 9 for a certain measurement time (that is, the position of the object 9 predicted by the prediction position calculation unit 21 using the prediction model) and the object 9 for the measurement time. Is calculated as a prediction error of the prediction model at the measurement time, by calculating the difference from the measurement position (that is, the position of the object 9 actually measured and acquired by the measurement unit 10).

<パラメータ調整部23>
パラメータ調整部23は、ある測定時刻における予測モデルの予測誤差が、ゼロ以外の場合(あるいは、許容値を超えている場合)に、当該予測誤差をゼロに近づけるように、当該予測モデルに含まれる処理パラメータを調整する。すなわち、予測誤差をゼロに近づけるように、処理パラメータの最適化を行う。
<Parameter adjustment unit 23>
The parameter adjustment unit 23 is included in the prediction model so that the prediction error approaches zero when the prediction error of the prediction model at a certain measurement time is other than zero (or exceeds the allowable value). Adjust processing parameters. That is, the processing parameters are optimized so that the prediction error approaches zero.

ただし、パラメータ調整部23が処理パラメータを変更した場合は、予測位置算出部21は、以後は、当該変更後の処理パラメータを含む予測モデルを用いて、対象物9の位置を予測する。そして、得られた予測位置について算出された予測誤差に応じて、再度、パラメータ調整部23が処理パラメータの調整を行う。このようにして、各測定時刻についての予測誤差が取得される度に、予測モデルに含まれる処理パラメータの調整が重ねられていく。処理パラメータの調整が重ねられるにつれて、当該予測モデルが、相対移動の開始後の対象物9の変位状況に応じたものとなっていく。すなわち、予測モデルの予測精度が、高まっていく。   However, when the parameter adjustment unit 23 changes the processing parameter, the predicted position calculation unit 21 thereafter predicts the position of the object 9 using a prediction model including the changed processing parameter. And according to the prediction error calculated about the obtained prediction position, the parameter adjustment part 23 adjusts a process parameter again. In this way, every time a prediction error for each measurement time is acquired, adjustment of the processing parameters included in the prediction model is repeated. As the adjustment of the processing parameters is repeated, the prediction model is adapted to the displacement state of the object 9 after the start of relative movement. That is, the prediction accuracy of the prediction model increases.

<出力部24>
出力部24は、予測位置算出部21が、予測モデルを用いて取得した、処理開始時刻における対象物9の予測位置を、最終予測位置として出力する。ただし、上述したとおり、予測位置算出部21が処理開始時刻における対象物9の位置を予測する前に、これに用いられる予測モデルに含まれる処理パラメータの調整が重ねられている。すなわち、処理開始時刻における対象物9の位置は、パラメータ調整部23によって調整が重ねられた処理パラメータを含む予測モデルを用いて、予測される。したがって、得られた予測位置は、信頼性の高い値となっている。
<Output unit 24>
The output unit 24 outputs the predicted position of the object 9 at the processing start time acquired by the predicted position calculation unit 21 using the prediction model as the final predicted position. However, as described above, before the predicted position calculation unit 21 predicts the position of the object 9 at the processing start time, adjustment of the processing parameters included in the prediction model used for this is repeated. That is, the position of the object 9 at the processing start time is predicted using a prediction model including the processing parameter adjusted by the parameter adjusting unit 23. Therefore, the obtained predicted position is a highly reliable value.

出力部24は、予測モデルを評価する評価部241を備える。評価部241は、複数の測定時刻のそれぞれにおける予測誤差を蓄積し、当該蓄積された一群の予測誤差に基づいて、予測モデルを評価する。具体的には、評価部241は、例えば、予測誤差が、ある時間以降は、定められた許容範囲(例えば、絶対値が所定の閾値以下の範囲)内に収まっている場合(好ましくは、ゼロに収束している場合)に、予測モデルに肯定的な評価を与える。   The output unit 24 includes an evaluation unit 241 that evaluates the prediction model. The evaluation unit 241 accumulates prediction errors at each of a plurality of measurement times, and evaluates the prediction model based on the accumulated group of prediction errors. Specifically, for example, the evaluation unit 241 has a case where the prediction error is within a predetermined allowable range (for example, a range whose absolute value is equal to or less than a predetermined threshold) after a certain time (preferably, zero). Give a positive rating to the prediction model.

出力部24は、評価部241が予測モデルに対して否定的な評価を与えた場合、最終予測位置の出力に代えて(あるいは、当該出力と併せて)、所定のエラー処理を行う。エラー処理は、具体的には、例えば、位置予測処理が失敗した旨のメッセージを、表示部157に表示させる処理とすればよい。   When the evaluation unit 241 gives a negative evaluation to the prediction model, the output unit 24 performs predetermined error processing instead of (or in combination with) the output of the final prediction position. Specifically, the error process may be a process for causing the display unit 157 to display a message indicating that the position prediction process has failed.

<3.処理の流れ>
位置予測装置1が、処理開始時刻における対象物9の位置を予測する処理(位置予測処理)の流れについて、図4〜図10を参照しながら具体的に説明する。図4〜図10は、位置予測処理の流れを説明するための模式図であり、互いに異なる時刻における処理の様子がそれぞれ模式的に示されている。なお、図4〜図10においては、各処理部21,22,23が各時刻に行う処理が1個のブロックにて模式的に示されている。
<3. Flow of processing>
The flow of the process (position prediction process) in which the position prediction apparatus 1 predicts the position of the object 9 at the process start time will be specifically described with reference to FIGS. 4 to 10 are schematic diagrams for explaining the flow of the position prediction process, and each of the processes at different times is schematically shown. In FIGS. 4 to 10, the processing performed by each processing unit 21, 22, 23 at each time is schematically shown as one block.

上述したとおり、処理実行時には、まず、対象物9上のマークMが、最も−X側の撮像部111の真下よりも−X側に配置された移動開始状態とされ(図1参照)、この状態で駆動機構103がステージ101を+X方向に移動開始する(移動開始時刻)。すると、n個の撮像部111が次々とマークMの上方を通過した後に(すなわち、n個の測定時刻を経た後に)、処理ヘッド102が処理開始位置の真上に到達し、この時点で、処理ヘッド102から対象物9に対する処理が開始される(処理開始時刻)。以下において、−X側から数えてi番目(i=1,2,・・,n)の撮像部111がマークMの上方を通過する時刻(測定時刻)を、「測定時刻t(i)」と示し、処理ヘッド102が処理開始位置の真上に到達する時刻(処理開始時刻)を、「処理開始時刻t(n+1)」と示す。   As described above, at the time of executing the process, first, the mark M on the object 9 is set to the movement start state arranged on the −X side from directly below the −X side imaging unit 111 (see FIG. 1). In this state, the drive mechanism 103 starts moving the stage 101 in the + X direction (movement start time). Then, after the n imaging units 111 pass over the mark M one after another (that is, after n measurement times have passed), the processing head 102 reaches directly above the processing start position, and at this time, Processing for the object 9 is started from the processing head 102 (processing start time). In the following, the time (measurement time) when the i-th (i = 1, 2,..., N) imaging unit 111 counting from the −X side passes above the mark M is referred to as “measurement time t (i)”. The time when the processing head 102 arrives just above the processing start position (processing start time) is indicated as “processing start time t (n + 1)”.

<測定時刻t(1)>
移動開始時刻からある時間が経過すると、図4に示されるように、−X側から数えて1番目の撮像部111がマークMの上方を通過する(測定時刻t(1))。すると、撮像制御部12が、マークMの真上にある撮像部111に対象物9の面内領域を撮像させる。これによって、測定時刻t(1)における、対象物9の撮像データが取得される。撮像データが取得されると、続いて、解析処理部13が、当該撮像データを解析して、測定時刻t(1)の対象物9の測定位置A(1)を取得する。取得された測定位置A(1)は、予測位置算出部21に入力される。
<Measurement time t (1)>
When a certain time elapses from the movement start time, as shown in FIG. 4, the first imaging unit 111 counting from the −X side passes above the mark M (measurement time t (1)). Then, the imaging control unit 12 causes the imaging unit 111 immediately above the mark M to image the in-plane region of the object 9. Thereby, imaging data of the object 9 at the measurement time t (1) is acquired. When the imaging data is acquired, the analysis processing unit 13 subsequently analyzes the imaging data and acquires the measurement position A (1) of the object 9 at the measurement time t (1). The acquired measurement position A (1) is input to the predicted position calculation unit 21.

<測定時刻t(2)>
測定時刻t(1)からさらにある時間が経過すると、図5に示されるように、−X側から数えて2番目の撮像部111がマークMの上方を通過する(測定時刻t(2))。すると、撮像制御部12が、マークMの真上にある撮像部111に対象物9の面内領域を撮像させる。これによって、測定時刻t(2)における、対象物9の撮像データが取得される。撮像データが取得されると、続いて、解析処理部13が、当該撮像データを解析して、測定時刻t(2)の対象物9の測定位置A(2)を取得する。取得された測定位置A(2)は、予測位置算出部21に入力される。
<Measurement time t (2)>
When a certain time elapses from the measurement time t (1), the second imaging unit 111 counting from the −X side passes over the mark M as shown in FIG. 5 (measurement time t (2)). . Then, the imaging control unit 12 causes the imaging unit 111 immediately above the mark M to image the in-plane region of the object 9. Thereby, imaging data of the object 9 at the measurement time t (2) is acquired. When the imaging data is acquired, the analysis processing unit 13 subsequently analyzes the imaging data and acquires the measurement position A (2) of the object 9 at the measurement time t (2). The acquired measurement position A (2) is input to the predicted position calculation unit 21.

予測位置算出部21は、測定時刻t(2)の測定位置A(2)を取得すると、当該測定位置A(2)と、先に取得していた測定時刻t(1)の測定位置A(1)とに基づいて、測定時刻t(3)の対象物9の位置を予測して、予測位置B(3)として取得する。取得された予測位置B(3)は、予測誤差取得部22に入力される。   When the predicted position calculation unit 21 acquires the measurement position A (2) at the measurement time t (2), the predicted position calculation unit 21 and the measurement position A (2) at the measurement time t (1) acquired previously. Based on 1), the position of the object 9 at the measurement time t (3) is predicted and acquired as the predicted position B (3). The acquired predicted position B (3) is input to the prediction error acquisition unit 22.

<測定時刻t(3)>
測定時刻t(2)からさらにある時間が経過すると、図6に示されるように、−X側から数えて3番目の撮像部111がマークMの上方を通過する(測定時刻t(3))。すると、撮像制御部12が、マークMの真上にある撮像部111に対象物9の面内領域を撮像させる。これによって、測定時刻t(3)における、対象物9の撮像データが取得される。撮像データが取得されると、続いて、解析処理部13が、当該撮像データを解析して、測定時刻t(3)の対象物9の測定位置A(3)を取得する。取得された測定位置A(3)は、予測位置算出部21と予測誤差取得部22とに入力される。
<Measurement time t (3)>
When a certain time elapses from the measurement time t (2), as shown in FIG. 6, the third imaging unit 111 counting from the −X side passes over the mark M (measurement time t (3)). . Then, the imaging control unit 12 causes the imaging unit 111 immediately above the mark M to image the in-plane region of the object 9. Thereby, imaging data of the object 9 at the measurement time t (3) is acquired. When the imaging data is acquired, the analysis processing unit 13 subsequently analyzes the imaging data and acquires the measurement position A (3) of the object 9 at the measurement time t (3). The acquired measurement position A (3) is input to the predicted position calculation unit 21 and the prediction error acquisition unit 22.

予測位置算出部21は、測定時刻t(3)の測定位置A(3)を取得すると、当該測定位置A(3)と、先に取得していた時刻t(2)の測定位置A(2)とに基づいて、測定時刻t(4)の対象物9の位置を予測して、予測位置B(4)として取得する。取得された予測位置B(4)は、予測誤差取得部22に入力される。   When the predicted position calculation unit 21 acquires the measurement position A (3) at the measurement time t (3), the predicted position calculation unit 21 and the measurement position A (2) at the time t (2) acquired earlier. ) And the position of the object 9 at the measurement time t (4) is predicted and acquired as a predicted position B (4). The acquired predicted position B (4) is input to the prediction error acquisition unit 22.

一方、予測誤差取得部22は、測定時刻t(3)の測定位置A(3)を取得すると、当該測定位置A(3)と、先に取得していた測定時刻t(3)の予測位置B(3)との差分を算出して、測定時刻t(3)の予測誤差C(3)として取得する。取得された予測誤差C(3)は、パラメータ調整部23に入力されるとともに、評価部241に蓄積される。   On the other hand, when the prediction error acquisition unit 22 acquires the measurement position A (3) at the measurement time t (3), the prediction error acquisition unit 22 and the prediction position at the measurement time t (3) acquired previously. A difference from B (3) is calculated and acquired as a prediction error C (3) at measurement time t (3). The obtained prediction error C (3) is input to the parameter adjustment unit 23 and is accumulated in the evaluation unit 241.

パラメータ調整部23は、測定時刻t(3)の予測誤差C(3)を取得すると、当該予測誤差C(3)をゼロに近づけるように、予測位置算出部21が予測に用いる予測モデルに含まれる処理パラメータを調整する。パラメータ調整部23が処理パラメータを調整した場合、予測位置算出部21は、以後は、調整後の処理パラメータを含む予測モデルを用いて、対象物9の位置を予測する。   When the parameter adjustment unit 23 acquires the prediction error C (3) at the measurement time t (3), the parameter adjustment unit 23 is included in the prediction model used by the prediction position calculation unit 21 for prediction so that the prediction error C (3) approaches zero. Adjust processing parameters. When the parameter adjustment unit 23 adjusts the processing parameter, the predicted position calculation unit 21 thereafter predicts the position of the object 9 using a prediction model including the adjusted processing parameter.

<測定時刻t(i)(i=4,5,・・,n−1)>
測定時刻t(4)(図7に示される状態)、測定時刻t(5),・・・,測定時刻t(n−1)(図8に示される状態)のそれぞれにおいて行われる処理は、上述した測定時刻t(3)において行われる処理と同様である。
<Measurement time t (i) (i = 4, 5,..., N−1)>
The processing performed at each of measurement time t (4) (state shown in FIG. 7), measurement time t (5),..., Measurement time t (n−1) (state shown in FIG. 8) This is the same as the processing performed at the measurement time t (3) described above.

すなわち、測定時刻t(i−1)からさらにある時間が経過すると、−X側から数えてi番目の撮像部111がマークMの上方を通過する(測定時刻t(i))。すると、撮像制御部12が、マークMの真上にある撮像部111に対象物9の面内領域を撮像させる。これによって、測定時刻t(i)における、対象物9の撮像データが取得される。撮像データが取得されると、続いて、解析処理部13が、当該撮像データを解析して、測定時刻t(i)の対象物9の測定位置A(i)を取得する。取得された測定位置A(i)は、予測位置算出部21と予測誤差取得部22とに入力される。   That is, when a certain amount of time elapses from the measurement time t (i−1), the i-th imaging unit 111 counting from the −X side passes over the mark M (measurement time t (i)). Then, the imaging control unit 12 causes the imaging unit 111 immediately above the mark M to image the in-plane region of the object 9. Thereby, imaging data of the object 9 at the measurement time t (i) is acquired. When the imaging data is acquired, the analysis processing unit 13 subsequently analyzes the imaging data and acquires the measurement position A (i) of the object 9 at the measurement time t (i). The acquired measurement position A (i) is input to the predicted position calculation unit 21 and the prediction error acquisition unit 22.

予測位置算出部21は、測定時刻t(i)の測定位置A(i)を取得すると、当該測定位置A(i)と、先に取得していた時刻t(i−1)の測定位置A(i−1)とに基づいて、測定時刻t(i+1)の対象物9の位置を予測して、予測位置B(i+1)として取得する。取得された予測位置B(i+1)は、予測誤差取得部22に入力される。   When the predicted position calculation unit 21 acquires the measurement position A (i) at the measurement time t (i), the predicted position calculation unit 21 and the measurement position A at the time t (i−1) acquired previously. Based on (i-1), the position of the object 9 at the measurement time t (i + 1) is predicted and acquired as a predicted position B (i + 1). The acquired predicted position B (i + 1) is input to the prediction error acquisition unit 22.

一方、予測誤差取得部22は、測定時刻t(i)の測定位置A(i)を取得すると、当該測定位置A(i)と、先に取得していた測定時刻t(i)の予測位置B(i)との差分を算出して、測定時刻t(i)の予測誤差C(i)として取得する。取得された予測誤差C(i)は、パラメータ調整部23に入力されるとともに、評価部241に蓄積される。   On the other hand, when the prediction error acquisition unit 22 acquires the measurement position A (i) at the measurement time t (i), the prediction position at the measurement time t (i) that has been acquired previously is obtained. A difference from B (i) is calculated and obtained as a prediction error C (i) at the measurement time t (i). The acquired prediction error C (i) is input to the parameter adjustment unit 23 and is accumulated in the evaluation unit 241.

パラメータ調整部23は、測定時刻t(i)の予測誤差C(i)を取得すると、当該予測誤差C(i)をゼロに近づけるように、予測位置算出部21が予測に用いる予測モデルに含まれる処理パラメータを調整する。   When the parameter adjustment unit 23 acquires the prediction error C (i) at the measurement time t (i), the parameter adjustment unit 23 is included in the prediction model used by the prediction position calculation unit 21 for prediction so that the prediction error C (i) approaches zero. Adjust processing parameters.

<測定時刻t(n)>
測定時刻t(n−1)からさらにある時間が経過すると、図9に示されるように、最も+X側の撮像部111がマークMの上方を通過する(測定時刻t(n))。すると、撮像制御部12が、マークMの真上にある撮像部111に対象物9の面内領域を撮像させる。これによって、測定時刻t(n)における、対象物9の撮像データが取得される。撮像データが取得されると、続いて、解析処理部13が、当該撮像データを解析して、測定時刻t(n)の対象物9の測定位置A(n)を取得する。取得された測定位置A(n)は、予測位置算出部21と予測誤差取得部22とに入力される。
<Measurement time t (n)>
When a certain time elapses from the measurement time t (n−1), as shown in FIG. 9, the + X-side imaging unit 111 passes above the mark M (measurement time t (n)). Then, the imaging control unit 12 causes the imaging unit 111 immediately above the mark M to image the in-plane region of the object 9. Thereby, imaging data of the object 9 at the measurement time t (n) is acquired. When the imaging data is acquired, the analysis processing unit 13 subsequently analyzes the imaging data and acquires the measurement position A (n) of the object 9 at the measurement time t (n). The acquired measurement position A (n) is input to the predicted position calculation unit 21 and the prediction error acquisition unit 22.

予測位置算出部21は、測定時刻t(n)の測定位置A(n)を取得すると、当該測定位置A(n)と、先に取得していた時刻t(n−1)の測定位置A(n−1)とに基づいて、処理開始時刻t(n+1)の対象物9の位置を予測して、予測位置B(n+1)として取得する。取得された予測位置B(n+1)は、出力部24に入力される。   When the predicted position calculation unit 21 acquires the measurement position A (n) at the measurement time t (n), the prediction position calculation unit 21 and the measurement position A at the time t (n−1) acquired previously. Based on (n−1), the position of the object 9 at the processing start time t (n + 1) is predicted and acquired as a predicted position B (n + 1). The acquired predicted position B (n + 1) is input to the output unit 24.

一方、予測誤差取得部22は、測定時刻t(n)の測定位置A(n)を取得すると、当該測定位置A(n)と、先に取得していた測定時刻t(n)の予測位置B(n)との差分を算出して、測定時刻t(n)の予測誤差C(n)として取得する。取得された予測誤差C(n)は、出力部24に入力される。   On the other hand, when the prediction error acquisition unit 22 acquires the measurement position A (n) at the measurement time t (n), the prediction position at the measurement time t (n) that has been acquired previously is obtained. The difference from B (n) is calculated and acquired as the prediction error C (n) at the measurement time t (n). The acquired prediction error C (n) is input to the output unit 24.

出力部24は、処理開始時刻t(n+1)における対象物9の予測位置B(n+1)を取得すると、当該取得した予測位置B(n+1)の値を、最終予測位置として出力する。ただし、最終予測位置の出力に先立って、評価部241が、蓄積された一群の予測誤差C(i)(i=3,4,・・,n)(すなわち、測定時刻t(3),t(4),・・,t(n)のそれぞれの予測誤差C(3),C(4),・・,C(n))に基づいて、予測モデルを評価している。評価部241が、予測モデルに対して否定的な評価を与えている場合、出力部24は、最終予測位置の出力に代えて(あるいは、当該出力と併せて)、所定のエラー処理を行う。   When the output unit 24 acquires the predicted position B (n + 1) of the object 9 at the processing start time t (n + 1), the output unit 24 outputs the value of the acquired predicted position B (n + 1) as the final predicted position. However, prior to outputting the final predicted position, the evaluation unit 241 determines that the group of accumulated prediction errors C (i) (i = 3, 4,..., N) (that is, measurement times t (3), t The prediction model is evaluated based on the prediction errors C (3), C (4),..., C (n)) of (4),. When the evaluation unit 241 gives a negative evaluation to the prediction model, the output unit 24 performs predetermined error processing instead of (or in combination with) the output of the final prediction position.

<処理開始時刻t(n+1)>
測定時刻t(n)からさらにある時間が経過すると、図10に示されるように、処理ヘッド102が処理開始位置の真上に到着し、対象物9に対する処理を開始する(処理開始時刻t(n+1))。ただし、制御部105は、処理開始時刻t(n+1)が到達するまでに、補正部104に、位置予測装置1から出力された最終予測位置(すなわち、処理開始時刻t(n+1)における、対象物9の予測位置)に基づいて、処理ヘッド102による処理位置を必要に応じて補正させるように指示を与えている。補正部104が当該指示に応じて、処理開始時刻t(n+1)における処理ヘッド102の処理位置を補正することによって、処理開始時刻t(n+1)において、対象物9の目標位置に正確に処理が施されることになる。
<Process start time t (n + 1)>
When a certain time elapses from the measurement time t (n), as shown in FIG. 10, the processing head 102 arrives immediately above the processing start position and starts processing the object 9 (processing start time t ( n + 1)). However, the control unit 105 causes the correction unit 104 to output the target object at the final predicted position output from the position prediction device 1 (that is, the process start time t (n + 1)) until the process start time t (n + 1) arrives. 9 predicted position), an instruction is given to correct the processing position by the processing head 102 as necessary. In response to the instruction, the correction unit 104 corrects the processing position of the processing head 102 at the processing start time t (n + 1), thereby accurately processing the target position of the object 9 at the processing start time t (n + 1). Will be given.

<4.効果>
第1の実施の形態によると、対象物9と処理ヘッド102とが相対的に移動開始された後の複数の測定時刻のそれぞれにおける、対象物9の測定位置に基づいて、処理開始時刻の対象物9の位置を予測する。この構成によると、相対移動の開始後の対象物9の変位状況を加味して対象物9の位置を予測することができる。したがって、処理が実行される際の対象物9の位置を十分な精度で予測できる。その結果、対象物9の目標位置に正確に処理を施すことができる。例えば、処理ヘッド102が描画ヘッドの場合、基板上の目標位置に正確に光を照射することができる。
<4. Effect>
According to the first embodiment, the target of the processing start time is based on the measurement position of the target 9 at each of the plurality of measurement times after the target 9 and the processing head 102 start moving relatively. Predict the position of the object 9. According to this configuration, the position of the object 9 can be predicted in consideration of the displacement state of the object 9 after the start of relative movement. Therefore, the position of the object 9 when the process is executed can be predicted with sufficient accuracy. As a result, the target position of the object 9 can be accurately processed. For example, when the processing head 102 is a drawing head, the target position on the substrate can be accurately irradiated with light.

特に、第1の実施の形態によると、測定時刻における対象物9の位置が予測モデルを用いて予測される。そして、得られた予測位置と実際の測定位置との差分をゼロに近づけるように、予測モデルに含まれる処理パラメータが調整される。この構成によると、予測モデルに含まれる処理パラメータが、相対移動の開始後の対象物9の変位状況に応じたものに調整されていくので、予測精度をより向上させることができる。   In particular, according to the first embodiment, the position of the object 9 at the measurement time is predicted using the prediction model. Then, the processing parameter included in the prediction model is adjusted so that the difference between the obtained predicted position and the actual measurement position approaches zero. According to this configuration, the processing parameters included in the prediction model are adjusted according to the displacement state of the object 9 after the start of relative movement, so that the prediction accuracy can be further improved.

特に、第1の実施の形態によると、複数の測定時刻のそれぞれにおいて、撮像ユニット11が対象物9を撮像し、取得された撮像データに基づいて、各測定時刻の対象物9の測定位置が特定される。この構成によると、複数の測定時刻のそれぞれにおける、対象物9の測定位置を、簡易な構成で取得することができる。   In particular, according to the first embodiment, the imaging unit 11 images the object 9 at each of a plurality of measurement times, and the measurement position of the object 9 at each measurement time is based on the acquired imaging data. Identified. According to this configuration, the measurement position of the object 9 at each of a plurality of measurement times can be acquired with a simple configuration.

<II.第2の実施の形態>
<1.位置予測装置2>
第2の実施の形態に係る位置予測装置2について説明する。なお、以下においては、第1の実施の形態に係る位置予測装置1と相違しない点については説明を省略するとともに、同じ要素については同じ符号を付して示す。
<II. Second Embodiment>
<1. Position Prediction Device 2>
A position prediction apparatus 2 according to the second embodiment will be described. In the following description, descriptions of points that are not different from the position prediction apparatus 1 according to the first embodiment are omitted, and the same elements are denoted by the same reference numerals.

位置予測装置2は、第1の実施の形態に係る位置予測装置1と同様、処理装置100(図1参照)に搭載されて、処理ヘッド102から対象物9への処理が実行される処理時刻における、処理ヘッド102に対する対象物9の相対位置を予測する。なお、ここでも、位置予測装置2が予測対象とする処理時刻は、処理ヘッド102が対象物9に対する処理を開始する時刻(処理開始時刻)であるとする。   Similar to the position prediction apparatus 1 according to the first embodiment, the position prediction apparatus 2 is mounted on the processing apparatus 100 (see FIG. 1), and processing time at which processing from the processing head 102 to the object 9 is executed. The relative position of the object 9 with respect to the processing head 102 is predicted. Here again, it is assumed that the processing time to be predicted by the position prediction device 2 is the time at which the processing head 102 starts processing the object 9 (processing start time).

位置予測装置2の構成について、図1、図2に加えて、図11を参照しながら説明する。図11は、位置予測装置2が備える構成を示すブロック図である。   The configuration of the position prediction apparatus 2 will be described with reference to FIG. 11 in addition to FIGS. FIG. 11 is a block diagram illustrating a configuration included in the position prediction device 2.

位置予測装置2は、対象物9の位置を測定する測定部10と、測定部10が取得した対象物9の測定位置に基づいて対象物9の位置を予測する予測部50とを備える。測定部10の構成は、第1の実施の形態に係る位置予測装置1が備える測定部10と同様である。   The position prediction device 2 includes a measurement unit 10 that measures the position of the object 9 and a prediction unit 50 that predicts the position of the object 9 based on the measurement position of the object 9 acquired by the measurement unit 10. The configuration of the measurement unit 10 is the same as that of the measurement unit 10 included in the position prediction apparatus 1 according to the first embodiment.

予測部50は、測定部10が取得した、複数の測定時刻のそれぞれにおける対象物9の測定位置に基づいて、処理開始時刻の対象物9の位置を予測する。予測部50は、具体的には、複数(この実施の形態においては、例えば、3個)の予測位置算出部51x,51y,51zと、予測誤差取得部52と、パラメータ調整部53と、出力部54とを備える。   The prediction unit 50 predicts the position of the object 9 at the processing start time based on the measurement position of the object 9 at each of a plurality of measurement times acquired by the measurement unit 10. Specifically, the prediction unit 50 includes a plurality of (for example, three in this embodiment) prediction position calculation units 51x, 51y, and 51z, a prediction error acquisition unit 52, a parameter adjustment unit 53, and an output. Part 54.

<予測位置算出部51x,51y,51z>
3個の予測位置算出部51x,51y,51zのそれぞれが行う処理は、上述した予測位置算出部21が行う処理と同様である。すなわち、3個の予測位置算出部51x,51y,51zのそれぞれは、処理パラメータを含む予測モデルを用いて、対象時刻おける対象物9の位置を、当該対象時刻よりも前の2個以上(この実施形態においては、2個)の測定時刻のそれぞれにおける対象物9の測定位置に基づいて、予測する。ただし、第1の実施の形態と同様、この実施の形態においても、3番目以降の測定時刻の全てと処理開始時刻とが、対象時刻とされる。
<Predicted position calculation units 51x, 51y, 51z>
The process performed by each of the three predicted position calculation units 51x, 51y, 51z is the same as the process performed by the predicted position calculation unit 21 described above. That is, each of the three predicted position calculation units 51x, 51y, and 51z uses the prediction model including the processing parameters to set the position of the object 9 at the target time to two or more positions before the target time (this In the embodiment, the prediction is performed based on the measurement position of the object 9 at each of the two measurement times. However, as in the first embodiment, in this embodiment, all of the third and subsequent measurement times and the processing start time are set as the target times.

ただし、3個の予測位置算出部51x,51y,51zは、互いに異なる予測モデルを用いて対象物9の位置を予測する。以下において、第1の予測位置算出部51xが用いる予測モデルを「第1予測モデル」ともいい、第2の予測位置算出部51yが用いる予測モデルを「第2予測モデル」ともいい、第3の予測位置算出部51zが用いる予測モデルを「第3予測モデル」ともいう。   However, the three predicted position calculation units 51x, 51y, and 51z predict the position of the object 9 using different prediction models. In the following, the prediction model used by the first predicted position calculation unit 51x is also referred to as “first prediction model”, the prediction model used by the second predicted position calculation unit 51y is also referred to as “second prediction model”, and the third The prediction model used by the predicted position calculation unit 51z is also referred to as a “third prediction model”.

なお、予測位置算出部51x,51y,51zのそれぞれが用いる予測モデルは、第1の実施の形態と同様、どのようなものであってもよい。例えば、第1予測モデルは、対象物9が、水平面内において進行方向と直交する方向に比較的長い周期で振動していると仮定した予測モデルを採用し、第2予測モデルは、対象物9が、水平面内において進行方向と直交する方向に比較的短い周期で振動していると仮定した予測モデルを採用し、第3予測モデルは、対象物9が、水平面内において進行方向と平行な方向に振動していると仮定した予測モデルを採用することができる。   Note that the prediction model used by each of the predicted position calculation units 51x, 51y, and 51z may be any type as in the first embodiment. For example, the first prediction model employs a prediction model that assumes that the object 9 vibrates at a relatively long period in a direction orthogonal to the traveling direction in the horizontal plane, and the second prediction model uses the object 9 Adopts a prediction model that is assumed to vibrate at a relatively short period in a direction orthogonal to the traveling direction in the horizontal plane, and the third prediction model is a direction in which the object 9 is parallel to the traveling direction in the horizontal plane. It is possible to adopt a prediction model that is assumed to vibrate.

<予測誤差取得部52>
予測誤差取得部52が行う処理は、上述した予測誤差取得部22が行う処理とほぼ同様である。ただし、予測誤差取得部52には、各測定時刻について、3個の予測位置(すなわち、第1の予測位置算出部51xが第1予測モデルを用いて予測した予測位置、第2の予測位置算出部51yが第2予測モデルを用いて予測した予測位置、および、第3の予測位置算出部51zが第3予測モデルを用いて予測した予測位置)が入力される。したがって、予測誤差取得部52は、ある測定時刻についての対象物9の測定位置と、当該測定時刻についての対象物9の3個の予測位置のそれぞれとの差分を算出して、3個の予測誤差(当該測定時刻における第1予測モデルの予測誤差、当該測定時刻における第2予測モデルの予測誤差、および、当該測定時刻における第3予測モデルの予測誤差)を取得する。
<Prediction error acquisition unit 52>
The process performed by the prediction error acquisition unit 52 is substantially the same as the process performed by the prediction error acquisition unit 22 described above. However, the prediction error acquisition unit 52 has three prediction positions (that is, a prediction position predicted by the first prediction position calculation unit 51x using the first prediction model and a second prediction position calculation) for each measurement time. The prediction position predicted by the unit 51y using the second prediction model and the prediction position predicted by the third prediction position calculation unit 51z using the third prediction model) are input. Therefore, the prediction error acquisition unit 52 calculates the difference between the measurement position of the object 9 at a certain measurement time and each of the three prediction positions of the object 9 at the measurement time, thereby calculating the three predictions. An error (a prediction error of the first prediction model at the measurement time, a prediction error of the second prediction model at the measurement time, and a prediction error of the third prediction model at the measurement time) is acquired.

<パラメータ調整部53>
パラメータ調整部53が行う処理は、上述したパラメータ調整部23が行う処理とほぼ同様である。ただし、このパラメータ調整部53には、各測定時刻について、3個の予測誤差が入力されるところ、パラメータ調整部53は、第1予測モデルの予測誤差をゼロに近づけるように、第1予測モデルに含まれる処理パラメータを調整する。さらに、パラメータ調整部53は、第2予測モデルの予測誤差をゼロに近づけるように、第2予測モデルに含まれる処理パラメータを調整する。さらに、パラメータ調整部53は、第3予測モデルの予測誤差をゼロに近づけるように、第3予測モデルに含まれる処理パラメータを調整する。
<Parameter adjustment unit 53>
The process performed by the parameter adjustment unit 53 is almost the same as the process performed by the parameter adjustment unit 23 described above. However, when three prediction errors are input to the parameter adjustment unit 53 for each measurement time, the parameter adjustment unit 53 causes the first prediction model to approach the prediction error of the first prediction model close to zero. The processing parameters included in the are adjusted. Furthermore, the parameter adjustment unit 53 adjusts the processing parameter included in the second prediction model so that the prediction error of the second prediction model approaches zero. Furthermore, the parameter adjustment unit 53 adjusts the processing parameter included in the third prediction model so that the prediction error of the third prediction model approaches zero.

なお、ここでも、パラメータ調整部53が処理パラメータを変更した場合は、各予測位置算出部51x,51y,51zは、以後は、変更後の処理パラメータを含む予測モデルを用いて、対象物9の位置を予測する。そして、得られた各予測位置について算出された予測誤差に応じて、再度、パラメータ調整部53が各予測モデルに含まれる処理パラメータの調整を行う。このようにして、各測定時刻についての予測誤差が取得される度に、各予測モデルに含まれる処理パラメータの調整が重ねられていき、各予測モデルが、相対移動の開始後の対象物9の変位状況に応じたものとなっていく。   In this case as well, when the parameter adjustment unit 53 changes the processing parameter, each predicted position calculation unit 51x, 51y, 51z thereafter uses the prediction model including the changed processing parameter to determine the target 9 Predict location. And according to the prediction error calculated about each obtained prediction position, the parameter adjustment part 53 again adjusts the process parameter contained in each prediction model. In this way, each time a prediction error for each measurement time is acquired, the adjustment of the processing parameters included in each prediction model is repeated, and each prediction model is used for the object 9 after the start of relative movement. It will be according to the displacement situation.

<出力部54>
出力部54は、予測位置算出部51x,51y,51zが、互いに異なる予測モデルを用いてそれぞれ取得した、処理開始時刻における対象物9の予測位置に基づいて、最終予測位置を出力する。
<Output 54>
The output unit 54 outputs the final predicted position based on the predicted position of the object 9 at the processing start time acquired by the predicted position calculation units 51x, 51y, and 51z using different prediction models.

出力部54は、予測位置算出部51x,51y,51zが予測に用いる3個の予測モデルのそれぞれを評価する評価部541を備える。評価部541は、各予測モデルについて、複数の測定時刻のそれぞれにおける予測誤差を蓄積し、当該蓄積された一群の予測誤差の値に基づいて、各予測モデルを評価する。具体的には、評価部541は、複数の測定時刻のそれぞれにおける第1予測モデルの予測誤差に基づいて、第1予測モデルを評価する。さらに、評価部541は、複数の測定時刻のそれぞれにおける第2予測モデルの予測誤差の値に基づいて、第2予測モデルを評価する。さらに、評価部541は、複数の測定時刻のそれぞれにおける第3予測モデルの予測誤差の値に基づいて、第3予測モデルを評価する。評価部541は、例えば、予測誤差が、ある時間以降は、定められた許容範囲(例えば、絶対値が所定の閾値以下の範囲)内に収まっている場合(好ましくは、ゼロに収束している場合)に、当該予測モデルに肯定的な評価を与える。   The output unit 54 includes an evaluation unit 541 that evaluates each of the three prediction models used by the prediction position calculation units 51x, 51y, and 51z for prediction. The evaluation unit 541 accumulates prediction errors at each of a plurality of measurement times for each prediction model, and evaluates each prediction model based on the accumulated group of prediction error values. Specifically, the evaluation unit 541 evaluates the first prediction model based on the prediction error of the first prediction model at each of a plurality of measurement times. Furthermore, the evaluation unit 541 evaluates the second prediction model based on the prediction error value of the second prediction model at each of the plurality of measurement times. Furthermore, the evaluation unit 541 evaluates the third prediction model based on the prediction error value of the third prediction model at each of the plurality of measurement times. For example, the evaluation unit 541 has converged to zero when the prediction error is within a predetermined allowable range (for example, a range whose absolute value is equal to or less than a predetermined threshold) after a certain time, for example. A positive evaluation of the prediction model.

出力部54は、評価部541によって肯定的評価を与えられた予測モデルを最適予測モデルとして選択し、当該最適予測モデルを用いて取得された、処理開始時刻における対象物9の予測位置を、最終予測位置として出力する。なお、肯定的評価を与えられた予測モデルが複数個ある場合、出力部54は、例えば、肯定的評価を与えられた複数の予測モデルのうち、最後に取得された予測誤差が小さい方の予測モデルを、最適予測モデルとして選択すればよい。あるいは、出力部54は、肯定的評価を与えられた複数の予測モデルの全てを最適予測モデルとして選択し、当該複数の最適予測モデルのそれぞれを用いて取得された処理開始時刻の予測位置の平均値を、最終予測位置として出力してもよい。   The output unit 54 selects the prediction model given a positive evaluation by the evaluation unit 541 as the optimal prediction model, and obtains the predicted position of the object 9 at the processing start time acquired using the optimal prediction model as the final prediction model. Output as predicted position. In addition, when there are a plurality of prediction models given a positive evaluation, the output unit 54, for example, among the plurality of prediction models given a positive evaluation, the prediction having the smaller prediction error acquired last. The model may be selected as the optimal prediction model. Alternatively, the output unit 54 selects all of the plurality of prediction models given a positive evaluation as the optimal prediction model, and averages the predicted positions at the processing start time acquired using each of the plurality of optimal prediction models. The value may be output as the final predicted position.

なお、出力部54は、評価部541が全ての予測モデルに対して否定的な評価を与えた場合、最終予測位置の出力に代えて(あるいは、当該出力と併せて)、所定のエラー処理を行う。   When the evaluation unit 541 gives a negative evaluation to all prediction models, the output unit 54 performs predetermined error processing instead of (or in combination with) the output of the final prediction position. Do.

<2.処理の流れ>
位置予測装置2が、処理開始時刻における対象物9の位置を予測する処理(位置予測処理)の流れについて、図12〜図18を参照しながら具体的に説明する。図12〜図18は、位置予測処理の流れを説明するための模式図であり、互いに異なる時刻における処理の様子がそれぞれ模式的に示されている。なお、図12〜図18においては、各処理部51,52,53が各時刻に行う処理が1個のブロックにて模式的に示されている。
<2. Flow of processing>
The flow of the process (position prediction process) in which the position prediction device 2 predicts the position of the object 9 at the process start time will be specifically described with reference to FIGS. 12 to 18 are schematic diagrams for explaining the flow of the position prediction process, and each of the processes at different times is schematically shown. In FIGS. 12 to 18, the processing performed by each processing unit 51, 52, 53 at each time is schematically shown as one block.

<測定時刻t(1)>
移動開始時刻からある時間が経過した測定時刻t(1)においては、図12に示されるように、撮像制御部12が、マークMの真上にある撮像部111に対象物9の面内領域を撮像させる。そして、取得された撮像データを解析処理部13が解析して、測定時刻t(1)の対象物9の測定位置A(1)を取得する。取得された測定位置A(1)は、3個の予測位置算出部51x,51y,51zに入力される。
<Measurement time t (1)>
At a measurement time t (1) when a certain time has elapsed from the movement start time, as shown in FIG. 12, the imaging control unit 12 applies an in-plane region of the object 9 to the imaging unit 111 directly above the mark M. To image. And the analysis process part 13 analyzes the acquired imaging data, and acquires the measurement position A (1) of the target object 9 of measurement time t (1). The acquired measurement position A (1) is input to the three predicted position calculation units 51x, 51y, and 51z.

<測定時刻t(2)>
測定時刻t(2)においては、図13に示されるように、撮像制御部12が、マークMの真上にある撮像部111に対象物9の面内領域を撮像させる。そして、取得された撮像データを解析処理部13が解析して、測定時刻t(2)の対象物9の測定位置A(2)を取得する。取得された測定位置A(2)は、3個の予測位置算出部51x,51y,51zに入力される。
<Measurement time t (2)>
At the measurement time t (2), as illustrated in FIG. 13, the imaging control unit 12 causes the imaging unit 111 immediately above the mark M to image the in-plane region of the object 9. And the analysis process part 13 analyzes the acquired imaging data, and acquires the measurement position A (2) of the target object 9 of measurement time t (2). The acquired measurement position A (2) is input to the three predicted position calculation units 51x, 51y, 51z.

3個の予測位置算出部51x,51y,51zのそれぞれは、測定時刻t(2)の測定位置A(2)を取得すると、当該測定位置A(2)と、先に取得していた測定時刻t(1)の測定位置A(1)とに基づいて、測定時刻t(3)の対象物9の位置を予測する。すなわち、第1の予測位置算出部51xは、第1予測モデルを用いて、2個の測定位置A(2),A(1)に基づいて、測定時刻t(3)の対象物9の位置を予測して、予測位置Bx(3)として取得する。また、第2の予測位置算出部51yは、第2予測モデルを用いて、2個の測定位置A(2),A(1)に基づいて、測定時刻t(3)の対象物9の位置を予測して、予測位置By(3)として取得する。また、第3の予測位置算出部51zは、第3予測モデルを用いて、2個の測定位置A(2),A(1)に基づいて、測定時刻t(3)の対象物9の位置を予測して、予測位置Bz(3)として取得する。3個の予測位置算出部51x,51y,51zによって取得された3個の予測位置Bx(3),By(3),Bz(3)は、予測誤差取得部52に入力される。   When each of the three predicted position calculation units 51x, 51y, 51z acquires the measurement position A (2) at the measurement time t (2), the measurement position A (2) and the previously acquired measurement time are obtained. Based on the measurement position A (1) at t (1), the position of the object 9 at the measurement time t (3) is predicted. In other words, the first predicted position calculation unit 51x uses the first prediction model, and based on the two measurement positions A (2) and A (1), the position of the object 9 at the measurement time t (3). Is obtained as a predicted position Bx (3). In addition, the second predicted position calculation unit 51y uses the second prediction model to determine the position of the object 9 at the measurement time t (3) based on the two measurement positions A (2) and A (1). Is obtained as a predicted position By (3). In addition, the third predicted position calculation unit 51z uses the third predicted model to determine the position of the object 9 at the measurement time t (3) based on the two measurement positions A (2) and A (1). Is obtained as a predicted position Bz (3). The three predicted positions Bx (3), By (3), Bz (3) acquired by the three predicted position calculators 51x, 51y, 51z are input to the prediction error acquiring unit 52.

<測定時刻t(3)>
測定時刻t(3)においては、図14に示されるように、撮像制御部12が、マークMの真上にある撮像部111に対象物9の面内領域を撮像させる。そして、取得された撮像データを解析処理部13が解析して、測定時刻t(3)の対象物9の測定位置A(3)を取得する。取得された測定位置A(3)は、3個の予測位置算出部51x,51y,51zのそれぞれと予測誤差取得部52とに入力される。
<Measurement time t (3)>
At the measurement time t (3), as illustrated in FIG. 14, the imaging control unit 12 causes the imaging unit 111 immediately above the mark M to image the in-plane region of the object 9. And the analysis process part 13 analyzes the acquired imaging data, and acquires the measurement position A (3) of the target object 9 of measurement time t (3). The acquired measurement position A (3) is input to each of the three predicted position calculation units 51x, 51y, 51z and the prediction error acquisition unit 52.

3個の予測位置算出部51x,51y,51zのそれぞれは、測定時刻t(3)の測定位置A(3)を取得すると、当該測定位置A(3)と、先に取得していた測定時刻t(2)の測定位置A(2)とに基づいて、測定時刻t(4)の対象物9の位置を予測する。3個の予測位置算出部51x,51y,51zによって取得された3個の予測位置Bx(4),By(4),Bz(4)は、予測誤差取得部52に入力される。   When each of the three predicted position calculation units 51x, 51y, 51z acquires the measurement position A (3) at the measurement time t (3), the measurement position A (3) and the previously acquired measurement time are obtained. Based on the measurement position A (2) at t (2), the position of the object 9 at the measurement time t (4) is predicted. The three predicted positions Bx (4), By (4), Bz (4) acquired by the three predicted position calculators 51x, 51y, 51z are input to the prediction error acquiring unit 52.

一方、予測誤差取得部52は、測定時刻t(3)の測定位置A(3)を取得すると、当該測定位置A(3)と、先に取得していた測定時刻t(3)の3個の予測位置Bx(3),By(3),Bz(3)のそれぞれとの差分を算出する。すなわち、予測誤差取得部52は、第1予測モデルを用いて取得された予測位置Bx(3)と測定位置A(3)との差分を算出して、第1予測モデルの予測誤差Cx(3)として取得する。また、第2予測モデルを用いて取得された予測位置By(3)と測定位置A(3)との差分を算出して、第2予測モデルの予測誤差Cy(3)として取得する。また、第3予測モデルを用いて取得された予測位置Bz(3)と測定位置A(3)との差分を算出して、第3予測モデルの予測誤差Cz(3)として取得する。取得された3個の予測誤差Cx(3),Cy(3),Cz(3)は、パラメータ調整部53に入力されるとともに、評価部541に蓄積される。   On the other hand, when the prediction error acquisition unit 52 acquires the measurement position A (3) at the measurement time t (3), the prediction error acquisition unit 52 includes the measurement position A (3) and the previously acquired measurement time t (3). Differences between the predicted positions Bx (3), By (3), and Bz (3) are calculated. That is, the prediction error acquisition unit 52 calculates the difference between the prediction position Bx (3) acquired using the first prediction model and the measurement position A (3), and the prediction error Cx (3 of the first prediction model ) Get as. Further, the difference between the predicted position By (3) acquired using the second prediction model and the measurement position A (3) is calculated and acquired as the prediction error Cy (3) of the second prediction model. Further, the difference between the predicted position Bz (3) acquired using the third prediction model and the measurement position A (3) is calculated and acquired as the prediction error Cz (3) of the third prediction model. The three obtained prediction errors Cx (3), Cy (3), Cz (3) are input to the parameter adjustment unit 53 and accumulated in the evaluation unit 541.

パラメータ調整部53は、3個の予測誤差Cx(3),Cy(3),Cz(3)を取得すると、各予測誤差Cx(3),Cy(3),Cz(3)をゼロに近づけるように、各予測モデルに含まれる処理パラメータを調整する。すなわち、パラメータ調整部53は、第1予測モデルの予測誤差Cx(3)をゼロに近づけるように、第1予測モデルに含まれる処理パラメータを調整する。また、第2予測モデルの予測誤差Cy(3)をゼロに近づけるように、第2予測モデルに含まれる処理パラメータを調整する。また、第3予測モデルの予測誤差Cz(3)をゼロに近づけるように、第3予測モデルに含まれる処理パラメータを調整する。パラメータ調整部53が処理パラメータを調整した場合、各予測位置算出部51x,51y,51zは、以後は、調整後の処理パラメータを用いて、対象物9の位置を予測する。   When the parameter adjustment unit 53 acquires the three prediction errors Cx (3), Cy (3), and Cz (3), the parameter adjustment unit 53 brings the prediction errors Cx (3), Cy (3), and Cz (3) close to zero. As described above, the processing parameters included in each prediction model are adjusted. That is, the parameter adjustment unit 53 adjusts the processing parameter included in the first prediction model so that the prediction error Cx (3) of the first prediction model approaches zero. In addition, the processing parameters included in the second prediction model are adjusted so that the prediction error Cy (3) of the second prediction model approaches zero. In addition, the processing parameters included in the third prediction model are adjusted so that the prediction error Cz (3) of the third prediction model approaches zero. When the parameter adjustment unit 53 adjusts the processing parameter, each predicted position calculation unit 51x, 51y, 51z thereafter predicts the position of the target 9 using the adjusted processing parameter.

<測定時刻t(i)(i=4,5,・・,n−1)>
測定時刻t(4)(図15に示される状態)、測定時刻t(5),・・・,測定時刻t(n−1)(図16に示される状態)のそれぞれにおいて行われる処理は、上述した測定時刻t(3)において行われる処理と同様である。
<Measurement time t (i) (i = 4, 5,..., N−1)>
The processing performed at each of measurement time t (4) (state shown in FIG. 15), measurement time t (5),..., Measurement time t (n−1) (state shown in FIG. 16) This is the same as the processing performed at the measurement time t (3) described above.

すなわち、測定時刻t(i)においては、撮像制御部12が、マークMの真上にある撮像部111に対象物9の面内領域を撮像させる。そして、取得された撮像データを解析処理部13が解析して、測定時刻t(i)の対象物9の測定位置A(i)を取得する。取得された測定位置A(i)は、3個の予測位置算出部51x,51y,51zのそれぞれと予測誤差取得部52とに入力される。   That is, at the measurement time t (i), the imaging control unit 12 causes the imaging unit 111 immediately above the mark M to image the in-plane region of the object 9. And the analysis process part 13 analyzes the acquired imaging data, and acquires the measurement position A (i) of the target object 9 of measurement time t (i). The acquired measurement position A (i) is input to each of the three predicted position calculation units 51x, 51y, 51z and the prediction error acquisition unit 52.

3個の予測位置算出部51x,51y,51zのそれぞれは、測定時刻t(i)の測定位置A(i)を取得すると、当該測定位置A(i)と、先に取得していた測定時刻t(i−1)の測定位置A(i−1)とに基づいて、測定時刻t(i+1)の対象物9の位置を予測する。3個の予測位置算出部51x,51y,51zによって取得された3個の予測位置Bx(i+1),By(i+1),Bz(i+1)は、予測誤差取得部52に入力される。   When each of the three predicted position calculation units 51x, 51y, 51z acquires the measurement position A (i) at the measurement time t (i), the measurement position A (i) and the previously acquired measurement time are obtained. Based on the measurement position A (i-1) at t (i-1), the position of the object 9 at the measurement time t (i + 1) is predicted. The three predicted positions Bx (i + 1), By (i + 1), Bz (i + 1) acquired by the three predicted position calculators 51x, 51y, 51z are input to the prediction error acquiring unit 52.

一方、予測誤差取得部52は、測定時刻t(i)の測定位置A(i)を取得すると、当該測定位置A(i)と、先に取得していた測定時刻t(i)の3個の予測位置Bx(i),By(i),Bz(i)のそれぞれとの差分を算出して、測定時刻t(i)の予測誤差Cx(i),Cy(i),Cz(i)として取得する。取得された3個の予測誤差Cx(i),Cy(i),Cz(i)は、パラメータ調整部53に入力されるとともに、評価部541に蓄積される。   On the other hand, when the prediction error acquisition unit 52 acquires the measurement position A (i) at the measurement time t (i), the prediction error acquisition unit 52 includes the measurement position A (i) and the previously acquired measurement time t (i). The difference between each of the predicted positions Bx (i), By (i), and Bz (i) is calculated, and the prediction errors Cx (i), Cy (i), Cz (i) at the measurement time t (i) are calculated. Get as. The three obtained prediction errors Cx (i), Cy (i), and Cz (i) are input to the parameter adjustment unit 53 and accumulated in the evaluation unit 541.

パラメータ調整部53は、3個の予測誤差Cx(i),Cy(i),Cz(i)を取得すると、各予測誤差Cx(i),Cy(i),Cz(i)をゼロに近づけるように、各予測モデルに含まれる処理パラメータを調整する。   When the parameter adjustment unit 53 acquires the three prediction errors Cx (i), Cy (i), and Cz (i), the parameter adjustment unit 53 brings the prediction errors Cx (i), Cy (i), and Cz (i) close to zero. As described above, the processing parameters included in each prediction model are adjusted.

<測定時刻t(n)>
測定時刻t(n)においては、図17に示されるように、撮像制御部12が、マークMの真上にある撮像部111に対象物9の面内領域を撮像させる。そして、取得された撮像データを解析処理部13が解析して、測定時刻t(n)の対象物9の測定位置A(n)を取得する。取得された測定位置A(n)は、3個の予測位置算出部51x,51y,51zのそれぞれと予測誤差取得部52とに入力される。
<Measurement time t (n)>
At the measurement time t (n), as illustrated in FIG. 17, the imaging control unit 12 causes the imaging unit 111 immediately above the mark M to image the in-plane region of the object 9. And the analysis process part 13 analyzes the acquired imaging data, and acquires the measurement position A (n) of the target object 9 of measurement time t (n). The acquired measurement position A (n) is input to each of the three predicted position calculation units 51x, 51y, 51z and the prediction error acquisition unit 52.

3個の予測位置算出部51x,51y,51zのそれぞれは、測定時刻t(n)の測定位置A(n)を取得すると、当該測定位置A(n)と、先に取得していた測定時刻t(n−1)の測定位置A(n−1)とに基づいて、処理開始時刻t(n+1)の対象物9の位置を予測する。3個の予測位置算出部51x,51y,51zによって取得された3個の予測位置Bx(n+1),By(n+1),Bz(n+1)は、出力部54に入力される。   When each of the three predicted position calculation units 51x, 51y, 51z acquires the measurement position A (n) at the measurement time t (n), the measurement position A (n) and the previously acquired measurement time are obtained. Based on the measurement position A (n−1) of t (n−1), the position of the object 9 at the processing start time t (n + 1) is predicted. The three predicted positions Bx (n + 1), By (n + 1), Bz (n + 1) acquired by the three predicted position calculators 51x, 51y, 51z are input to the output unit 54.

一方、予測誤差取得部52は、測定時刻t(n)の測定位置A(n)を取得すると、当該測定位置A(n)と、先に取得していた測定時刻t(n)の3個の予測位置Bx(n),By(n),Bz(n)のそれぞれとの差分を算出して、測定時刻t(n)の予測誤差Cx(n),Cy(n),Cz(n)として取得する。取得された3個の予測誤差Cx(n),Cy(n),Cz(n)は、出力部54に入力される。   On the other hand, when the prediction error acquisition unit 52 acquires the measurement position A (n) at the measurement time t (n), the prediction error acquisition unit 52 includes the measurement position A (n) and the previously acquired measurement time t (n). The difference between each of the predicted positions Bx (n), By (n), and Bz (n) is calculated, and the prediction errors Cx (n), Cy (n), Cz (n) at the measurement time t (n) are calculated. Get as. The three obtained prediction errors Cx (n), Cy (n), and Cz (n) are input to the output unit 54.

出力部54は、処理開始時刻t(n+1)における対象物9の3個の予測位置Bx(n+1),By(n+1),Bz(n+1)を取得すると、当該取得した3個の予測位置Bx(n+1),By(n+1),Bz(n+1)に基づいて、最終予測位置を出力する。具体的には、まず、評価部541が、各予測モデルについて蓄積された一群の予測誤差Cx(i),Cy(i),Cz(i)(i=3,4,・・,n)に基づいて、各予測モデルを評価する。出力部54は、例えば、評価部541によって肯定的な評価を与えられた予測モデルを最適予測モデルとして選択し、当該最適予測モデルを用いて取得された、処理開始時刻t(n+1)の対象物9の予測位置を、最終予測位置として出力する。図17では、第1予測モデルが最適予測モデルとして選択され、これを用いて取得された対象物9の予測位置Bx(n+1)が、最終予測位置として出力される様子が例示されている。   When the output unit 54 acquires the three predicted positions Bx (n + 1), By (n + 1), Bz (n + 1) of the object 9 at the processing start time t (n + 1), the output unit 54 acquires the three predicted positions Bx ( n + 1), By (n + 1), Bz (n + 1) are output based on the final predicted position. Specifically, first, the evaluation unit 541 applies a group of prediction errors Cx (i), Cy (i), Cz (i) (i = 3, 4,..., N) accumulated for each prediction model. Based on this, each prediction model is evaluated. The output unit 54 selects, for example, the prediction model given a positive evaluation by the evaluation unit 541 as the optimal prediction model, and the object at the processing start time t (n + 1) acquired using the optimal prediction model. The predicted position of 9 is output as the final predicted position. FIG. 17 illustrates a state in which the first prediction model is selected as the optimal prediction model, and the prediction position Bx (n + 1) of the target 9 obtained using the first prediction model is output as the final prediction position.

<処理開始時刻t(n+1)>
処理開始時刻t(n+1)においては、図18に示されるように、処理ヘッド102が処理開始位置の真上に到着し、対象物9に対する処理を開始する。ただし、制御部105は、処理開始時刻t(n+1)が到達するまでに、補正部104に、位置予測装置2から出力された最終予測位置に基づいて、処理ヘッド102による処理位置を必要に応じて補正させるように指示を与えている。補正部104が当該指示に応じて、処理開始時刻t(n+1)における処理ヘッド102の処理位置を補正することによって、処理開始時刻t(n+1)において、対象物9の目標位置に正確に処理が施されることになる。
<Process start time t (n + 1)>
At the processing start time t (n + 1), as shown in FIG. 18, the processing head 102 arrives immediately above the processing start position and starts processing the object 9. However, the control unit 105 sets the processing position by the processing head 102 to the correction unit 104 based on the final predicted position output from the position prediction device 2 as necessary until the processing start time t (n + 1) arrives. To give corrections. In response to the instruction, the correction unit 104 corrects the processing position of the processing head 102 at the processing start time t (n + 1), thereby accurately processing the target position of the object 9 at the processing start time t (n + 1). Will be given.

<3.効果>
第2の実施の形態によると、第1の実施の形態と同様の効果が得られる。さらに、第2の実施の形態によると、互いに異なる複数の予測モデルのそれぞれを用いて対象物9の位置が予測され、当該複数の予測モデルのうち、肯定的評価を与えられた予測モデルを用いて取得された予測位置が、最終予測位置として出力される。この構成によると、対象物9の様々な変位状況に幅広く対応することが可能となり、高い汎用性が実現される。また、相対移動の開始後の対象物9の変位状況に最もよく合致した予測モデルを用いて取得された予測位置が、最終予測位置として出力されることになるので、高い予測精度を安定して実現することができる。
<3. Effect>
According to the second embodiment, the same effect as in the first embodiment can be obtained. Furthermore, according to the second embodiment, the position of the object 9 is predicted using each of a plurality of different prediction models, and a prediction model given a positive evaluation is used among the plurality of prediction models. The predicted position acquired in this way is output as the final predicted position. According to this configuration, it is possible to widely cope with various displacement situations of the object 9, and high versatility is realized. In addition, since the predicted position acquired using the prediction model that best matches the displacement state of the object 9 after the start of relative movement is output as the final predicted position, high prediction accuracy can be stably achieved. Can be realized.

<III.変形例>
上記の各実施の形態に係る位置予測装置1,2においては、位置予測装置1,2が予測対象とする処理時刻は、処理ヘッド102が対象物9に対する処理を開始する時刻(処理開始時刻)であるとしたが、位置予測装置1,2は、処理開始時刻に加え(あるいは、これに代えて)、処理開始時刻以降の任意の時刻を、予測対象としてもよい。
<III. Modification>
In the position prediction devices 1 and 2 according to each of the above embodiments, the processing time to be predicted by the position prediction devices 1 and 2 is the time when the processing head 102 starts processing the object 9 (processing start time). However, in addition to (or instead of) the processing start time, the position prediction devices 1 and 2 may set an arbitrary time after the processing start time as a prediction target.

また、上記の各実施の形態に係る位置予測装置1,2において、移動開始状態からステージ101の移動が開始されてから停止されるまでの間に、複数回の位置予測処理が行われてもよい。例えば、対象物9の面内に、複数の処理領域が形成されており、第1の処理領域の+X側の端部の付近に、第1のマークM1が付されており、第2の処理領域の+X側の端部の付近に第2のマークM2が付されているとする。この場合、図19に示されるように、まず、マークM1を検出して、第1の処理領域に対する処理開始時刻の対象物9の位置を予測するとともに、マークM2を検出して、第2の処理領域に対する処理開始時刻の対象物9の位置を予測してもよい。   Further, in the position prediction devices 1 and 2 according to each of the above-described embodiments, a plurality of position prediction processes may be performed during the period from the start of movement to the stop of movement of the stage 101 from the movement start state. Good. For example, a plurality of processing regions are formed in the surface of the object 9, and the first mark M1 is attached near the + X side end of the first processing region, so that the second processing is performed. It is assumed that the second mark M2 is attached near the + X side end of the region. In this case, as shown in FIG. 19, first, the mark M1 is detected, the position of the object 9 at the processing start time with respect to the first processing region is predicted, the mark M2 is detected, and the second The position of the object 9 at the processing start time with respect to the processing area may be predicted.

また、第2の実施の形態において、解析処理部13を、予測部50が備える各予測位置算出部51x,51y、51zのそれぞれに含む構成としてもよい。この場合、撮像部111が取得した撮像データが予測部50に直接入力され、各予測位置算出部51x,51y、51zで撮像データを解析することになる。ここで、各予測位置算出部51x,51y、51zが、互いに異なるアルゴリズムの解析処理を実行して、撮像データからマークMの位置を特定することとしてもよい。この場合、パラメータ調整部53は、各予測位置算出部51x,51y、51zが取得した予測位置について算出された予測誤差をゼロに近づけるように、当該予測位置算出部が用いる予測モデルに含まれる処理パラメータを調整するとともに、当該予測位置算出部が用いる撮像データの解析アルゴリズムに含まれる処理パラメータをも調整する構成としてもよい。   In the second embodiment, the analysis processing unit 13 may be included in each of the predicted position calculation units 51x, 51y, and 51z included in the prediction unit 50. In this case, the imaging data acquired by the imaging unit 111 is directly input to the prediction unit 50, and the imaging data is analyzed by the predicted position calculation units 51x, 51y, and 51z. Here, each predicted position calculation unit 51x, 51y, 51z may execute analysis processing of different algorithms to specify the position of the mark M from the imaging data. In this case, the parameter adjustment unit 53 includes a process included in the prediction model used by the prediction position calculation unit so that the prediction error calculated for the prediction position acquired by each prediction position calculation unit 51x, 51y, 51z approaches zero. While adjusting a parameter, it is good also as a structure which also adjusts the processing parameter contained in the analysis algorithm of the imaging data which the said predicted position calculation part uses.

また、上記の各実施の形態に係る位置予測装置1,2が搭載される処理装置100は、ステージ101が駆動機構103により駆動されることによって、処理ヘッド102と対象物9とが相対的に移動される構成としたが、固定されたステージ101に対して処理ヘッド102が移動されることによって(あるいは、ステージ101と処理ヘッド102とをともに移動させることによって)、処理ヘッド102と対象物9とが相対的に移動されてもよい。   Further, in the processing apparatus 100 on which the position prediction apparatuses 1 and 2 according to each of the above embodiments are mounted, the processing head 102 and the object 9 are relatively moved when the stage 101 is driven by the drive mechanism 103. Although it is configured to be moved, when the processing head 102 is moved with respect to the fixed stage 101 (or when the stage 101 and the processing head 102 are moved together), the processing head 102 and the object 9 are moved. And may be moved relatively.

また、上記の実施の形態においては、測定部10は、対象物9上に付された位置合わせ用のマークMを検出することによって対象物9の位置を測定していたが、検出対象は、必ずしもこのようなマークMでなくともよい。すなわち、検出対象は、対象物9上の特徴部分と成り得る部分であればどのようなものであってもよく、例えば、対象物9の端面エッジであってもよいし、対象物9上の既設パターンなどであってもよい。   In the above embodiment, the measurement unit 10 measures the position of the object 9 by detecting the alignment mark M attached to the object 9, but the detection object is Such a mark M is not necessarily required. That is, the detection target may be any part as long as it can be a characteristic part on the object 9. For example, the detection target may be an end face edge of the target 9, An existing pattern may be used.

また、上記の実施の形態においては、測定部10は、撮像ユニット11で対象物9を撮像して検出対象となるマークMなどの位置を検出することによって、対象物9の位置を測定していたが、対象物9の位置を測定する態様は必ずしもこれに限られるものではない。例えば、各種の変位計、各種のセンサ(例えば、対象物9、あるいは、ステージ101を測定対象とし、当該測定対象に向けてレーザ光を出射するとともにその反射光を受光し、当該反射光と出射光との干渉から測定対象の位置を計測する、干渉式のレーザ測長器)などを用いて、対象物9の位置を測定してもよい。   In the above embodiment, the measurement unit 10 measures the position of the object 9 by imaging the object 9 with the imaging unit 11 and detecting the position of the mark M or the like to be detected. However, the mode of measuring the position of the object 9 is not necessarily limited to this. For example, various displacement meters and various sensors (for example, the object 9 or the stage 101 are set as the measurement target, the laser beam is emitted toward the measurement target, the reflected light is received, and the reflected light is output. You may measure the position of the target object 9 using the interference type laser length measuring device etc. which measure the position of a measuring object from interference with incident light.

また、上記の実施の形態においては、撮像ユニット11は、複数の撮像部111を用いて、複数の測定時刻における対象物9を撮像データを次々と取得していたが、撮像ユニット11は必ずしも複数の撮像部111を備えなくともよい。例えば、光源から対象物9を介してエリアイメージセンサに入射する光路として、複数の光路を選択可能な光学系を、ミラー、レンズ等で形成して、1個の光源および1個のエリアイメージセンサとで、上記の複数の撮像部111と同等の機能を実現してもよい。   In the above-described embodiment, the imaging unit 11 uses the plurality of imaging units 111 to sequentially acquire imaging data of the objects 9 at a plurality of measurement times. However, the imaging unit 11 does not necessarily include a plurality of imaging units 11. The imaging unit 111 may not be provided. For example, an optical system capable of selecting a plurality of optical paths as an optical path incident on the area image sensor from the light source through the object 9 is formed by a mirror, a lens, etc., and one light source and one area image sensor. Thus, a function equivalent to that of the plurality of imaging units 111 may be realized.

また、上記の実施の形態において、各撮像部111を、軸部(すなわち、処理ヘッド102に対して固定され、X軸に沿って延在する軸部)に沿って移動させる機構を設けて、各撮像部111の離間間隔を調整可能としてもよい。   In the above-described embodiment, a mechanism is provided for moving each imaging unit 111 along the axis (that is, the axis fixed to the processing head 102 and extending along the X axis). The separation interval of each imaging unit 111 may be adjustable.

また、上記の実施の形態においては、補正部104は、処理時刻における対象物9の位置ずれ量(具体的には、位置予測装置1が予測した、処理時刻における対象物9の位置に基づいて取得された、対象物9の位置ずれ量)に応じて、当該処理時刻における処理ヘッド102の処理位置を補正するものであったが、補正部104は、処理時刻における対象物9の位置ずれ量に応じて、駆動機構103に、当該処理時刻におけるステージ101の位置を補正させるものであってもよい。   Further, in the above embodiment, the correction unit 104 is based on the amount of displacement of the object 9 at the processing time (specifically, based on the position of the object 9 at the processing time predicted by the position prediction device 1). Although the processing position of the processing head 102 at the processing time is corrected according to the acquired positional deviation amount of the target object 9, the correction unit 104 corrects the positional deviation amount of the target object 9 at the processing time. Accordingly, the drive mechanism 103 may be made to correct the position of the stage 101 at the processing time.

また、上記の各実施の形態に係る位置予測装置1,2が搭載される処理装置100は、例えば、空間変調された光によって基板上の感光材料を走査することにより当該感光材料に直接パターンを露光する基板処理装置(具体的には、描画装置)であるとしたが、上述したとおり、処理装置100は、必ずしも描画装置に限られるものではない。   In addition, the processing apparatus 100 on which the position prediction apparatuses 1 and 2 according to the above-described embodiments are mounted, for example, scans the photosensitive material on the substrate with spatially modulated light, thereby directly forming a pattern on the photosensitive material. Although the substrate processing apparatus to be exposed (specifically, the drawing apparatus) is described, as described above, the processing apparatus 100 is not necessarily limited to the drawing apparatus.

例えば、処理装置100は、基板上に形成された感光材料を面状に露光する基板処理装置(具体的には、露光装置)であってもよい。この場合、対象物9は、レジスト等の感光材料の層が形成された基板となり、処理ヘッド102は、基板に対して、光源とフォトマスクを用いて光を照射する露光ヘッドとなる。露光装置である処理装置100においては、処理ヘッド102である露光ヘッドが、対象物9である基板に対して相対移動しながら、基板の各位置に光(具体的には、例えば、フォトマスクによって成形された光)を照射することによって、基板に対するパターン(回路パターン)の露光処理が行われる。   For example, the processing apparatus 100 may be a substrate processing apparatus (specifically, an exposure apparatus) that exposes a photosensitive material formed on a substrate in a planar shape. In this case, the object 9 is a substrate on which a layer of a photosensitive material such as a resist is formed, and the processing head 102 is an exposure head that irradiates the substrate with light using a light source and a photomask. In the processing apparatus 100 that is an exposure apparatus, the exposure head that is the processing head 102 moves relative to the substrate that is the object 9 while moving light (specifically, for example, with a photomask). By irradiating the shaped light), a pattern (circuit pattern) is exposed to the substrate.

また例えば、処理装置100は、基板上に形成されたパターンなどを検査する基板処理装置(具体的には、検査装置)であってもよい。この場合、対象物9は検査対象となる基板となり、処理ヘッド102は、例えば基板の部分領域を撮像してその表面に形成されたパターン形状等を検査する検査ヘッドとなる。検査装置である処理装置100においては、処理ヘッド102である検査ヘッドが、対象物9である基板に対して相対移動しながら、基板の各位置を撮像するとともに、得られた撮像データを解析することによって、基板に形成されたパターンの検査処理が行われる。   Further, for example, the processing apparatus 100 may be a substrate processing apparatus (specifically, an inspection apparatus) that inspects a pattern or the like formed on the substrate. In this case, the object 9 is a substrate to be inspected, and the processing head 102 is, for example, an inspection head for imaging a partial region of the substrate and inspecting a pattern shape or the like formed on the surface thereof. In the processing apparatus 100 that is an inspection apparatus, the inspection head that is the processing head 102 images each position of the substrate while moving relative to the substrate that is the object 9, and analyzes the obtained imaging data. As a result, the pattern formed on the substrate is inspected.

また例えば、処理装置100は、データから刷版を出力するCTP(Computer To Plate)装置であってもよい。この場合、対象物9は、例えば刷版となるアルミプレートなどの版材となる。また、処理ヘッド102は、例えば、版材に対して光を照射して、当該版材上に画像を形成する描画ヘッドとなる。CTP装置である処理装置100においては、処理ヘッド102である描画ヘッドが、対象物9である版材に対して相対移動しながら、版材の各位置に光を照射することによって、版材上に画像が形成される。これによって、刷版が得られることになる。   Further, for example, the processing apparatus 100 may be a CTP (Computer To Plate) apparatus that outputs a printing plate from data. In this case, the object 9 is a plate material such as an aluminum plate to be a printing plate. Further, the processing head 102 is, for example, a drawing head that irradiates a plate material with light and forms an image on the plate material. In the processing apparatus 100 which is a CTP apparatus, the drawing head which is the processing head 102 irradiates light to each position of the plate material while moving relative to the plate material which is the object 9, thereby An image is formed. As a result, a printing plate is obtained.

また例えば、処理装置100は、印刷用紙等の媒体上に画像等を形成する画像形成装置であってもよい。この場合、対象物9は、例えば、印刷用紙となる。また、処理ヘッド102は、例えば、印刷用紙に対して、インク滴を吐出して画像を形成するインクジェットヘッドとなる。画像形成装置である処理装置100においては、処理ヘッド102であるインクジェットヘッドが、対象物9である印刷用紙に対して相対移動しながら、印刷用紙の各位置にインクの液滴を吐出することによって、印刷用紙上に画像が形成される。   For example, the processing apparatus 100 may be an image forming apparatus that forms an image or the like on a medium such as printing paper. In this case, the object 9 is, for example, printing paper. The processing head 102 is, for example, an inkjet head that forms an image by ejecting ink droplets onto a printing paper. In the processing apparatus 100 that is an image forming apparatus, an ink jet head that is a processing head 102 ejects ink droplets to each position of the printing paper while moving relative to the printing paper that is the object 9. An image is formed on the printing paper.

なお、上記の実施の形態および上記の各変形例において、対象物9を基板とする場合、その基板は、例えば、半導体基板、プリント基板、カラーフィルタ用基板、液晶表示装置やプラズマ表示装置に具備されるフラットパネルディスプレイ用ガラス基板、光ディスク用基板、太陽電池用パネルなどの各種基板であってよい。   In the above embodiment and each of the modifications described above, when the object 9 is a substrate, the substrate is included in, for example, a semiconductor substrate, a printed substrate, a color filter substrate, a liquid crystal display device, or a plasma display device. It may be various substrates such as a flat panel display glass substrate, an optical disk substrate, and a solar cell panel.

1,2 位置予測装置
10 測定部
11 撮像ユニット
111 撮像部
12 撮像制御部
13 解析処理部
20,50 予測部
21,51x,51y,51z 予測位置算出部
22,52 予測誤差取得部
23,53 パラメータ調整部
24,54 出力部
100 処理装置
101 ステージ
102 処理ヘッド
103 駆動機構
9 対象物
DESCRIPTION OF SYMBOLS 1, 2 Position prediction apparatus 10 Measurement part 11 Imaging unit 111 Imaging part 12 Imaging control part 13 Analysis processing part 20, 50 Prediction part 21, 51x, 51y, 51z Prediction position calculation part 22, 52 Prediction error acquisition part 23, 53 Parameter Adjustment unit 24, 54 Output unit 100 Processing device 101 Stage 102 Processing head 103 Drive mechanism 9 Object

Claims (11)

対象物に対して相対的に移動しつつ前記対象物に対して処理を施す処理ヘッドを備える処理装置において、前記処理ヘッドが前記対象物に対して処理を実行する処理時刻における、前記処理ヘッドに対する前記対象物の位置を予測する位置予測装置であって、
前記対象物と前記処理ヘッドとが相対的に移動開始された後であって前記処理時刻よりも前の時間内の複数の時刻のそれぞれを測定時刻とし、複数の測定時刻のそれぞれにおける、前記対象物の位置を測定する測定部と、
前記複数の測定時刻のそれぞれにおける前記対象物の測定位置に基づいて、前記処理時刻の前記対象物の位置を予測する予測部と、
を備える位置予測装置。
In a processing apparatus comprising a processing head for processing a target while moving relative to the target, the processing head is at a processing time at which the processing head executes the processing on the target. A position prediction apparatus for predicting the position of the object,
Each of a plurality of times within a time before the processing time after the object and the processing head start to move relative to each other is a measurement time, and the object at each of the plurality of measurement times A measuring unit for measuring the position of an object;
A prediction unit that predicts the position of the object at the processing time based on the measurement position of the object at each of the plurality of measurement times;
A position prediction apparatus comprising:
請求項1に記載の位置予測装置であって、
前記予測部が、
前記複数の測定時刻のうちの1以上の測定時刻と前記処理時刻とを対象時刻とし、処理パラメータを含む予測モデルを用いて、前記対象時刻における前記対象物の位置を、当該対象時刻よりも前の2個以上の測定時刻のそれぞれにおける前記対象物の測定位置に基づいて、予測する予測位置算出部と、
前記予測位置算出部が、前記複数の測定時刻のいずれかを対象時刻として前記対象物の位置を予測した場合に、得られた予測位置と、当該対象時刻とされた測定時刻における前記対象物の測定位置との差分を算出して、予測誤差として取得する予測誤差取得部と、
前記予測誤差をゼロに近づけるように、前記処理パラメータを調整するパラメータ調整部と、
前記予測位置算出部が、前記処理時刻を対象時刻として、前記パラメータ調整部によって調整された処理パラメータを含む前記予測モデルを用いて、前記対象物の位置を予測した場合に、得られた予測位置を、最終予測位置として出力する出力部と、
を備える、位置予測装置。
The position prediction apparatus according to claim 1,
The prediction unit is
Using a prediction model including one or more measurement times of the plurality of measurement times and the processing time as a target time, and including a processing parameter, the position of the target at the target time is set before the target time. A predicted position calculation unit that predicts based on the measurement position of the object at each of two or more measurement times;
When the predicted position calculation unit predicts the position of the target object using any one of the plurality of measurement times as a target time, the predicted position obtained and the target object at the measurement time set as the target time. A prediction error acquisition unit that calculates a difference from the measurement position and acquires the difference as a prediction error;
A parameter adjustment unit for adjusting the processing parameter so that the prediction error approaches zero;
The predicted position obtained when the predicted position calculation unit predicts the position of the object using the prediction model including the processing parameter adjusted by the parameter adjustment unit with the processing time as the target time. Output as the final predicted position,
A position prediction apparatus comprising:
請求項2に記載の位置予測装置であって、
前記予測部が、
前記予測位置算出部を複数備え、
前記複数の予測位置算出部が、互いに異なる予測モデルを用いて前記対象物の位置を予測し、
前記出力部が、
前記複数の予測モデルのそれぞれを用いて取得された前記予測位置について算出された前記予測誤差に基づいて、前記複数の予測モデルのそれぞれを評価する評価部、
をさらに備え、
前記複数の予測モデルのうち、前記評価部によって肯定的評価を与えられた予測モデルを用いて取得された、前記処理時刻における前記対象物の前記予測位置を、前記最終予測位置として出力する、位置予測装置。
The position prediction apparatus according to claim 2,
The prediction unit is
A plurality of the predicted position calculation unit,
The plurality of predicted position calculation units predict the position of the object using different prediction models,
The output unit is
An evaluation unit that evaluates each of the plurality of prediction models based on the prediction error calculated for the prediction position acquired using each of the plurality of prediction models;
Further comprising
Position that outputs the predicted position of the object at the processing time obtained as a final predicted position, obtained using a prediction model given a positive evaluation by the evaluation unit among the plurality of predicted models Prediction device.
請求項1から3のいずれかに記載の位置予測装置であって、
前記測定部が、
前記処理ヘッドに対して固定され、前記対象物を撮像する撮像ユニットと、
前記複数の測定時刻のそれぞれにおいて、前記撮像ユニットに前記対象物を撮像させる撮像制御部と、
前記撮像ユニットが取得した撮像データを解析して、当該撮像データが取得された測定時刻における前記対象物の位置を特定して、前記対象物の測定位置として取得する解析処理部と、
を備える位置予測装置。
The position prediction apparatus according to any one of claims 1 to 3,
The measurement unit is
An imaging unit fixed to the processing head and imaging the object;
An imaging control unit that causes the imaging unit to image the object at each of the plurality of measurement times;
Analyzing the imaging data acquired by the imaging unit, identifying the position of the object at the measurement time at which the imaging data was acquired, and obtaining the measurement position of the object;
A position prediction apparatus comprising:
請求項4に記載の位置予測装置であって、
前記撮像ユニットが、
複数の撮像部を備え、
前記複数の撮像部が、
前記処理ヘッドが前記対象物に対して相対移動される移動方向について、前記処理ヘッドの下流側において、前記移動方向に沿って配列されており、
前記撮像制御部が、
前記複数の撮像部のそれぞれが、前記対象物上の特徴部分の上方に到達する時刻に、当該撮像部に前記特徴部分を撮像させる、
位置予測装置。
The position prediction apparatus according to claim 4,
The imaging unit is
A plurality of imaging units,
The plurality of imaging units are
With respect to the movement direction in which the processing head is moved relative to the object, the processing head is arranged along the movement direction on the downstream side of the processing head,
The imaging control unit
Each of the plurality of imaging units causes the imaging unit to image the characteristic portion at a time when the imaging unit reaches above the characteristic portion on the object.
Position prediction device.
対象物に対して相対的に移動しつつ前記対象物に対して処理を施す処理ヘッドを備える処理装置において、前記処理ヘッドが前記対象物に対して処理を実行する処理時刻における、前記処理ヘッドに対する前記対象物の位置を予測する位置予測方法であって、
a)前記対象物と前記処理ヘッドとが相対的に移動開始された後であって前記処理時刻よりも前の時間内の複数の時刻のそれぞれを測定時刻とし、複数の測定時刻のそれぞれにおける、前記対象物の位置を測定する工程と、
b)前記a)工程で取得された前記複数の測定時刻のそれぞれにおける前記対象物の測定位置に基づいて、前記処理時刻の前記対象物の位置を予測する工程と、
を備える位置予測方法。
In a processing apparatus comprising a processing head for processing a target while moving relative to the target, the processing head is at a processing time at which the processing head executes the processing on the target. A position prediction method for predicting the position of the object,
a) After the target object and the processing head are relatively started to move, each of a plurality of times within a time before the processing time is set as a measurement time, and at each of the plurality of measurement times, Measuring the position of the object;
b) predicting the position of the object at the processing time based on the measurement position of the object at each of the plurality of measurement times acquired in the step a);
A position prediction method comprising:
請求項6に記載の位置予測方法であって、
前記b)工程が、
b1)前記複数の測定時刻のうちの1以上の測定時刻と前記処理時刻とを対象時刻とし、処理パラメータを含む予測モデルを用いて、前記対象時刻における前記対象物の位置を、当該対象時刻よりも前の2個以上の測定時刻のそれぞれにおける前記対象物の測定位置に基づいて、予測する工程と、
b2)前記b1)工程で、前記複数の測定時刻のいずれかを対象時刻として前記対象物の位置が予測された場合に、得られた予測位置と、当該対象時刻とされた測定時刻における前記対象物の測定位置との差分を算出して、予測誤差として取得する工程と、
b3)前記予測誤差をゼロに近づけるように、前記処理パラメータを調整する工程と、
b4)前記b1)工程で、前記処理時刻を対象時刻として、前記b3)工程で調整された処理パラメータを含む前記予測モデルを用いて、前記対象物の位置が予測された場合に、得られた予測位置を、最終予測位置として出力する工程と、
を備える、位置予測方法。
The position prediction method according to claim 6,
Step b)
b1) Using one or more measurement times of the plurality of measurement times and the processing time as a target time, and using a prediction model including processing parameters, the position of the target at the target time is determined from the target time. Predicting based on the measurement position of the object at each of the previous two or more measurement times;
b2) In the step b1), when the position of the object is predicted using any one of the plurality of measurement times as the target time, the obtained predicted position and the target at the measurement time set as the target time Calculating a difference from the measurement position of the object and obtaining it as a prediction error;
b3) adjusting the processing parameters so that the prediction error approaches zero;
b4) Obtained when the position of the object was predicted using the prediction model including the processing parameter adjusted in step b3) with the processing time as the target time in step b1). Outputting a predicted position as a final predicted position;
A position prediction method comprising:
請求項7に記載の位置予測方法であって、
前記b1)工程において、前記対象時刻における前記対象物の位置を、互いに異なる複数の予測モデルのそれぞれを用いて予測し、
前記b)工程が、
b5)前記複数の予測モデルのそれぞれを用いて取得された前記予測位置について算出された前記予測誤差に基づいて、前記複数の予測モデルのそれぞれを評価する工程、
をさらに備え、
前記b4)工程において、前記b5)工程で肯定的評価を与えられた予測モデルを用いて取得された、前記処理時刻における前記対象物の前記予測位置を、前記最終予測位置として出力する、
位置予測方法。
The position prediction method according to claim 7,
In the step b1), the position of the object at the target time is predicted using each of a plurality of different prediction models,
Step b)
b5) evaluating each of the plurality of prediction models based on the prediction error calculated for the prediction position acquired using each of the plurality of prediction models;
Further comprising
In the step b4), the predicted position of the object at the processing time obtained using the prediction model given a positive evaluation in the step b5) is output as the final predicted position.
Location prediction method.
請求項6から8のいずれかに記載の位置予測方法であって、
前記a)工程が、
a1)前記処理ヘッドに対して固定された撮像ユニットに、前記複数の測定時刻のそれぞれにおいて、前記対象物を撮像させる工程と、
a2)前記撮像ユニットが取得した撮像データを解析して、当該撮像データが取得された測定時刻における前記対象物の位置を特定して、前記対象物の測定位置として取得する工程と、
を備える位置予測方法。
The position prediction method according to any one of claims 6 to 8,
Step a)
a1) causing the imaging unit fixed to the processing head to image the object at each of the plurality of measurement times;
a2) analyzing the imaging data acquired by the imaging unit, identifying the position of the object at the measurement time at which the imaging data was acquired, and acquiring it as the measurement position of the object;
A position prediction method comprising:
請求項9に記載の位置予測方法であって、
前記撮像ユニットが、
複数の撮像部を備え、
前記複数の撮像部が、
前記処理ヘッドが前記対象物に対して相対移動される移動方向について、前記処理ヘッドの下流側において、前記移動方向に沿って配列されており、
前記a1)工程において、
前記複数の撮像部のそれぞれが、前記対象物上の特徴部分の上方に到達する時刻に、当該撮像部に前記特徴部分を撮像させる、
位置予測方法。
The position prediction method according to claim 9,
The imaging unit is
A plurality of imaging units,
The plurality of imaging units are
With respect to the movement direction in which the processing head is moved relative to the object, the processing head is arranged along the movement direction on the downstream side of the processing head,
In the step a1),
Each of the plurality of imaging units causes the imaging unit to image the characteristic portion at a time when the imaging unit reaches above the characteristic portion on the object.
Location prediction method.
基板に対して光を照射してパターンを露光する処理ヘッドと、
前記基板と前記処理ヘッドとを相対的に移動させる駆動機構と、
前記処理ヘッドが基板に対して光を照射する処理時刻における、前記処理ヘッドに対する基板の位置を予測する位置予測部と、
前記位置予測部が予測した、前記処理時刻における前記基板の位置に基づいて、前記処理ヘッドからの光の照射位置を補正する補正部と、
を備え、
前記位置予測部が、
前記基板と前記処理ヘッドとが相対的に移動開始された後であって前記処理時刻よりも前の時間内の複数の時刻のそれぞれを測定時刻とし、複数の測定時刻のそれぞれにおける、前記対象物の位置を測定する測定部と、
前記複数の測定時刻のそれぞれにおける前記対象物の測定位置に基づいて、前記処理時刻の前記対象物の位置を予測する予測部と、
を備える基板処理装置。
A processing head that irradiates the substrate with light to expose the pattern;
A drive mechanism for relatively moving the substrate and the processing head;
A position prediction unit that predicts the position of the substrate relative to the processing head at a processing time when the processing head irradiates the substrate with light;
A correction unit that corrects an irradiation position of light from the processing head based on the position of the substrate at the processing time predicted by the position prediction unit;
With
The position prediction unit is
After the substrate and the processing head start to move relatively, each of a plurality of times within a time before the processing time is a measurement time, and the object at each of the plurality of measurement times A measuring unit for measuring the position of
A prediction unit that predicts the position of the object at the processing time based on the measurement position of the object at each of the plurality of measurement times;
A substrate processing apparatus comprising:
JP2012153806A 2012-07-09 2012-07-09 Position prediction apparatus, position prediction method, and substrate processing apparatus Active JP6006552B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012153806A JP6006552B2 (en) 2012-07-09 2012-07-09 Position prediction apparatus, position prediction method, and substrate processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012153806A JP6006552B2 (en) 2012-07-09 2012-07-09 Position prediction apparatus, position prediction method, and substrate processing apparatus

Publications (2)

Publication Number Publication Date
JP2014016470A true JP2014016470A (en) 2014-01-30
JP6006552B2 JP6006552B2 (en) 2016-10-12

Family

ID=50111213

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012153806A Active JP6006552B2 (en) 2012-07-09 2012-07-09 Position prediction apparatus, position prediction method, and substrate processing apparatus

Country Status (1)

Country Link
JP (1) JP6006552B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018510798A (en) * 2015-04-10 2018-04-19 オメット エス.アール.エル. System for registering a printing unit of a rotary printing press with a manually adjustable printing register

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07130625A (en) * 1993-11-04 1995-05-19 Hitachi Ltd Electron beam lithography equipment
JP2003100627A (en) * 2002-08-28 2003-04-04 Nikon Corp Scanning exposure device and manufacturing method therefor
WO2008120391A1 (en) * 2007-03-29 2008-10-09 Advantest Corporation Multi-column electron beam exposure device and multi-column electron beam exposure method
JP2011008180A (en) * 2009-06-29 2011-01-13 V Technology Co Ltd Alignment method, alignment device, and exposure device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07130625A (en) * 1993-11-04 1995-05-19 Hitachi Ltd Electron beam lithography equipment
JP2003100627A (en) * 2002-08-28 2003-04-04 Nikon Corp Scanning exposure device and manufacturing method therefor
WO2008120391A1 (en) * 2007-03-29 2008-10-09 Advantest Corporation Multi-column electron beam exposure device and multi-column electron beam exposure method
JP2011008180A (en) * 2009-06-29 2011-01-13 V Technology Co Ltd Alignment method, alignment device, and exposure device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018510798A (en) * 2015-04-10 2018-04-19 オメット エス.アール.エル. System for registering a printing unit of a rotary printing press with a manually adjustable printing register

Also Published As

Publication number Publication date
JP6006552B2 (en) 2016-10-12

Similar Documents

Publication Publication Date Title
JP5253916B2 (en) Maskless exposure method
JP2008249958A (en) Reference position measuring instrument and method, and drawing device
JP6296206B2 (en) Shape measuring apparatus and shape measuring method
KR101281454B1 (en) Inspection apparatus and compensating method thereof
JP5515432B2 (en) 3D shape measuring device
CN102564304B (en) Apparatus for measuring position and shape of pattern formed on sheet
JP2023113742A (en) Base material processing device and base material processing method
JP2008251797A (en) Reference position detection apparatus and method, and drawing apparatus
US9946169B2 (en) Exposure apparatus and device manufacturing method
JP2011222705A (en) Method for manufacturing imprint device and imprint substrate
JP6006552B2 (en) Position prediction apparatus, position prediction method, and substrate processing apparatus
JP6031265B2 (en) Parts inspection device
JP5855407B2 (en) Droplet discharge apparatus and droplet discharge method
JP2016015371A (en) Thickness measurement apparatus, thickness measurement method and exposure apparatus
KR101503021B1 (en) Inspection apparatus and compensating method thereof
JP6582873B2 (en) Image forming apparatus, program, and method
JP2008242066A (en) Positional information management device, drawing system and positional information management method
JP2015059027A (en) Conveyance device, image recording apparatus, and detection method
JP2011022329A (en) Drawing device, program, and drawing method
JP6006133B2 (en) Substrate manufacturing apparatus adjustment method, substrate manufacturing method, and substrate manufacturing apparatus
JP2005030793A (en) Substrate inspection device and inspection method
WO2024176594A1 (en) Estimation method, control method, and control device
KR20130023305A (en) Inspection apparatus and compensating method thereof
JP2012198372A (en) Drawing device and drawing method
JP5087165B1 (en) Adjustment device for outputting data for adjusting surface inspection device, adjustment data output method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150619

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160909

R150 Certificate of patent or registration of utility model

Ref document number: 6006552

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250