JPS62282205A - Measuring method of shape error of article and its apparatus - Google Patents

Measuring method of shape error of article and its apparatus

Info

Publication number
JPS62282205A
JPS62282205A JP12634786A JP12634786A JPS62282205A JP S62282205 A JPS62282205 A JP S62282205A JP 12634786 A JP12634786 A JP 12634786A JP 12634786 A JP12634786 A JP 12634786A JP S62282205 A JPS62282205 A JP S62282205A
Authority
JP
Japan
Prior art keywords
light
shape error
measuring
measured
interference fringes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP12634786A
Other languages
Japanese (ja)
Other versions
JPH0426682B2 (en
Inventor
Akira Ono
明 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP12634786A priority Critical patent/JPS62282205A/en
Publication of JPS62282205A publication Critical patent/JPS62282205A/en
Publication of JPH0426682B2 publication Critical patent/JPH0426682B2/ja
Granted legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

PURPOSE:To simplify operation for measurement, by minimizing deviation from interference fringes by allowing a beam of reference light to deviate successively from a beam of light of a specimen article by a phase phi and adjusting a posture, etc. of the specimen article basing upon moire-image interference fringes of imaginary and actual beams of interference light. CONSTITUTION:A laser beam irradiates a aspherical mirror 16 and reference mirror 12 through an interferometer 3 and each reflected light is irradiated onto an image sensor monitor 11 for making interference fringes. Next, an arithmetic operation circuit 21 calculates imaginary interference fringes at the time when the specimen article is in the ideal situation and the imaginary reference beam is shifted from the imaginary article light by N-stage phi and store them. These imaginary interference fringes are read out successively 23 and the reference beam 7, in synchronization with above, is allowed to shift from the article light 6 by N-stage phi(x, y) [position on the position coordinates (X, Y) plane at center of the image] and sum, difference, product and quotient of actual and imaginary interference fringes by each beams of light obtained by each displacement are put into arithmetic operations 15. Basing upon these data, position, posture of the mirror 16 are adjusted 18, 19. Finally, arithmetic operation is conducted on phi(X, Y) and by utilizing a linear relation between phi(X, Y) and shape error, the shape error of the mirror 16 is obtained.

Description

【発明の詳細な説明】 [発明の目的] (産業上の利用分野) この発明は、物体の形状誤差全測定する方法およびその
装置に関する。
Detailed Description of the Invention [Object of the Invention] (Industrial Application Field) The present invention relates to a method and apparatus for measuring all shape errors of an object.

(従来の技術) 複雑な形状を有してはいるが光学的になめらかで数式に
よって表わされ得る三次元形状物体の形状に対する形成
すべき所定の理想形状に対する誤差(形状誤差)の測定
においては、物体光と参照光とを干渉させ干渉縞を形成
し、物体光と参照光との位相差を変化させ、位相差と形
状誤差とが直線関係におることに基いて、形成された干
渉縞の強度分布に関する計算を行うことによって被測定
物体の形状誤差を求める方法が提案されている(特願昭
61−69950号)。この方法によれば、干渉縞の強
度分布が正弦分布からずれることなく精度の高い測定が
可能である。ま九ホログラムの作成が不要であシ、作業
性が良好である。
(Prior art) In measuring the error (shape error) of a three-dimensional object that has a complex shape but is optically smooth and can be expressed by a mathematical formula, with respect to a predetermined ideal shape to be formed. , the interference fringes are formed by interfering the object beam and the reference beam, and the phase difference between the object beam and the reference beam is changed. Based on the linear relationship between the phase difference and the shape error, the interference fringes are formed. A method has been proposed in which the shape error of the object to be measured is determined by calculating the intensity distribution of the object (Japanese Patent Application No. 61-69950). According to this method, highly accurate measurement is possible without the intensity distribution of interference fringes deviating from the sine distribution. It is not necessary to create a hologram, and the workability is good.

ざらにま九、可干渉光を出射し、参照物体からの、参照
光としての可干渉光の反射光と被測定物体からの、物体
光としての可干渉光の反射光とを干渉させてその干渉縞
を得、得られた干渉縞から側皮射光の位相差を測定し、
位相差から被測定物体の形状値を求め、形状値から被測
定物体の形状誤差を求める方法も提案されている(特願
昭61−69951号)。この測定方法においても、ホ
ログラムの作成が不要であυ、したがって作業性が高く
、しかも干渉縞の強度分布が正弦分布からずれることに
よる影#を受けず精度の高い測定結果を得ることができ
る。ま九測定が非常に簡便に行い得る。
ZARANIMA9: Emit coherent light, and make the reflected light of the coherent light as the reference light from the reference object interfere with the reflected light of the coherent light as the object light from the measured object. Obtain interference fringes, measure the phase difference of the side skin emitted light from the obtained interference fringes,
A method has also been proposed in which the shape value of the object to be measured is determined from the phase difference, and the shape error of the object to be measured is determined from the shape value (Japanese Patent Application No. 61-69951). This measurement method also does not require the creation of a hologram, so it is highly workable, and it is possible to obtain highly accurate measurement results without being affected by shadows caused by the deviation of the intensity distribution of interference fringes from the sine distribution. 9 measurements can be performed very easily.

(発明が解決しようとする問題点) 位相差と形状誤差との直線関係全利用し次測定方法は精
度は高いが被測定物体と仮想物体との間に姿勢や位置の
ずれが大きいと見かけ上の誤差が生じ、その補正計算に
多大な時間全装するという問題がある。また形状値から
誤差を測定する方法は、測定を簡便に行い得るが測定精
度が充分に高くなく、・測定範囲も比較的狭く、その念
め奥行の深い非球面の形状誤差を測定するのが困難であ
るO [発明の構成コ (問題点ヲ屏決する皮めの手段と作用)この発明は、上
記事情に鑑みなされ之ものでsb、その目的は、形状誤
差測定の次めの演算が簡便で短時間で処理でき、しかも
奥行の深い被測定物体に対しても高精度に測定すること
のできる、物体の形状誤差を測定する方法およびその装
置全桿惧十ふととであふ7 すなわち、この発明の、形状誤差を測定する方法は、仮
想の理想的な被測定物体の仮想干渉縞を記憶しておき、
この記憶された仮想干渉縞の読出しに同期させて参照光
を被測定物体光から位相ψ(xpy)だけ順次ずらして
干渉縞とのずれが最小となるように仮想干渉光と実際の
干渉光とのモアレ縞に基いて被測定物体の姿勢あるいは
位置全調整し、この状態で実際の干渉縞の強度分布を求
めて、形状誤差を測定する。
(Problem to be solved by the invention) The following measurement method, which makes full use of the linear relationship between the phase difference and the shape error, has high accuracy, but if there is a large deviation in posture or position between the measured object and the virtual object, it may appear Errors occur, and the correction calculation requires a large amount of time. In addition, the method of measuring errors from shape values is easy to measure, but the measurement accuracy is not high enough, and the measurement range is also relatively narrow, making it difficult to measure the shape errors of deep aspheric surfaces. O [Construction of the Invention (Initial Means and Effects for Determining Problems) This invention was made in view of the above circumstances, and its purpose is to simplify the calculation following shape error measurement. A method and device for measuring the shape error of an object that can be processed in a short time and can measure with high precision even for objects with a deep depth. The method of measuring shape errors of the invention stores virtual interference fringes of a virtual ideal object to be measured;
In synchronization with the readout of the stored virtual interference fringes, the reference light is sequentially shifted by the phase ψ(xpy) from the measured object light to minimize the difference between the virtual interference light and the actual interference light. The attitude or position of the object to be measured is fully adjusted based on the moiré fringes, and in this state, the actual intensity distribution of the interference fringes is determined to measure the shape error.

また、この発明の、物体の形状誤差全測定する装置は、
仮想の理想的な被測定物体の仮想干渉縞を記憶する手段
と、記憶手段から仮想干渉縞全項次読出す手段と、仮想
干渉縞の読出しに同期させて被測定物体光から参照光を
位想ψだけ順次ずらし、被測定物体と参照光との干渉光
の強度分布を求め、この強度分布から形状誤差を測定す
る手段を具備している。
Further, the device of the present invention for measuring all shape errors of an object has the following features:
means for storing virtual interference fringes of a virtual ideal object to be measured; means for reading out all terms of the virtual interference fringes from the storage means; The apparatus is equipped with a means for sequentially shifting the reference beam by an amount of ψ to determine the intensity distribution of the interference light between the object to be measured and the reference beam, and measuring the shape error from this intensity distribution.

この発明の、物体の形状を測定する方法は、光学的にな
めらかで数式によってあられされる三次元物体の形状誤
差の測定において、被測定物体の位置、姿勢のずれの補
正演算が短時間ですみしかも測定精度を向上させるとと
ができる。
The method of measuring the shape of an object according to the present invention allows correction calculations for deviations in the position and orientation of the object to be measured to be performed in a short time when measuring the shape error of a three-dimensional object that is optically smooth and determined by a mathematical formula. Moreover, measurement accuracy can be improved.

また、この発明の、物体の形状誤差を測定する装置は、
構成を特に複雑とすることなく、測定時間の短縮、測定
精度の向上を図ることができる。
Further, the device for measuring the shape error of an object according to the present invention includes:
Measurement time can be shortened and measurement accuracy can be improved without making the configuration particularly complicated.

(実施例) 第1図、第2A図、第2B図、および第3図を参照して
この発明の実施例に係る、物体の形状誤差全測定する方
法およびその装置について説明する。
(Embodiment) A method and apparatus for measuring all shape errors of an object according to an embodiment of the present invention will be described with reference to FIGS. 1, 2A, 2B, and 3.

第1図は、この発明の実施例にかかる測定装置を概略的
に示している図である。
FIG. 1 is a diagram schematically showing a measuring device according to an embodiment of the present invention.

動作は、第2A図および第2B図のフローチャートに示
されている。詳述すると、可干渉性光源1は可干渉光を
出射するものでアシ、この実施例では、吋千渉光として
レーデ−光を出射するレーザー光発振器である。レーザ
ー光発振器Iから出射され次レーザー光はその進路上に
配置されているマイケルンソン型干渉計3に入射する。
The operation is illustrated in the flowcharts of FIGS. 2A and 2B. To be more specific, the coherent light source 1 emits coherent light, and in this embodiment, it is a laser beam oscillator that emits radar light as a beam of light. The laser beam emitted from the laser beam oscillator I then enters a Michelinson interferometer 3 placed on its path.

干渉計3は、コリメータ・レン−e4、半透鏡5.集光
レン)es、結像レンズ10から成っている。レーデ−
光発振器1から出射されコリメータ・レンズ4に入射し
たレーザー光は、そのビームが拡大されかつ平行光線と
される。半透鏡5がこの平行光線とされ次レーデー光の
進路上に約45度の角度をもって配置されており、平行
レーザー光はこの半透鏡5に入射する。半透鏡5は入射
した平行レーザー光音、その進行してきた方向に直向す
る方向に進行する偏向レーザー光と、進行してき穴方向
にそのまま進行する直進レーザー光とに分割する。
The interferometer 3 includes a collimator lens e4, a semi-transparent mirror 5. It consists of a condensing lens) es and an imaging lens 10. Lede
The laser beam emitted from the optical oscillator 1 and incident on the collimator lens 4 is expanded into a parallel beam. A semi-transparent mirror 5 is arranged at an angle of about 45 degrees on the path of the next laser beam, and the parallel laser beam is incident on the semi-transparent mirror 5. The semi-transparent mirror 5 divides the incident parallel laser light sound into a deflected laser light that travels in a direction perpendicular to the direction in which it has traveled, and a straight laser light that travels directly in the direction of the hole.

偏向レーデ−光は、この偏向レーザー光の進行方向に配
置された集光レンズ8t−介し、この進行方向前方に配
置されている被測定物体である非球面鏡16に入射し、
反射する。この反射光は、物体光6として集光レンズ8
に戻シ平行光線にされ、半透鏡5t−介し次後、この平
行光線の進路上に配置されている結像レンズ10f:介
してイメージ・センサーモニタ(以下、センサーモニタ
という)11に指向する。一方、コリメータ・レンズ4
を介して半透鏡5に入射しかつ半透鏡5を通過して直進
したレーザー光は、その進行方向に配置されている参照
体としての参照鏡12に入射し、反射される。反射され
次レーザー光は、参照光すなわち基準光7として半透鏡
7に戻シ、半透鏡7により偏向されて結像レンズ10t
−介してセンサーモニタ11に指向する。集光レンズ8
はそれに入射するレーザー光を非球面鏡16に対して垂
直に入射させるように偏向する念めのものである。結像
レンズ10は、物体光6と参照光7と全偏向させてセン
サーモニタ11の撮像面に指向させるものである。物体
光6と参照光7とは干渉計3によって干渉し、したがっ
て、センサーモニタ11の映像面には、物体光6と参照
光7との干渉による、第3図に示されるような干渉縞3
2があられれる。
The polarized laser beam enters an aspherical mirror 16, which is an object to be measured, which is placed in front of the polarized laser beam through a condenser lens 8t, which is placed in the direction in which the polarized laser beam travels.
reflect. This reflected light is passed through the condensing lens 8 as object light 6.
The parallel light beams are turned back into parallel light beams, passed through a semi-transparent mirror 5t, and then directed to an image sensor monitor (hereinafter referred to as a sensor monitor) 11 via an imaging lens 10f disposed on the path of the parallel light beams. On the other hand, collimator lens 4
The laser beam that enters the semi-transparent mirror 5 via the semi-transparent mirror 5 and travels straight through the semi-transparent mirror 5 enters a reference mirror 12 as a reference body disposed in the direction of movement of the laser beam, and is reflected. The reflected laser beam is returned to the semi-transparent mirror 7 as a reference beam, that is, a reference beam 7, and is deflected by the semi-transparent mirror 7 to the imaging lens 10t.
- to the sensor monitor 11 via. Condensing lens 8
is intended to deflect the laser beam incident thereon so that it is incident perpendicularly to the aspherical mirror 16. The imaging lens 10 completely deflects the object light 6 and the reference light 7 and directs them toward the imaging surface of the sensor monitor 11 . The object light 6 and the reference light 7 interfere with each other by the interferometer 3, and therefore, on the image plane of the sensor monitor 11, interference fringes 3 as shown in FIG.
2 is hail.

非球面鏡16は保持具17によって所定位置に保持嘔れ
ている一方、保持具17にとりつけられ念ネジ部材18
.19によってその位置、姿勢が調整可能になっている
。なお、この実施例は、この発明を、非球面鏡16から
成る被測定物体に適用し九場合の例であるが、平面鏡を
被測定物体とした場合にも当然適用可能であシ、その場
合には集光レンズ8は不要である。その場合、コリメー
タ・レンズ4を介して半透@5に入射しこの半透鏡5で
偏向され平面鏡に指向されたレーザー光は平行光線のま
ま平面鏡に入射しかつ平行光線のまま半透#!5に戻る
ことになる。
The aspherical mirror 16 is held in place by a holder 17, while the aspherical mirror 16 is attached to the holder 17 and a screw member 18 is attached to the holder 17.
.. 19, its position and posture can be adjusted. Although this embodiment is an example in which the present invention is applied to an object to be measured consisting of an aspherical mirror 16, it is naturally applicable to the case where the object to be measured is a plane mirror. In this case, the condenser lens 8 is not necessary. In that case, the laser beam enters the semi-transparent @5 via the collimator lens 4, is deflected by the semi-transparent mirror 5, and is directed to the plane mirror. It will return to 5.

第1図の装置において、参照鏡12の下方には駆動器1
3が設けられており、この駆動装置13を駆動させて参
照鏡12全微細に動かすことによシ参照光2の位相を変
化させる。それによシ、干渉縞も変化する。この実施例
では、駆動器13の動きによって、参照光70位相はψ
ずつN段階にπ/2ずつ変化する。
In the apparatus shown in FIG. 1, a driver 1 is provided below the reference mirror 12.
3 is provided, and the phase of the reference light 2 is changed by driving this drive device 13 to move the entire reference mirror 12 finely. Accordingly, the interference fringes also change. In this embodiment, due to the movement of the driver 13, the phase of the reference light 70 is ψ
It changes by π/2 in N steps.

この実施例では演算回路21が設けられている。In this embodiment, an arithmetic circuit 21 is provided.

演算回路21は、非球面鏡16が理恵的なものであって
、形状誤差を有していないと仮想した場合に、センサー
モニタ11上の表示画面上に映像されると仮想される干
渉縞の映像信号を計算する。
The arithmetic circuit 21 generates an image of interference fringes that is assumed to be imaged on the display screen of the sensor monitor 11 when it is assumed that the aspherical mirror 16 is Rie-like and has no shape error. Calculate the signal.

計算されたこの映像信号を映像装置例えばTVモニタ2
4に入力させ次としたならば、第13図に示されるよう
な仮想干渉縞32が映像されることになる。演算回路2
1はさら(e参照光7の位相をψずつN段階変化させ次
場合の仮想干渉縞を計算し、計算した仮想干渉縞を、N
個の記憶部を有する記憶装置22に入力し記憶させる。
This calculated video signal is sent to a video device such as a TV monitor 2.
4, virtual interference fringes 32 as shown in FIG. 13 will be imaged. Arithmetic circuit 2
1 further calculates the virtual interference fringe in the following case by changing the phase of the reference beam 7 by ψ in N steps, and the calculated virtual interference fringe is
The information is input to and stored in a storage device 22 having two storage units.

読出し回路23がさらに設けられておシ、この読出し回
路23は、1駆動制御器14からの制御信号によシ、駆
動器13の駆動に同期させて、N個の記憶部から、位相
の異なるN個の仮想干渉縞の映像信号を順番に読み出す
。駆動制御器14は、駆動装置13にそれの駆動全制御
する制御信号を出力すると共に、それに同期して読出し
回路に読出し信号を出力する。駆動制御器14からの読
出し信号に応じて続出し回路23によみだされた仮想干
渉縞の映像信号はメモ+7  f−タ・プロセッサ(以
下、メモリープロセッサという)15に入力される。
A readout circuit 23 is further provided, and this readout circuit 23 reads signals of different phases from the N storage units in synchronization with the drive of the driver 13 according to the control signal from the 1-drive controller 14. Video signals of N virtual interference fringes are read out in order. The drive controller 14 outputs a control signal for controlling all driving of the drive device 13, and outputs a readout signal to the readout circuit in synchronization with the control signal. A video signal of virtual interference fringes read out by the succession circuit 23 in response to a readout signal from the drive controller 14 is input to a memory processor (hereinafter referred to as a memory processor) 15.

メモリープロセッサ15は、記憶装置22からの仮想干
渉縞の映像信号と、センサーモニタ11からの非球面鏡
16の実際の干渉縞の映像信号と全受け、両映像信号の
和あるいは積、あるいは差あるいは商を計算する。とこ
ろでこの計xをする理由は、被測定物体が非球面鏡16
である場合の干渉縞は非常に密であるので、−画素内の
干渉縞を積分して密度を下げるために行うものである。
The memory processor 15 receives the virtual interference fringe image signal from the storage device 22 and the actual interference fringe image signal of the aspherical mirror 16 from the sensor monitor 11, and processes the sum, product, difference, or product of both image signals. Calculate. By the way, the reason for doing this calculation is that the object to be measured is an aspherical mirror 16.
Since the interference fringes in this case are very dense, this is done in order to reduce the density by integrating the interference fringes within a pixel.

メモリープロセッサ15によって計出された結果は、映
像装置例えばTVモニタ24に入力される。この場合、
実際の干渉縞と仮想干渉縞とのモアレ縞33が表示画面
上に映像される。被測定物体である非球面鏡16に形状
誤差がない場合には、モアレ縞33は現われないか、あ
るいは、保持具17に設けられている調整ネジ部材18
.19により非球面鏡16の位置、姿勢を調整すること
によって直線とすることができる。形状誤差のめる場合
には、必ず曲線となる。そして、上述のように参照光7
の位相をN段階(Nは2以上の整数)変化させているこ
とによシ、モアレ縞だけが鮮明に現われる。
The results calculated by the memory processor 15 are input to a video device, for example a TV monitor 24. in this case,
Moire fringes 33, which are the actual interference fringes and the virtual interference fringes, are imaged on the display screen. If there is no shape error in the aspherical mirror 16 that is the object to be measured, the moire fringes 33 will not appear or the adjustment screw member 18 provided on the holder 17 will not appear.
.. By adjusting the position and orientation of the aspherical mirror 16 using 19, it can be made into a straight line. When including shape errors, it always becomes a curve. Then, as mentioned above, the reference light 7
By changing the phase in N steps (N is an integer of 2 or more), only the moiré fringes appear clearly.

ところで通常、TVモニタは1秒間に30画面を表示す
る。したがって、Nが3あるいは4で、2π ψがKのとき最も鮮明なモアレ縞が得られる。
By the way, a TV monitor normally displays 30 screens per second. Therefore, when N is 3 or 4 and 2π ψ is K, the clearest moire fringes can be obtained.

上記メモリープロセッサが数段階分のモアレ縞を平均し
て出力すれば、モアレ縞はさらに鮮明にする。この状頼
において1.駆動装置13f駆動させて参照ml 2′
!i−微細に動かすことによシ参照光7の位相全変化さ
せる。駆動制御器I4は、参照光7の位相差ψ(X、Y
)がπ/2ずつ四段階に、す々わち、ψ(X+7)+ψ
(X+7)7ψ(x、y)+π。
If the memory processor outputs an average of several levels of moire fringes, the moire fringes will become even clearer. In this request: 1. Drive the drive device 13f and refer to ml 2'
! i- By making a minute movement, the phase of the reference beam 7 is completely changed. The drive controller I4 adjusts the phase difference ψ(X, Y
) in four stages of π/2, that is, ψ(X+7)+ψ
(X+7)7ψ(x,y)+π.

ψ(X、Y)十÷π の四段階に変化するように駆動装
置13を装置する。メモリープロセッサ15は、センサ
ーモニタ11と駆動制御器14との間に設けられておシ
、駆動制御器I4による参照光7の位相の四段階の各変
化に同期させてセンサーモニタ11上の干渉縞の映像を
受けてデジタル信号に変換して記憶する。ところで、参
照光70位相を四段階に変化させた場合、演算回路15
に入力される干渉縞の強度分布は、 I N (x+ y)−τ。(X、Y)C1+γcos
(W(X、Y)+ψb、y) ” 2 (N1 ) )
)  (x)となる。
The driving device 13 is arranged so that the change occurs in four stages: ψ(X, Y) 10÷π. The memory processor 15 is provided between the sensor monitor 11 and the drive controller 14, and generates interference fringes on the sensor monitor 11 in synchronization with each four-step change in the phase of the reference light 7 caused by the drive controller I4. It receives video images, converts them into digital signals, and stores them. By the way, when the phase of the reference light 70 is changed in four stages, the arithmetic circuit 15
The intensity distribution of the interference fringes input to is I N (x+y)−τ. (X,Y)C1+γcos
(W (X, Y) + ψb, y) ” 2 (N1) )
) (x).

ここで、r N(x r y )はN回目の変化段階で
の、映像面上すなわちX、Y座標面上における、干渉縞
の強度分布、r o (” + y )はレーデ−光自
体の強度分布すなわちT、((X、Y)のバイアス成分
、γは干渉縞の鮮明度、ψCx、y)は、被測定物体で
ある非球面鏡I6の形状誤差に起因する物体光の位相分
布(単位は′yジアン)、Nは参照光70位相の変化段
階の何番目かを示す序数であって工ないし4のいずれか
の整数、である。上記(1)式において、W(X、Y)
は被測定物体である非球面鏡16の形状誤差が零である
ときの物体光6の位相分布を示しており、非球面鏡16
の設計値より容易に算出することができる。
Here, r N (x ry ) is the intensity distribution of the interference fringe on the image plane, that is, on the X, Y coordinate plane, at the Nth change stage, and r o (" + y ) is the intensity distribution of the radar light itself. The intensity distribution, T, (bias component of (X, Y), γ is the clarity of the interference fringe, ψCx, y) is the phase distribution (unit: N is an ordinal number indicating the stage of change in the phase of the reference light 70, and is an integer from 1 to 4. In the above equation (1), W (X, Y)
shows the phase distribution of the object beam 6 when the shape error of the aspherical mirror 16, which is the object to be measured, is zero;
It can be calculated more easily than the design value.

x、y座標面で成る映像面上の1個の画素の大きさt、
x方向に息、Y方向にb、画素中央の座標位置を(X、
Y)とすると、その画素における輝度の強さEN(X、
Y)は、 で与えられる。ここでf(x−X、y−Y)は1画素の
形状と光感度分布とを与える関数である。なお、(X、
Y)は画素中央の位置の座標であシ、(X 、 y)は
X、Y座標面上の任意の位置の座標七示している。セン
サーモニタ11としては、ITVカメラ、CCDプレイ
・カメラ、イメージ・ディセクタ・カメラあるいはフォ
トアレイ・センサ環上用いることができる。CCDアレ
イ・カメラあるいはフォトアレイ・センサの場合には、
感光面の全域にわ九って感光感度が均一であり、しかも
画素形状が長方形であるので、(2)式においてf(x
−X、y−Y)項は省いても実質的な影響は生じない。
The size t of one pixel on the image plane consisting of the x, y coordinate plane,
Breath in the x direction, b in the Y direction, coordinate position of the center of the pixel (X,
Y), the brightness intensity EN(X,
Y) is given by. Here, f(x-X, y-Y) is a function giving the shape of one pixel and the photosensitivity distribution. In addition, (X,
Y) is the coordinate of the center position of the pixel, and (X, y) is the coordinate of an arbitrary position on the X, Y coordinate plane. As the sensor monitor 11, an ITV camera, a CCD play camera, an image dissector camera, or a photo array sensor ring can be used. In the case of a CCD array camera or photoarray sensor,
Since the photosensitivity is uniform over the entire area of the photosensitive surface and the pixel shape is rectangular, f(x
-X, y-Y) terms have no substantial effect even if they are omitted.

(2)式に(1)式を代入して展開すると、ここで、一
つの画素の大きさは、映像面全面に対して一般に数10
0分の1と充分小さく、ま次し−ザー光自身の強度分布
I(X、Y)と形状誤差に起因する位相分布9’(x、
y)はゆるやかに変化する。この次め、一つの画素内で
けro(X、Y) 。
Substituting equation (1) into equation (2) and expanding it, we find that the size of one pixel is generally several 10
The intensity distribution I(X, Y) of the secondary laser beam itself is sufficiently small as 1/0, and the phase distribution 9'(x,
y) changes slowly. Next, within one pixel, ro(X, Y).

ψ(X、Y)は、一様と考えられ、上記式(3)内から
除外することができる。すなわち ここで と定義すると式(4)は次式(6)のように“書ける。
ψ(X, Y) is considered to be uniform and can be excluded from the above equation (3). That is, if we define here, equation (4) can be written as the following equation (6).

+C(X、Y)・r (X、Y)・γ・ゴ(ψ(X、Y
)+う(N−1))−s(X、Y)−r (X、Y)・
r−地(91’(X、Y)+H(N−1))ここでN−
1のとき 。(ψ(x、7)+1(N−1)) −cmψ(x、y
)= (9’(X、Y)な(N1))−ginψ(X、
Y)・N−2のとき m(9’(X、Y)+−2(N−1)) −coi[ψ
(X、Y)+7) ff1−dnψ(x、y)内(ψ(
X、Y)←(N−1)) =m(ψ(X+7)+7) 
−(fflψ(X+7)・N寓3のとき ■(ψ(X、Y)+百(N−1) )−邸(ψ(X、Y
)十π)−一部ψ(X、Y)sin(ψ(X、Y)+H
(N−1)) −5i(ψ(X、Y)+yr) =−a
ψ(X、Y)・N=4のとき Cx1s(ψ(X、Y)+−2(N−1))=CIlI
S(ψ(” + y ) +Σπ) =slnψ(ス、
y)廁(ψ(X、Y)←(N 1)) −5in(ψ(
X、Y)+Lr) −−amψ(X、Y)式(6)と式
(7)を用いて EA= E、 (XIY)−E3(X、Y)を計算する
と、EA巴E1(X、Y)−E3(X、Y)=21o(
X、Y)r(C(X、Y)casψ(X、Y)−8(X
、Y)th9’(X、Y))  (8)となる。同じく
式(6)と式(7)ヲ用いてE、 −E4(X、Y)−
E2(X、Y)全計算すると、E、−E14(X、Y)
 −P22(X、Y)= 2 r、 (X、Y)r(C
(X、Y) gh 9’ (X、Y)+s (X、Y)
as 9)(X、Y) ) (9)式(8)と式(9)
より 弐α1よシ、求めたいψ(X、Y)は次式で得られる。
+C(X,Y)・r(X,Y)・γ・go(ψ(X,Y
)+u(N-1))-s(X,Y)-r(X,Y)・
r-ground (91'(X, Y)+H(N-1)) where N-
When 1. (ψ(x, 7)+1(N-1)) −cmψ(x, y
) = (9'(X, Y) (N1)) - ginψ(X,
Y)・N-2, m(9'(X, Y)+-2(N-1)) -coi[ψ
(X, Y) + 7) ff1-dnψ(x, y) (ψ(
X, Y)←(N-1)) =m(ψ(X+7)+7)
-(fflψ(X+7)・N When 3) (ψ(X, Y)+100(N-1))-Residence(ψ(X, Y
) 1π) - Partial ψ(X, Y) sin(ψ(X, Y) + H
(N-1)) -5i(ψ(X,Y)+yr) =-a
When ψ(X, Y)・N=4, Cx1s(ψ(X, Y)+-2(N-1))=CIlI
S(ψ(” + y) +Σπ) = slnψ(S,
y) 廁(ψ(X,Y)←(N 1)) −5in(ψ(
X, Y) + Lr) −-amψ(X, Y) Using equations (6) and (7) to calculate EA = E, (XIY) - E3 (X, Y), EA Tomoe E1 (X, Y)-E3(X,Y)=21o(
X, Y)r(C(X,Y)casψ(X,Y)-8(X
, Y)th9'(X, Y)) (8). Similarly, using equations (6) and (7), E, -E4(X,Y)-
E2 (X, Y) After all calculations, E, -E14 (X, Y)
-P22(X,Y)=2r,(X,Y)r(C
(X, Y) gh 9' (X, Y)+s (X, Y)
as 9) (X, Y) ) (9) Equation (8) and Equation (9)
From α1, the desired ψ(X, Y) can be obtained using the following formula.

以上まとめると、形状誤差に起因する物体光50位相分
布ψ(X、Y)は、次のような計算手順で求まる(第2
B図)。
To summarize the above, the object light 50 phase distribution ψ(X, Y) caused by the shape error can be found by the following calculation procedure (second
Figure B).

■ 被測定物体とこては非球面鏡16が形状誤差全持主
ないと仮定し、設計形状よシ非球面鏡16で反射され友
物体光6の仮想された位相分布w (x + y )を
求める。
(2) Assuming that the aspherical mirror 16 of the object to be measured and the soldering iron have no shape errors, obtain a virtual phase distribution w (x + y) of the companion object light 6 reflected by the aspherical mirror 16 with a design shape.

■ 式(5)全演算して各画素におけるc (x 、 
y)とs(X、Y)を計算する。
■ Equation (5) All operations are performed to calculate c (x,
y) and s(X, Y).

■ 弐α* 、 (11)よシ求められる次式9式%) 全演算してψ(X、Y)を求める。■ α* , (11)The following formula 9 formula %) Perform all calculations to find ψ(X, Y).

報        に) と演算しても、E’ (X、Y) −E (X、Y)と
なり式αQと同様な結果を得る。念だし演算は複雑にな
る。
Even if we calculate E' (X, Y) - E (X, Y), we obtain the same result as the formula αQ. Unfortunately, the calculations are complicated.

ま丸穴(1)において j+Xj7) −1o(X、Y)D+γQl!l (W
(x、y)+ψ(X、Y)+1(N−1))〕(1−a
) と位相を3段階に変化させても同様のことが行える。
In the round hole (1), j+Xj7) -1o(X, Y)D+γQl! l (W
(x,y)+ψ(X,Y)+1(N-1))](1-a
) The same thing can be done by changing the phase in three steps.

このとき式(3)は I         x              
Ifと演算してもE“(X、Y) = E(X、Y)と
なシ式α1と同様な結果を得る。このとき位相の変化¥
′i3段階で良いが、演算は式(101K)と同様複雑
になる。
In this case, equation (3) is I x
Even if you calculate with If, you will get the same result as E"(X, Y) = E(X, Y), which is the same as the formula α1. At this time, the change in phase ¥
'i3 steps are sufficient, but the calculation becomes complicated as in equation (101K).

次に物体の位置や姿勢がずれて置かれていた時を考える
。ここで、このずれi!に’f−x、y方向にΔX、Δ
yとし、光軸方向(2方向)ずれによる物体光60位相
の歪の係数全α、y軸まゎυの傾きによる物体光6の位
相の歪の係数iT1.同様にX軸まわりのそれをT2と
する。以上を、統合した位置や姿勢ずれによる物体光6
の位相歪の分布をwe(x*y)とすると、次式で表わ
せる。
Next, consider a situation where the position or orientation of an object is shifted. Here, this deviation i! 'f-x, ΔX, Δ in the y direction
y, a coefficient of distortion in the phase of the object light 60 due to deviation in the optical axis direction (two directions), total α, and a coefficient iT1 of distortion in the phase of the object light 6 due to the tilt of the y-axis ゎυ. Similarly, let T2 be that around the X axis. Object light 6 due to position and orientation deviation that integrates the above
Let we (x*y) be the distribution of phase distortion of , and it can be expressed by the following equation.

W2(X、Y) =α・((x−ΔXゾ+(y−7fy
)2)+71・(x−Δx )+ T2 ・(y−Δy
)このとき、干渉縞の強度分布rN(”+7)は、式(
1)%式%() ここで式(4) 、 (5) 、 (6) 、 (8)
の計算手屓を行なうと式(1Qは のように書きあられされ、また式α■に示されるarc
tan g(X、Y) を求める演算はaretmnE
(X、Y)  III  W、(X、Y)+911(X
−Δx+Y−Δy)  α伜のように書きあられされる
。弐αQは物体の位置や姿勢による物体光60位相歪w
、(X、Y) y含んでしまっていbので、このw、(
X、Y)を椴シ除かなければ正確な形状誤差は得られな
い。この念めにar@tan E (X+Y)の全画素
にわたっての標準偏差、すなわち。
W2 (X, Y) = α・((x−ΔXzo+(y−7fy
)2) +71・(x−Δx)+T2・(y−Δy
) At this time, the intensity distribution rN(''+7) of the interference fringes is expressed by the formula (
1) % formula %() where formula (4) , (5) , (6) , (8)
After doing some calculations, the formula (1Q is written as
The operation to obtain tan g(X, Y) is aretmnE
(X, Y) III W, (X, Y) + 911 (X
−Δx+Y−Δy) It is written as α伜. 2 αQ is the object light 60 phase distortion due to the position and orientation of the object w
, (X, Y) contains y and b, so this w, (
An accurate shape error cannot be obtained unless the values (X, Y) are removed. To make sure of this, the standard deviation of ar@tan E (X+Y) over all pixels, ie.

が最小になるように、干渉計3に対して上記保持具I7
に設けられているネジ部材11J、19′t−適当な方
向に回転させて非球面鏡16の位置や姿勢全相対的に調
整するならばψ(X、Y)は非球面鏡16の位置姿勢に
よってほとんど変化せず一定となるので、式(IQから
、すべての画素にわたってW、(X、Y)〜Oになると
考えられる。このとき1式%式% Q 、 T、=+= O、T2−0となり、式αQはa
rctxn E(X、Y)−ψ(X、Y)となり、この
代金λ H(X、)l)−ψb、y) x −+ K なる式に
代入すること4π により、形状誤差H(X、Y)が求まる。
The above-mentioned holder I7 is attached to the interferometer 3 so that
If the position and orientation of the aspherical mirror 16 are adjusted relative to each other by rotating the screw members 11J and 19't provided in the Since it does not change and remains constant, from the formula (IQ), it can be considered that W, (X, Y) ~ O across all pixels.In this case, formula %Q, T, = + = O, T2-0 So, the formula αQ is a
rctxn E(X, Y)-ψ(X, Y), and by substituting this price into the equation λ H(X, )l)-ψb, y) x −+ K, the shape error H(X, Y) is found.

ところでセンサーモニターIとして一次元センサ例えば
フナドアレイセンサ金用いたときは画素数も少なく演算
時間も少ないが、二次元センサを用いたときは画素数が
多くなり、演算→調整用ネノ操作→演算→ネジ操作を繰
り返すことになるが、これは多大な時間金製する。この
ときは、演算によって上記5個のノンラメータα、ΔX
、ΔyIT!IT2全求めてw、(X、Y)を求め、最
後にψ(X、Y)を得ることができる。
By the way, when a one-dimensional sensor, such as a Funado array sensor, is used as the sensor monitor I, the number of pixels is small and the calculation time is short, but when a two-dimensional sensor is used, the number of pixels is large, and the process of calculation → adjustment operation → calculation →You will have to repeatedly operate the screws, which takes a lot of time. At this time, the above five non-rammeters α, ΔX are calculated by calculation.
,ΔyIT! IT2 is completely calculated to find w, (X, Y), and finally ψ(X, Y) can be obtained.

ところで演算装置内の演算で上記5個のパラメータを同
時に求めることは困難なため、この51固の/4’ラメ
ータ?分割し、順に求める手順を以下に示す。
By the way, it is difficult to obtain the above five parameters at the same time by calculation within the arithmetic unit, so this 51/4' parameter? The steps to divide and calculate in order are shown below.

演算を簡単にする次め、αの項は偶数次、他は奇数次で
あること、T1はx@J3だけの項、T2はy軸だけの
項であることを利用する。先ずT1とΔXを求める定め
X軸だけを考慮すると、弐α9は、We (x r o
 )−α・(e−Δx)2×T1・(x−ΔX)   
α日となる。ここでΔx * T1の予想償金Δxl’
、T、’とし偶数次の頂金削除するため次の演′J!!
、全行う。
To simplify the calculation, we utilize the fact that the α term is of even order, the others are of odd order, T1 is a term only for x@J3, and T2 is a term only for the y-axis. First, we determine T1 and ΔX. Considering only the X axis, 2α9 is We (x r o
)-α・(e-Δx)2×T1・(x-ΔX)
It will be day α. Here, Δx * T1's expected compensation Δxl'
,T,', then the next performance 'J!' to delete the even numbered tops! !
, all done.

g(X+lx’lT1’) = aretmnE(X+
Δx’、0)−arctin E(−X+Δx’+0 
)−271’−X (d弐〇燵に式α→、α1代入する
と g(X、Δx/ 、 T、/ ) 冨 α−((X−ΔX+Δx’)−(−X−Δχ+ΔX
′))十T、・((X−Δχ+Δ!’)−(−X−Δx
+lx’) )+ψ(X−ΔX+Δスリーψ(−x−Δ
χ+ΔxQ  2T+’ ・X==4α・X(ΔxlΔ
x ) + 2X ・(T 1T 1’ )+ψ(X−
ΔX+Δx/)〜ψ(−X−Δχ+Δx/)     
   翰式(1)よシΔχ−Δx’ 、 T、 w T
、’のときg(X、Δx/、T17) 一ψ(X−Δx+xリーψ(−X−ΔX+Δx′)とな
り、X軸上すべての画素〈対する g(X、Δx/、 T、/ )の標準偏差σ2エ  ・
は、最小値を示す。逆にσgXが最小となるようなΔx
’aT+’に求めれば良い。求めることは、パラメータ
がわずか2個なので一般的な試行錯誤法でも容易である
g(X+lx'lT1') = aretmnE(X+
Δx', 0)-arctin E(-X+Δx'+0
)-271'-X (Substituting the formula α→, α1 into d2〇电 gives g(X, Δx/ , T, /) the value α-((X-ΔX+Δx')-(-X-Δχ+ΔX
')) 10T, ・((X-Δχ+Δ!')-(-X-Δx
+lx') )+ψ(X-ΔX+Δ3ψ(-x-Δ
χ+ΔxQ 2T+' ・X==4α・X(ΔxlΔ
x ) + 2X ・(T 1T 1' ) + ψ(X-
ΔX+Δx/) ~ ψ(-X−Δχ+Δx/)
According to Kan formula (1), Δχ−Δx', T, w T
, ', then g(X, Δx/, T17) - ψ(X-Δx+x Lee ψ(-X-ΔX+Δx'), and g(X, Δx/, T, / Standard deviation σ2d・
indicates the minimum value. Conversely, Δx that minimizes σgX
You can find it in 'aT+'. Since there are only two parameters, it can be easily determined using a general trial-and-error method.

同様にY軸についてもg(Y、Δy’+T2’)全計算
(78σ、アが最小になるようなΔy′とT2′を求め
る。以上によって5個のパラメータのうち4個が求まり
、残るは1個である。これを求めるには今まで求め次Δ
x/、Δy’ 、 T、’ 、 T2’から、Δ8−Δ
xl、ΔアーΔY’ pT、 −* T1’・T0n 
T2’を式(6)〜αカに代入し、σ、が最小となるよ
うなαの値を求めれば良い。これによって5個の・母う
メータが全てが求まυ、これらの値を式(ト)〜α9に
代入すると、arctan E(X、Y)の値とw、(
X、Y)の値が求まるのでその差からψ(X−Δx、Y
−Δy)が求まり、H(x−Δx、y−Δx)=λ ψ(X−ΔX+7−Δy)X−+により形状誤差4π H(x−dx、y−ΔX)が得られる。
Similarly, for the Y-axis, g (Y, Δy'+T2') total calculation (78σ, find Δy' and T2' such that a is minimized. Through the above, 4 out of 5 parameters are found, and the remaining 1 piece.To find this, we have calculated the following Δ
From x/, Δy', T,', T2', Δ8−Δ
xl, ΔAΔY' pT, -* T1'・T0n
By substituting T2' into equation (6) ~ α, the value of α that minimizes σ can be found. As a result, all five mother meters are found υ, and by substituting these values into equations (g) to α9, we get the value of arctan E(X, Y) and w, (
The value of ψ(X-Δx, Y
-Δy) is found, and the shape error 4π H(x-dx, y-ΔX) is obtained by H(x-Δx, y-Δx)=λ ψ(X-ΔX+7-Δy)X−+.

本実施例のように、物体が非球面鏡のときは、非球面鏡
の焦点距離がわずかに設計値より異なっていても公差内
なら実用上の支障がないが、ff1ll 11時には、
見かけ上形状誤差として測定される。
As in this example, when the object is an aspherical mirror, there is no practical problem even if the focal length of the aspherical mirror is slightly different from the design value as long as it is within the tolerance.
It is measured as an apparent shape error.

このため焦点距離のずれに関するパラメータβを設定す
ると、式(イ)は w、(X、Y)−α・((X−dx)2+(y−Δy)
2)+β((X−dx )2+(y−Δy)2)2+T
1・(x−dx ) + T 2 ・(y−Δy)勾と
なる。β・((e−dx) +(y−Δy) )  も
偶関数なので、上述のようにΔ工、ΔF+TI+T2’
i求め念後、σ工が最小になるようにα、βを同時に求
めれば良い。
Therefore, when the parameter β related to the focal length shift is set, equation (a) becomes w, (X, Y) - α・((X-dx)2+(y-Δy)
2)+β((X-dx)2+(y-Δy)2)2+T
The gradient is 1.(x-dx) + T2.(y-Δy). β・((e−dx) +(y−Δy)) is also an even function, so as mentioned above, ΔF, ΔF+TI+T2'
After estimating i, α and β may be found simultaneously so that the σ-factor is minimized.

以上によシ形状誤差が求まる。From the above, the shape error can be found.

上記実施例の測定方法および測定装置によれば、複雑な
形状の物体であっても非球面等数式であられされ得るも
のでかつ光学的になめらかなものであれば、その形状誤
差全簡単かつ高精度に測定することができ、しかもセン
サーモニタとして画素数の少ないものを用いても高精度
に測定することができる。
According to the measuring method and measuring device of the above embodiments, even if an object has a complex shape, if it can be formed using an aspherical equation and is optically smooth, the shape error can be calculated easily and easily. It is possible to measure with high precision, and even if a sensor monitor with a small number of pixels is used, the measurement can be performed with high precision.

なお本実施例では参照光7の位相を正確に百つつ変化さ
せなければならないが、下記にその校正方法を示す。も
しこの校正が完了しておらず参照光7の位相が(ヲ+ε
)ずつ変化しているとするならば、式(1)は rN (X、Y) ” ■o (X、Y) C”+γc
ts (W(X、Y)+’i’(x+y)+嶋+ε) 
(N−1) )  ■ となる。式(財)を式(3)に代入するならば、EN(
X、Y)は +f(X−X、y−Y) ・γ・tyys (W(X、
Y)+ψ(X、Y)+(−+ε)(N−1))dXdy
(ハ) 如              N 塑  桶  挑   口            11
夷   茹 ここでε4Qなので−εxg+sm2ε=2ε。
In this embodiment, the phase of the reference light 7 must be changed accurately by 100 degrees, and a method of calibration will be described below. If this calibration is not completed and the phase of the reference beam 7 is
), then equation (1) becomes rN (X, Y) ” ■o (X, Y) C” + γc
ts (W (X, Y) + 'i' (x + y) + Shima + ε)
(N-1)) ■. If we substitute the formula (goods) into formula (3), we get EN(
X, Y) is +f(X-X, y-Y) ・γ・tyys (W(X,
Y) + ψ (X, Y) + (-+ε) (N-1)) dXdy
(c) Like N Plastic Oke Challenge 11
Since ε4Q is here, −εxg+sm2ε=2ε.

血3g鱈3εrcage一部υ1邸3ε=1とすると−
2gccs(W(X、Y)+ψ(X、Y))+ψ(X、
Y)←) dxdy  (ハ)となる。
If blood 3g cod 3εrcage part υ1 house 3ε = 1 -
2gccs(W(X,Y)+ψ(X,Y))+ψ(X,
Y) ←) dxdy (c).

式(ハ)から、参照光7の位相が正確にiつつ変位して
いるならば、ε−〇となり、Dもゼロとなる。
From equation (c), if the phase of the reference beam 7 is accurately displaced by i, then ε-0 and D will also be zero.

つまりすべての画素についてD−0となるように運動制
御器14により駆動装置13全調整して参照光7の位置
を調整すれば良い。
In other words, the position of the reference beam 7 may be adjusted by fully adjusting the drive device 13 using the motion controller 14 so that all pixels are set to D-0.

なお、この発明は上記実施例に限定されるものではない
。例えば1本実施例では、被測定体として非球面鏡に対
してとの発明の測定方法を適用し九個であるが、これに
限らず表面が使用する光源からの光源に対しなめらかで
、数式でその形状が表わせる物体すべてに適用できる。
Note that this invention is not limited to the above embodiments. For example, in this embodiment, the measurement method of the invention is applied to nine aspherical mirrors as the object to be measured, but the surface is not limited to this, and the surface is smooth against the light source used, and the measurement method is It can be applied to all objects whose shape can be expressed.

このとき、式(1)から弐α7)までの演算手順は同一
である。
At this time, the calculation procedure from equation (1) to 2α7) is the same.

光源として、レーザー光音例として使用し念が、可干渉
性光を出射する光源であればどんなものでも利用できる
。例えば赤外レーザー光、あるいは水銀ランプからの近
紫外光等がある。
As the light source, any light source can be used as long as it emits coherent light, although we will use it as an example of laser light and sound. Examples include infrared laser light or near-ultraviolet light from a mercury lamp.

干渉計として、マイケルソン型の干渉計を用いたが、光
学的になめらかな面の形状全測定する念めの干渉計なら
ばすべての干渉計が使用できる。
A Michelson type interferometer was used as the interferometer, but any interferometer can be used as long as it measures the entire shape of an optically smooth surface.

例えばマハツェンダー干渉計、フィゾー干渉計などがあ
る。
Examples include the Mach-Zehnder interferometer and the Fizeau interferometer.

七ンサーモニタとしてITV 、 CCDセンサのよう
な蓄積型の画像センナと、フォトアレイ・センサ。
Seven thermal monitors include ITV, storage type image sensors such as CCD sensors, and photo array sensors.

イメージ・ディセクタ等そうでないものがあるが、いず
れも同一演算手順で形状誤差が求まる。
Although there are other types such as image dissectors, shape errors are determined using the same calculation procedure.

リニアアレイ・センサを用い友ときは、−軸の断面形状
が得られる。
When using a linear array sensor, a -axis cross-sectional shape can be obtained.

また上記実施例では、参照光の位相全段階的に一つつ変
位させたが連続的に変化させ、−ずれ九タイミングで瞬
間的にデータを取り込んでも良い。
Further, in the above embodiment, the phase of the reference light is shifted one by one in all steps, but it may be changed continuously and data may be captured instantaneously at -9 timings.

瞬間的にデータを取シ込むことは、全画累同時である必
要はなく、一画素づつ屓にデータ全敗り込むことも可能
である。このときは、−画素一画素わずかずつ、参照光
の位相が異なり、その分だけ考慮し、形状測定データか
ら差し引けば良い。
It is not necessary to input data instantaneously for all images at the same time, and it is also possible to input all data one pixel at a time. In this case, the phase of the reference light differs slightly from pixel to pixel, and this can be taken into consideration and subtracted from the shape measurement data.

本実施例では、参照光の位相全変化させたが。In this embodiment, the phase of the reference light was completely changed.

駆動装置13を被測定物体である非球面鏡16に設けて
、物体光6の位相を変化させても同等の効果が得られる
The same effect can be obtained by providing the drive device 13 on the aspherical mirror 16 that is the object to be measured and changing the phase of the object light 6.

本実施例では、物体光6として非球面鏡I6の表面で反
射した光を用い念が、物体が透明々場合は、物体全透過
した光を物体光として用いても良い。
In this embodiment, the light reflected on the surface of the aspherical mirror I6 is used as the object light 6, but if the object is transparent, the light completely transmitted through the object may be used as the object light.

[発明の効果] 被測定物体の形状誤差の測定において、最も時間を要す
る処理は被測定物体の姿勢や位置のずれを補正するため
の演算であるが、この発明によれば、上述の説明から明
らかとなるように、構成が複雑となることなく、測定処
理時間が大巾に短縮され、しかも高精度な形状誤差の測
定が可能と彦る。
[Effects of the Invention] In measuring the shape error of an object to be measured, the process that requires the most time is the calculation for correcting the deviation in the posture and position of the object to be measured. As is clear, the measurement processing time can be greatly shortened without complicating the configuration, and shape errors can be measured with high accuracy.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は、この発明の実抱例にかかる形状誤差を測定す
る装置の構成全話す図、 第2A図および2B図は、第1図に示される装置で実施
される測定方法の動作フローチャート、第3図は、物体
光と参照光との干渉により生じるモアレ縞全示す図、で
ある。 1・・・レーザー光源、3・・・干渉計、5・・・半透
鏡、8・・・集光レンズ、10・・・結像レンズ、11
・・・イメージ−センサーモニタ、12・・・参照鏡、
13・・・駆動装置、14・・・駆動制御器、15・・
・メモリーデータ・プロセッサ、21・・・演算回路、
22・・・記憶装置、23・・・読出し回路、24・・
・1”vモニタ。 出願人代理人  弁理士 鈴 江 武 彦第2A図 第2B図 第3図
FIG. 1 is a diagram illustrating the entire configuration of a device for measuring shape errors according to a practical example of the present invention; FIGS. 2A and 2B are operational flowcharts of a measuring method carried out with the device shown in FIG. 1; FIG. 3 is a diagram showing all the moiré fringes caused by interference between the object light and the reference light. DESCRIPTION OF SYMBOLS 1...Laser light source, 3...Interferometer, 5...Semi-transparent mirror, 8...Condenser lens, 10...Imaging lens, 11
...Image-sensor monitor, 12...Reference mirror,
13... Drive device, 14... Drive controller, 15...
・Memory data processor, 21... Arithmetic circuit,
22...Storage device, 23...Reading circuit, 24...
・1"V monitor. Applicant's representative Patent attorney Takehiko Suzue Figure 2A Figure 2B Figure 3

Claims (25)

【特許請求の範囲】[Claims] (1)(a)可干渉光を出射し、 (b)前記可干渉光の、参照体からの参照光としての反
射光と、被測定物体からの物体光としての反射光とを干
渉させ、実際の干渉縞を得、(c)前記物体光と前記参
照光との位相差をψ(x、y)ずつN段階に変化させそ
の各段階の実際の映像信号を記憶し、 (d)前記被測定物体が理想的な設計形状値を有してい
ると仮想し、かつ前記仮想物体光と仮想参照光との位相
差をψ(x、y)ずつN段階に変化させた場合を仮想し
た場合に得られる仮想干渉縞を求め、 (e)前記実際の干渉縞と前記仮想干渉縞とに基いて前
記被測定物体の形状誤差を測定する、物体の形状誤差を
測定する方法であって、 前記(e)の手順は、前記仮想干渉縞を求める際のN段
階の位相差変化の各段階における仮想映像信号を記憶し
、 記憶した前記各段階における仮想映像信号を順次読み出
し、 前記順次の読出しに同期して前記物体光と前記参照光と
の前記位相差ψ(χ、y)を相対的に変化させ、この位
相差ψ(x、y)をψ(x、y)、ψ(x、y)+π/
2、ψ(x、y)+π、ψ(x、y)+3/2πと変化
させそれぞれ得られる干渉縞における干渉光の強度分布
をX、Y座標上に、強度E_1(X、Y)、E_2(X
、Y)、E_3(X、Y)、E_4(X、Y)として記
憶し、形状誤差がないと仮想したときの前記被測定物体
から反射される可干渉光の位相分布W(x、y)を前記
被測定物体の形状の設計値に基いて算出し、(X、Y)
座標位置の画素における感度分布をf(x−X、y−Y
)、画素の大きさをx方向にa、y方向にbとしたとき
、▲数式、化学式、表等があります▼ ▲数式、化学式、表等があります▼ を演算し、E(X、Y)を正接値として、 ▲数式、化学式、表等があります▼ および ▲数式、化学式、表等があります▼ を演算し、前記(X、Y)座標位置における位相差ψ(
X、Y)を算出し、前記位相差ψ(X、Y)と前記(X
、Y)座標位置における前記被測定物体の形状誤差とが
直線関係にあることに基いて前記被測定物体の形状誤差
を算出することを特徴とする、物体の形状誤差を測定す
る方法。
(1) (a) Emit coherent light; (b) cause the reflected light of the coherent light as a reference light from a reference object and the reflected light as object light from a measured object to interfere; Obtain actual interference fringes, (c) change the phase difference between the object beam and the reference beam in N steps by ψ(x, y) and store the actual image signal at each step; (d) It is assumed that the object to be measured has an ideal design shape value, and the phase difference between the virtual object light and the virtual reference light is changed in N steps by ψ (x, y). (e) determining a shape error of the object to be measured based on the actual interference fringes and the virtual interference fringes, the method comprising: The procedure (e) above includes: storing a virtual video signal at each stage of the N stages of phase difference change when determining the virtual interference fringe, sequentially reading out the stored virtual video signal at each stage, and reading out the sequential reading. The phase difference ψ(χ, y) between the object light and the reference light is relatively changed in synchronization with ψ(x, y), ψ(x, y). y)+π/
2. The intensity distribution of the interference light in the interference fringes obtained by varying ψ(x, y) + π and ψ(x, y) + 3/2π on the X and Y coordinates, and the intensities E_1 (X, Y) and E_2 (X
, Y), E_3(X, Y), E_4(X, Y), and the phase distribution W(x, y) of the coherent light reflected from the object to be measured assuming that there is no shape error. is calculated based on the design value of the shape of the object to be measured, and (X, Y)
The sensitivity distribution at the pixel at the coordinate position is f(x-X, y-Y
), and the size of the pixel is a in the x direction and b in the y direction, then ▲ There are mathematical formulas, chemical formulas, tables, etc. ▼ ▲ There are mathematical formulas, chemical formulas, tables, etc. ▼ Calculate E(X, Y) As the tangent value, calculate ▲ There are mathematical formulas, chemical formulas, tables, etc. ▼ and ▲ There are mathematical formulas, chemical formulas, tables, etc. ▼ and calculate the phase difference ψ (
X, Y), and the phase difference ψ(X, Y) and the (X
, Y) A method for measuring a shape error of an object, characterized in that the shape error of the object to be measured is calculated based on a linear relationship between the shape error of the object to be measured at the coordinate position.
(2)前記X、Y座標のx方向、y方向の画素数をそれ
ぞれm、nとし、x方向i番目、Y方向j番目の画素の
中央の座標位置をX_i、Y_jとし、前記画素の正接
値をE(X_i、Y_j)とするとき、arctan{
E(X_i、Y_j)}の標準偏差σ_E、▲数式、化
学式、表等があります▼ を演算し、σ_Eが最小の値をとるように前記被測定物
体と干渉計との相対位置および/または姿勢のずれを調
整することを特徴とする特許請求の範囲第1項に記載の
物体形状誤差を測定する方法。
(2) Let the numbers of pixels in the x direction and y direction of the X and Y coordinates be m and n, respectively, let the coordinate positions of the center of the i-th pixel in the x direction and the j-th pixel in the Y direction be X_i and Y_j, and the tangent of the pixel When the value is E(X_i, Y_j), arctan{
E(X_i, Y_j)}, the standard deviation σ_E, ▲There are mathematical formulas, chemical formulas, tables, etc.▼ is calculated, and the relative position and/or orientation of the object to be measured and the interferometer is calculated so that σ_E takes the minimum value. 2. The method for measuring an object shape error according to claim 1, wherein the method comprises adjusting the deviation of the object shape.
(3)前記相対位置および/または姿勢のずれの量がX
方向にΔx、Y方向にΔy、Z方向にΔz、y軸の回転
角方向にT_1、x軸回転角方向にT_2、z軸の回転
角方向にT_3とし、これらずれ量による前記物体光と
参照光の位相差への寄与をW_e(x、y)とし、Δx
、Δy、Δz、T_1、T_2、T_3を求め、前記Δ
x、Δy、Δz、T_1、T_2、T_3の求められた
値からW_e(x、y)を算出し、X、Y座標面の(X
、Y)座標位置が中央の座標位置である画素の輝度の強
さをE(X、Y)とするとき、arctan{E(X、
Y)}からW_e(X、Y)を差しひいてψ(X、Y)
を求める演算、ψ(X、Y)=arctan{E(X、
Y)}−W_e(X、Y)を行うことを特徴とする特許
請求の範囲第2項に記載の物体の形状誤差を測定する方
法。
(3) The amount of deviation in the relative position and/or posture is
Δx in the direction, Δy in the Y direction, Δz in the Z direction, T_1 in the y-axis rotation angle direction, T_2 in the x-axis rotation angle direction, and T_3 in the z-axis rotation angle direction, and refer to the object light according to these deviation amounts. Let the contribution to the phase difference of light be W_e(x, y), and Δx
, Δy, Δz, T_1, T_2, T_3, and the above Δ
W_e (x, y) is calculated from the obtained values of x, Δy, Δz, T_1, T_2, T_3, and (X
, Y) When the intensity of the brightness of the pixel whose coordinate position is the center coordinate position is E(X, Y), arctan{E(X,
Subtract W_e(X, Y) from ψ(X, Y)
The operation to find ψ(X, Y)=arctan{E(X,
3. The method for measuring a shape error of an object according to claim 2, characterized in that: Y)}-W_e(X, Y).
(4)ψ(X、Y)=arctan{E(X、Y)}−
W_e(X、Y)のかわりに、 ▲数式、化学式、表等があります▼ ▲数式、化学式、表等があります▼ E′(X、Y)={C′(X、Y)[E_4(X、Y)
−E_2(X、Y)]−S′[E_1(X、Y)−E_
3(X、Y)]}/{C′(X、Y)[E_1(X、Y
)−E_3(X、Y)]+S′[E_4(X、Y)−E
_3(X、Y)]}差を求めることを特徴とする、特許
請求の範囲第3項に記載の物体の形状誤差を測定する方
法。
(4) ψ(X,Y)=arctan{E(X,Y)}-
Instead of W_e (X, Y), ▲ There are mathematical formulas, chemical formulas, tables, etc. ▼ ▲ There are mathematical formulas, chemical formulas, tables, etc. ▼ E' (X, Y) = {C' (X, Y) [E_4 (X , Y)
-E_2(X,Y)]-S'[E_1(X,Y)-E_
3(X, Y)]}/{C'(X, Y)[E_1(X, Y
)-E_3(X,Y)]+S'[E_4(X,Y)-E
_3(X, Y)]} The method for measuring a shape error of an object according to claim 3, characterized in that the difference is calculated.
(5)Δx、Δy、Δz、T_1、T_2、T_3を求
める手順としてのこれら6つの値の推定値Δx′、Δy
′、Δz′、T_1′、T_2′、T_3′を仮定し、
これら推定値を変化させながら、W_e(X、Y)の推
定値W_e′(X、Y)を演算し、W_e′(X、Y)
をW_e(X、Y)に代入し、▲数式、化学式、表等が
あります▼ を演算し、σ′_Eが最小値を持つときのΔx′、Δy
′、Δz′、T_1′、T_2′、T_3′の値を上記
Δx、Δy、Δz、T_1、T_2、T_3に等しい値
として求めることを特徴とする、特許請求の範囲第3項
に記載の物体の形状誤差を測定する方法。
(5) Estimated values Δx', Δy of these six values as a procedure for calculating Δx, Δy, Δz, T_1, T_2, T_3
′, Δz′, T_1′, T_2′, T_3′,
While changing these estimated values, calculate the estimated value W_e'(X, Y) of W_e(X, Y), and calculate W_e'(X, Y).
Substitute W_e(X, Y), calculate ▲There are mathematical formulas, chemical formulas, tables, etc.▼, and calculate Δx′, Δy when σ′_E has the minimum value.
', Δz', T_1', T_2', T_3' are obtained as values equal to the above-mentioned Δx, Δy, Δz, T_1, T_2, T_3, the object according to claim 3. How to measure the shape error of.
(6)前記被測定物体が回転非球面をなしている光学素
子である場合において、Δx、Δy、Δz、T_1、T
_2、T_3を求める手順のうち、T_3を求める手順
を除くことを特徴とする、特許請求の範囲第5項に記載
の物体の形状誤差を測定する方法。
(6) When the object to be measured is an optical element having a rotating aspherical surface, Δx, Δy, Δz, T_1, T
6. The method of measuring the shape error of an object according to claim 5, characterized in that the step of determining T_3 is excluded from the steps of determining T_3.
(7)上記Δzを求める手順のかわりに、Δzによる物
体光位相の歪の係数αとし、αを求める手順を具備し、 W_e(x、y)=α・{(x−Δx)^2+(y−Δ
y)^2}+T_1・(x−Δx)+T_2・(y−Δ
y)の演算を行うことによってW_e(x、y)を求め
ることを特徴とする、特許請求の範囲第6項に記載の物
体の形状誤差を測定する方法。
(7) Instead of the above procedure for calculating Δz, the coefficient α of the distortion of the object light phase due to Δz is taken as the coefficient α, and a procedure for calculating α is provided, W_e(x,y)=α・{(x−Δx)^2+( y-Δ
y)^2}+T_1・(x-Δx)+T_2・(y-Δ
7. The method for measuring a shape error of an object according to claim 6, characterized in that W_e(x, y) is determined by calculating W_e(x, y).
(8)回転非球面をもつ光学素子の焦点距離のずれ量に
起因する物体光の位相の歪の係数βを求める手順を付加
し、 W_e(x、y)=α・{(x−Δx)^2+(y−Δ
y)^2}+β・{(x−Δx)^2+(y−Δy)^
2}^2+T_1・(x−Δx)+T_2(y−Δy)
なる演算によってW_e(x、y)を求めることを特徴
とする、特許請求の範囲第7項に記載の物体の形状誤差
を測定する方法。
(8) Add a procedure to find the coefficient β of the phase distortion of the object light due to the amount of focal length deviation of the optical element with a rotating aspherical surface, and calculate W_e(x,y)=α・{(x−Δx) ^2+(y-Δ
y)^2}+β・{(x-Δx)^2+(y-Δy)^
2}^2+T_1・(x-Δx)+T_2(y-Δy)
8. A method for measuring a shape error of an object according to claim 7, characterized in that W_e(x, y) is determined by the following calculation.
(9)α、β、Δx、Δy、T_1、T_2を求める手
順として第1にx軸上を考え、 W_e(x、o)=α・(x−Δx)^2+β・(x−
Δx)^4+T_1(x−Δx)とし、ΔxとT_1の
推定値をΔx′、T_1′とし、(X、o)の座標値の
画素について、 g(X、Δx′、T_1′)=arctanE′(X+
Δx′、o)−arctanE′(−X+Δx′、o)
−2T_1′・Xとg(X、Δx′、T_1′)を定義
しΔx′とT_1′を変化させながらg(X、Δx′、
T_1′)の標準偏差σ_g_Xすなわち▲数式、化学
式、表等があります▼ を演算し、σ_g_Xが最少の値を持つときのΔx′と
T_1′の値を求め、このΔx′とT_1′を求めるΔ
xとT_1にそれぞれ等しいものとする手順と、 第2に、y軸上を考え、 W_e(o、y)=α・(y−Δy)^2+β・(y−
Δy)^4+T_2(y−Δy)としΔyとT_2の推
定値をΔy′・T_2′とし、(o、Y)の座標値にあ
る画素について g(Y、Δy′、T_2′)=arctanE′(Y+
Δy′、o)−arctanE′(−Y+−y′、o)
−2T_2′Yとg(Y、Δy′、T_2′)を定義し
、Δy′とT_2′を変化させながらg(Y、Δy′、
T_2′)の標準偏差σ_g_Yを演算し、σ_g_Y
が最少の値を持つときのΔy′とT_2′の値をもって
求めるΔyとT_2の値に等しいとする手順と、第3に
、求められたΔx、Δy、T_1、T_2を特許請求の
範囲第8項に記載のW_e(x、y)の演算に代入し、
W_e(x、y)内のα、βの値を変化させながら特許
請求の範囲第4項に記載のE′(X、Y)を演算し、特
許請求の範囲第5項記載のσ_E′を演算し、σ_E′
が最少値を持つときのα、βの値をもって求めるα、β
の値とする手段と、 を具備して成ることを特徴とする、特許請求の範囲第8
項に記載の物体の形状誤差を測定する方法。
(9) As a procedure for finding α, β, Δx, Δy, T_1, and T_2, first consider the x-axis, and calculate W_e(x, o)=α・(x−Δx)^2+β・(x−
Δx)^4+T_1(x-Δx), the estimated values of Δx and T_1 are Δx', T_1', and for the pixel at the coordinate value of (X, o), g(X, Δx', T_1') = arctanE' (X+
Δx′,o)−arctanE′(−X+Δx′,o)
-2T_1'・X and g(X, Δx', T_1') are defined, and while changing Δx' and T_1', g(X, Δx',
Calculate the standard deviation σ_g_X of T_1', that is, ▲There are mathematical formulas, chemical formulas, tables, etc.▼, and calculate the values of Δx' and T_1' when σ_g_X has the minimum value.
Second, considering the y-axis, W_e(o, y)=α・(y−Δy)^2+β・(y−
Δy)^4+T_2(y-Δy), and the estimated values of Δy and T_2 are Δy'・T_2', and for the pixel at the coordinates of (o, Y), g(Y, Δy', T_2') = arctanE'( Y+
Δy', o)-arctanE'(-Y+-y', o)
-2T_2'Y and g(Y, Δy', T_2') are defined, and while changing Δy' and T_2', g(Y, Δy',
T_2′) standard deviation σ_g_Y is calculated, and σ_g_Y
A procedure for determining that the values of Δy' and T_2' when Δy' and T_2' have the minimum value are equal to the values of Δy and T_2, and thirdly, the obtained Δx, Δy, T_1, and T_2 are defined in claim 8. Substitute into the operation of W_e (x, y) described in the section,
E'(X, Y) as set forth in claim 4 is calculated while changing the values of α and β in W_e(x, y), and σ_E' as set forth in claim 5 is calculated. Calculate σ_E′
α and β are calculated using the values of α and β when has the minimum value.
Claim 8, characterized in that it comprises means for setting the value to .
A method for measuring the shape error of an object as described in Section.
(10)標準偏差を求めるとき、σ_E、σ_E′はす
べての画素について、またσ_g_X、σ_g_Yはx
軸上、y軸上それぞれすべての画素について、演算する
代りに特定の複数個の画素についてのみ標準偏差の演算
を行うことを特徴とする、特許請求の範囲第2項、第5
項および第9項のいずれか1項に記載の、物体の形状誤
差を測定する方法。
(10) When calculating the standard deviation, σ_E and σ_E' are for all pixels, and σ_g_X and σ_g_Y are x
Claims 2 and 5 are characterized in that instead of calculating the standard deviation for all pixels on the axis and the y-axis, the standard deviation is calculated only for a plurality of specific pixels.
10. A method for measuring a shape error of an object according to any one of Items 1 and 9.
(11)画素内の感度が一様なとき、f(x−X、y−
X)=定数とすることを特徴とする、特許請求の範囲第
1項ないし第10項のいずれか1項に記載の、物体の形
状誤差を測定する方法。
(11) When the sensitivity within a pixel is uniform, f(x-X, y-
A method for measuring a shape error of an object according to any one of claims 1 to 10, characterized in that X)=constant.
(12)画素の大きさa、bが充分小さいときはC(X
、Y)=cosW(x、y) S(X、Y)=sinW(x、y) と定義することを特徴とする特許請求の範囲第1項ない
し第11項のいずれか1項に記載の、物体の形状誤差を
測定する方法。
(12) When the pixel sizes a and b are sufficiently small, C(X
, Y)=cosW(x,y) S(X,Y)=sinW(x,y) according to any one of claims 1 to 11. , a method for measuring shape errors of objects.
(13)(a)可干渉光を出射する手段と、(b)参照
体手段と、 (c)前記可干渉光の、前記参照体手段からの参照光と
しての反射光と、被測定物体からの物体光としての反射
光とを干渉させる手段と、 (d)前記両反射光の実際の干渉縞を提供する手段と、 (e)前記被測定物体が理想的な設計形状値を有してい
るものと仮想した場合の仮想物体からの仮想物体光と仮
想参照光との位相差をψ(x、y)づつN段階に変化さ
せた場合の仮想干渉縞を求める演算手段と、 (f)前記演算手段によって求められた前記仮想干渉縞
の前記N段階の各段階の仮想映像信号を記憶する記憶手
段と、 (g)前記記憶手段から前記各段階の仮想映像信号を順
次よみだす読出し手段と、 (h)前記参照体手段を駆動しそれにより前記参照体手
段からの前記反射光の位相を変化させるための駆動手段
と、 (i)前記読出し手段における仮想映像信号の読出しに
同期させて前記物体光と前記参照光との位相差ψ(x、
y)を相対的に変位させ、前記位相差ψ(x、y)をψ
(x、y)、ψ(x、y)+π/2、ψ(x、y)+π
、ψ(x、y)+3/2πと変位させたときにそれぞれ
得られる前記干渉光の強度分布をX、Y座標面上に、強
度E_1(X、Y)、E_2(X、Y)、E_3(X、
Y)、E_4(X、Y)として記憶し、前記被測定物体
の形状の設計値に基いて形状誤差がないときの前記被測
定物体から反射される仮想物体光の位相分布W(x、y
)を算出し、(X、Y)座標位置の画素における感度分
布をf(x−X、y−Y)、画素の大きさをx方向にa
、y方向にbとしたとき、 ▲数式、化学式、表等があります▼ を演算し、E(X、Y)を正接値とし、 ▲数式、化学式、表等があります▼ および ▲数式、化学式、表等があります▼ を演算して、前記(X、Y)座標位置における位相差ψ
(X、Y)を算出し、前記位相差ψ(X、Y)と前記(
X、Y)座標位置における前記被測定物体の形状誤差と
が直線関係にあることに基いて前記被測定物体の形状誤
差を算出する手段と、を具備して成ることを特徴とする
物体の形状誤差を測定する装置。
(13) (a) means for emitting coherent light; (b) reference body means; (c) reflected light of the coherent light as reference light from the reference body means and from the object to be measured; (d) means for providing actual interference fringes of both the reflected lights; and (e) means for causing the measured object to have an ideal design shape value. (f) calculating means for calculating virtual interference fringes when the phase difference between the virtual object light from the virtual object and the virtual reference light is changed in N steps by ψ(x, y); storage means for storing virtual image signals of each of the N stages of the virtual interference fringes obtained by the calculation means; (g) reading means for sequentially reading out the virtual image signals of each stage from the storage means; (h) driving means for driving the reference body means and thereby changing the phase of the reflected light from the reference body means; The phase difference ψ(x,
y), and the phase difference ψ(x, y) is changed to ψ
(x, y), ψ(x, y)+π/2, ψ(x, y)+π
, ψ(x, y) + 3/2π, respectively, on the X and Y coordinate planes, the intensity distributions of the interference light are expressed as intensities E_1 (X, Y), E_2 (X, Y), E_3 (X,
Y), E_4(X, Y), and the phase distribution W(x, y) of the virtual object light reflected from the object to be measured when there is no shape error based on the design value of the shape of the object to be measured.
), the sensitivity distribution at the pixel at the (X, Y) coordinate position is f(x-X, y-Y), and the pixel size is a in the x direction.
, when b is in the y direction, ▲There are mathematical formulas, chemical formulas, tables, etc.▼ Calculate, E(X, Y) is the tangent value, ▲There are mathematical formulas, chemical formulas, tables, etc.▼ and ▲Mathematical formulas, chemical formulas, There is a table etc. ▼ Calculate the phase difference ψ at the above (X, Y) coordinate position.
(X, Y), and the phase difference ψ(X, Y) and the (X, Y) are calculated.
means for calculating the shape error of the object to be measured based on the fact that there is a linear relationship between the shape error of the object to be measured at the (X, Y) coordinate position. A device that measures errors.
(14)前記干渉縞を提供する手段はITVカメラであ
ることを特徴とする、特許請求の範囲第13項に記載の
、物体の形状誤差を測定する装置。
(14) An apparatus for measuring a shape error of an object according to claim 13, wherein the means for providing the interference fringes is an ITV camera.
(15)前記干渉縞を提供する手段は固体撮像素子を有
するカメラであることを特徴とする、特許請求の範囲第
13項に記載の、物体の形状誤差を測定する装置。
(15) The device for measuring the shape error of an object according to claim 13, wherein the means for providing the interference fringes is a camera having a solid-state image sensor.
(16)前記干渉縞を提供する手段はイメージ・ディセ
クタ・カメラであることを特徴とする、特許請求の範囲
第13項に記載の、物体の形状誤差を測定する装置。
(16) The apparatus for measuring shape errors of an object according to claim 13, wherein the means for providing the interference fringes is an image dissector camera.
(17)前記干渉計を提供する手段はフォトアレイ・セ
ンサであることを特徴とする、特許請求の範囲第13項
に記載の、物体の形状誤差を測定する装置。
(17) An apparatus for measuring a shape error of an object according to claim 13, wherein the means for providing the interferometer is a photoarray sensor.
(18)可干渉光を出射する前記手段は可視レーザー光
発振器であることを特徴とする、特許請求の範囲第13
項に記載の、物体の形状誤差を測定する装置。
(18) Claim 13, wherein the means for emitting coherent light is a visible laser beam oscillator.
A device for measuring the shape error of an object, as described in .
(19)可干渉光を出射する前記手段は赤外レーザー光
発振器であることを特徴とする、特許請求の範囲第13
項に記載の、物体の形状誤差を測定する装置。
(19) Claim 13, wherein the means for emitting coherent light is an infrared laser beam oscillator.
A device for measuring the shape error of an object, as described in .
(20)前記干渉手段はマハツェンダー型干渉計である
ことを特徴とする、特許請求の範囲第13項に記載の、
物体の形状誤差を測定する装置。
(20) The interference device according to claim 13, wherein the interference means is a Mach-Zehnder interferometer.
A device that measures the shape error of objects.
(21)前記干渉手段は、前記被測定物体の背面に配置
される高精度な形状の鏡であることを特徴とする、特許
請求の範囲第13項に記載の、物体の形状誤差を測定す
る装置。
(21) Measuring the shape error of an object according to claim 13, wherein the interference means is a mirror with a highly accurate shape disposed on the back surface of the object to be measured. Device.
(22)前記干渉手段はマイケルソン型干渉計であるこ
とを特徴とする、特許請求の範囲第13項に記載の、物
体の形状誤差を測定する装置。
(22) An apparatus for measuring a shape error of an object according to claim 13, wherein the interference means is a Michelson interferometer.
(23)前記干渉手段はフィゾー型干渉計であることを
特徴とする、特許請求の範囲第13項に記載の、物体の
形状誤差を測定する装置。
(23) An apparatus for measuring a shape error of an object according to claim 13, wherein the interference means is a Fizeau type interferometer.
(24)前記被測定物体を保持し、その位置および/ま
たは姿勢を調整する手段をさらに具備することを特徴と
する、特許請求の範囲第13項に記載の、物体の形状誤
差を測定する装置。
(24) An apparatus for measuring a shape error of an object according to claim 13, further comprising means for holding the object to be measured and adjusting its position and/or posture. .
(25)前記干渉縞を提供する手段はITVカメラであ
ることを特徴とする、特許請求の範囲第13項に記載の
、物体の形状誤差を測定する装置。
(25) The apparatus for measuring a shape error of an object according to claim 13, wherein the means for providing the interference fringes is an ITV camera.
JP12634786A 1986-05-31 1986-05-31 Measuring method of shape error of article and its apparatus Granted JPS62282205A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP12634786A JPS62282205A (en) 1986-05-31 1986-05-31 Measuring method of shape error of article and its apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP12634786A JPS62282205A (en) 1986-05-31 1986-05-31 Measuring method of shape error of article and its apparatus

Publications (2)

Publication Number Publication Date
JPS62282205A true JPS62282205A (en) 1987-12-08
JPH0426682B2 JPH0426682B2 (en) 1992-05-08

Family

ID=14932918

Family Applications (1)

Application Number Title Priority Date Filing Date
JP12634786A Granted JPS62282205A (en) 1986-05-31 1986-05-31 Measuring method of shape error of article and its apparatus

Country Status (1)

Country Link
JP (1) JPS62282205A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008209404A (en) * 2007-01-31 2008-09-11 Tokyo Institute Of Technology Measuring method of surface profile by a plurality of wavelengths and device using it
CN108917649A (en) * 2018-07-26 2018-11-30 深圳市智能机器人研究院 A kind of heavy caliber aspherical mirror structure light detection method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008209404A (en) * 2007-01-31 2008-09-11 Tokyo Institute Of Technology Measuring method of surface profile by a plurality of wavelengths and device using it
CN108917649A (en) * 2018-07-26 2018-11-30 深圳市智能机器人研究院 A kind of heavy caliber aspherical mirror structure light detection method

Also Published As

Publication number Publication date
JPH0426682B2 (en) 1992-05-08

Similar Documents

Publication Publication Date Title
US4697927A (en) Method and apparatus for measuring a forming error of an object
JP7286765B2 (en) confocal optical protractor
US5193120A (en) Machine vision three dimensional profiling system
US20120281240A1 (en) Error Compensation in Three-Dimensional Mapping
CN100485312C (en) Methods and apparatus for wavefront manipulations and improved three-dimension measurements
US20110096182A1 (en) Error Compensation in Three-Dimensional Mapping
EP2613121B1 (en) Image sensor, attitude detector, contact probe, and multi-sensing probe
JP2586931B2 (en) Camera ranging device
JPS5999304A (en) Method and apparatus for comparing and measuring length by using laser light of microscope system
WO2010077900A1 (en) Structured light imaging system and method
CN100405003C (en) Method and apparatus for correcting conversion coefficient of stripe gauging device and stripe gauging device
US7227627B1 (en) Optical biaxial angle sensor
JP5956296B2 (en) Shape measuring apparatus and shape measuring method
Engel 3D optical measurement techniques
JPS62282205A (en) Measuring method of shape error of article and its apparatus
Bräuer-Burchardt et al. High-speed three-dimensional measurements with a fringe projection-based optical sensor
JP5667891B2 (en) Shape measurement method
EP2955490B1 (en) Displacement detecting device
Meijer et al. Determination of the phase in the center of a circular two-beam interference pattern to determine the displacement of a rough surface
JP2009145068A (en) Surface profile measuring method and interferometer
JPH0798429A (en) Range finder
CN112325784B (en) Warpage detection method
JPS63138204A (en) Shape measuring method
KR20090010360A (en) A 3d shape measuring system using lateral scan
KR20090010350A (en) 3d shape measuring system using projection