JP2007271300A - Surface profile measuring method and device - Google Patents

Surface profile measuring method and device Download PDF

Info

Publication number
JP2007271300A
JP2007271300A JP2006093980A JP2006093980A JP2007271300A JP 2007271300 A JP2007271300 A JP 2007271300A JP 2006093980 A JP2006093980 A JP 2006093980A JP 2006093980 A JP2006093980 A JP 2006093980A JP 2007271300 A JP2007271300 A JP 2007271300A
Authority
JP
Japan
Prior art keywords
measurement
light
measured
data
cylinder
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006093980A
Other languages
Japanese (ja)
Other versions
JP4775072B2 (en
Inventor
Yohei Takechi
洋平 武智
Kenichiro Mase
健一郎 間瀬
Masahiro Kuwabara
雅弘 桑原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2006093980A priority Critical patent/JP4775072B2/en
Publication of JP2007271300A publication Critical patent/JP2007271300A/en
Application granted granted Critical
Publication of JP4775072B2 publication Critical patent/JP4775072B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To precisely acquire measurement data of an internal surface profile of a cylindrical member with no defect even for a complicated structure such as a groove or a rib, and to extend a measurement range in a height direction in profile measurement without deteriorating measurement accuracy. <P>SOLUTION: Slit-shaped measurement light is obliquely incident toward a cylindrical internal wall surface from both sides of two openings existing in a cylindrical object to be inspected, and the cylindrical internal surface profile is measured by a light sectioning method. Profile data acquired from two sets of measurement systems provided in substantially facing directions with respect to a part to be inspected are used complementarily to complement the measured profile data with a defect part. A light convergence point shifted for each wavelength is generated using a multi-wavelength light source and a collector lens having large wavelength dispersion so as to be used in the measurement, and the measurement accuracy is made compatible with a wide measurement range. According to the means, the internal profile of the cylindrical part having a complicated profile can be measured precisely without omission. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、被検面に対して複数の波長の測定光を投射し、その反射パターンを観察することによって被検面の表面形状を測定する技術に関するものである。   The present invention relates to a technique for measuring the surface shape of a test surface by projecting measurement light having a plurality of wavelengths onto the test surface and observing the reflection pattern.

従来の筒形状の内側を測定する技術として、図15に従来の筒内形状測定装置の断面図を示す(例えば、特許文献1参照)。   As a technique for measuring the inside of a conventional cylindrical shape, FIG. 15 shows a cross-sectional view of a conventional in-cylinder shape measuring apparatus (see, for example, Patent Document 1).

図15において、ケーシング1には、レーザ光源2A、2Bが取り付けられている。レーザ光源2A、2Bから出射されたレーザ光は、それぞれ平面鏡3により折り曲げられた後、さらに平面鏡4A、4Bで折り曲げられ、ケーシング1の窓5A、5Bから被検面6A、6Bに角度θで入射される。被検面6A、6Bに入射した後に反射したレーザ光は、再び窓5A、5Bに戻りレンズ7A、7Bとミラー8を経て光位置検出素子9に到達する。   In FIG. 15, laser light sources 2 </ b> A and 2 </ b> B are attached to the casing 1. The laser beams emitted from the laser light sources 2A and 2B are respectively bent by the plane mirror 3, and further bent by the plane mirrors 4A and 4B, and enter the test surfaces 6A and 6B from the windows 5A and 5B of the casing 1 at an angle θ. Is done. The laser light reflected after entering the test surfaces 6A and 6B returns to the windows 5A and 5B again and reaches the optical position detection element 9 through the lenses 7A and 7B and the mirror 8.

窓5A、5Bから被検面6A、6Bまでの距離に応じて、反射レーザ光のレンズ7A、7Bへの戻り位置が変化する。そのため、光位置検出素子9のレーザ光の到達位置も変化する。このように、平面鏡4A、4B、被検面6A、6B、レンズ7A、7Bとミラー8とによって、レーザによる三角測量を行うことで、窓5A、5Bから被検面6A、6Bまでの距離を算出することができる。   The return position of the reflected laser light to the lenses 7A and 7B varies depending on the distance from the windows 5A and 5B to the test surfaces 6A and 6B. Therefore, the arrival position of the laser beam of the optical position detection element 9 also changes. Thus, the distance from the windows 5A, 5B to the test surfaces 6A, 6B is obtained by performing triangulation with the laser using the plane mirrors 4A, 4B, the test surfaces 6A, 6B, the lenses 7A, 7B and the mirror 8. Can be calculated.

図16は、従来の筒内形状測定方法による測定状況を示す図である。   FIG. 16 is a diagram showing a measurement situation by a conventional in-cylinder shape measurement method.

ここで、被検面10がケーシング1の軸線とそろっていない場合は、窓5Aから出射した光の被検面10での反射光の軌跡は、図16の示すようにレンズ7Bに入射しない。また被検面11のように、溝形状が被検面上にある場合、被検面11で反射した光の軌跡も図16に示すようにレンズ7Aに入射しない。
特開平7−260439号公報(第7頁、図1)
Here, when the test surface 10 is not aligned with the axis of the casing 1, the locus of the light reflected from the test surface 10 of the light emitted from the window 5A does not enter the lens 7B as shown in FIG. Further, when the groove shape is on the test surface like the test surface 11, the locus of the light reflected by the test surface 11 does not enter the lens 7A as shown in FIG.
Japanese Patent Laid-Open No. 7-260439 (page 7, FIG. 1)

前記従来の構成では、被検面がケーシングの軸線と揃っていない場合は、被検面での反射光の反射角の誤差が大きくなり、レンズの移動幅も大きくなり、検出誤差が大きくなる。また、溝形状が被検面上にある場合、被検面で反射した光がレンズに戻るとは限らず、測定不能となる可能性が高い。従って、被検面の状態によっては、筒形状内側を測定することが出来ない場合がある。   In the conventional configuration, when the test surface is not aligned with the axis of the casing, the error in the reflection angle of the reflected light on the test surface increases, the lens movement width increases, and the detection error increases. Further, when the groove shape is on the test surface, the light reflected by the test surface does not always return to the lens, and there is a high possibility that measurement is impossible. Therefore, depending on the state of the test surface, the inner side of the cylindrical shape may not be measured.

また、筒形状内側の測定精度を向上させようとすると測定光を集光させる必要があるが、測定光を集光させると測定光の焦点から大きく外れた位置では測定光がデフォーカス状態になり、測定精度が低下する。従来の構成では、測定面の形状の誤差が大きい場合、デフォーカス状態になる可能性が高く、測定精度が低下しやすい。   In addition, when trying to improve the measurement accuracy inside the cylindrical shape, it is necessary to collect the measurement light. However, if the measurement light is collected, the measurement light will be in a defocused state at a position far from the focus of the measurement light. , Measurement accuracy decreases. In the conventional configuration, when there is a large error in the shape of the measurement surface, there is a high possibility that the measurement surface will be in a defocused state, and the measurement accuracy tends to decrease.

本発明は、前記従来の課題を解決するためのものであって、様々な被検面の構造において測定可能であり、また、測定精度の高い測定技術を提供することを目的とする。   An object of the present invention is to provide a measurement technique that can measure the structure of various test surfaces and has high measurement accuracy.

上記目的を達成するために、本発明の表面形状測定方法は、互いに波長の異なる光を相平行な光軸で被検面に照射し、前記被検面で反射した光を波長毎に分光し、前記分光された光の輝度に基づいて前記被検面の基準面からの距離を波長毎に計測した後、前記計測による波長毎の形状データを相対的にずらして重ね合わせることで、前記被検面の表面形状を測定することを特徴とする。   In order to achieve the above object, the surface shape measurement method of the present invention irradiates the test surface with light having different wavelengths from each other along phase-parallel optical axes, and splits the light reflected by the test surface for each wavelength. Then, after measuring the distance from the reference surface of the test surface for each wavelength based on the brightness of the dispersed light for each wavelength, the shape data for each wavelength by the measurement is relatively shifted and overlapped, It is characterized by measuring the surface shape of the inspection surface.

また、本発明の表面形状測定装置は、投光装置と前記投光装置から出射され被検面で反射した光を撮像する撮像装置と前記撮像装置で得られたデータを処理する処理装置とを備えた表面形状測定装置であって、投光装置は、互いに波長の異なる複数の光源と前記複数の光源からの光を相平行な光軸に変換する光学系とを有し、撮像装置は、互いに有効波長の異なる複数の撮像素子と前記撮像装置に入射した光を波長の異なる複数の光に分光する光学系とを有することを特徴とする。   The surface shape measuring device of the present invention includes a light projecting device, an image capturing device that captures light emitted from the light projecting device and reflected by a test surface, and a processing device that processes data obtained by the image capturing device. The surface shape measuring device includes a light projecting device having a plurality of light sources having different wavelengths from each other and an optical system that converts light from the plurality of light sources into phase-parallel optical axes. A plurality of imaging elements having different effective wavelengths and an optical system that splits light incident on the imaging device into a plurality of lights having different wavelengths.

以上のように、本発明の表面形状測定方法および測定装置によれば、様々な被検面の構造において測定することが可能で、測定精度の高い測定技術を提供することができる。   As described above, according to the surface shape measurement method and the measurement apparatus of the present invention, it is possible to perform measurements on various structures of the test surface, and provide a measurement technique with high measurement accuracy.

以下、本発明の実施の形態について、図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(実施の形態1)
図1は、実施の形態1における筒形状内側測定装置の概略図である。
(Embodiment 1)
FIG. 1 is a schematic diagram of a cylindrical inner side measuring apparatus according to the first embodiment.

図1において、本実施の形態の筒内形状測定装置は、投光装置12A、12Bと、撮像装置13A、13Bから構成される。また、被検物である被測定円筒14は、開口15A、15Bの2つの開口部を有している。本実施の形態では、第1の開口15A側に、第1の投光装置12Aと第2の撮像装置13Bとが配置され、第2の開口15B側に、第1の撮像装置13Aと第2の投光装置12Bとが配置されている。   In FIG. 1, the in-cylinder shape measuring device of the present embodiment is composed of light projecting devices 12A and 12B and imaging devices 13A and 13B. Moreover, the measurement cylinder 14 which is a test object has two openings, openings 15A and 15B. In the present embodiment, the first light projecting device 12A and the second imaging device 13B are arranged on the first opening 15A side, and the first imaging device 13A and the second imaging device 13B are arranged on the second opening 15B side. Are arranged.

第1の投光装置12Aと第1の撮像装置13Aは、第1の投光装置12Aから出射された第1の測定光16が測定箇所17に照射されて生じる反射光を第1の撮像装置13Aで観察できるように配置されている。また、第2の投光装置12Bと第2の撮像装置13Bは、第2の投光装置12Bから出射された第2の測定光18が測定箇所17に照射されて生じる反射光を第2の撮像装置13Bで観察できるように配置されている。   The first light-projecting device 12A and the first image-capturing device 13A use the first image-capturing device to generate reflected light generated by irradiating the measurement spot 17 with the first measurement light 16 emitted from the first light-projecting device 12A. It arrange | positions so that it can observe by 13A. In addition, the second light projecting device 12B and the second imaging device 13B provide the second reflected light generated by irradiating the measurement location 17 with the second measurement light 18 emitted from the second light projecting device 12B. It arrange | positions so that it can observe with the imaging device 13B.

また、第1の投光装置12A、第1の撮像装置13A、第2の投光装置12B、第2の撮像装置13Bとは、それぞれ機械的干渉をしない位置に配置されている。   In addition, the first light projecting device 12A, the first image capturing device 13A, the second light projecting device 12B, and the second image capturing device 13B are disposed at positions where no mechanical interference occurs.

なお、測定箇所17に照射されるまでの第1の測定光16と測定箇所17に照射されるまでの第2の測定光18のなす角は、第1の測定光16と第2の測定光18が被測定円筒14に遮られない条件のうち、値が最小になる角度を取ることが望ましい。   The angle between the first measurement light 16 until the measurement point 17 is irradiated and the second measurement light 18 until the measurement point 17 is irradiated is the first measurement light 16 and the second measurement light. Of the conditions in which 18 is not obstructed by the cylinder 14 to be measured, it is desirable to take an angle that minimizes the value.

これは、第1の測定光16と第2の測定光18のなす角度を小さくすることで、第1の測定光16と第2の測定光18を用いて同一の測定箇所17を観測する場合のそれぞれ異なる観測方向のなす角度を90°に近くすることと等価であり、そのようにすることで溝や凹凸から構成される測定箇所17に対して、第1の測定光16と第2の測定光18の少なくとも一方は溝や凹凸に遮られることなく投光できるようにするためである。   In this case, the same measurement point 17 is observed using the first measurement light 16 and the second measurement light 18 by reducing the angle formed by the first measurement light 16 and the second measurement light 18. It is equivalent to making the angle formed by the different observation directions close to 90 °. By doing so, the first measurement light 16 and the second measurement light 17 are measured with respect to the measurement point 17 constituted by grooves and irregularities. This is because at least one of the measurement lights 18 can be projected without being interrupted by the grooves or irregularities.

図2は、図1の筒内形状測定装置を矢印Aの方向から見た概略断面図である。   FIG. 2 is a schematic cross-sectional view of the in-cylinder shape measuring apparatus of FIG.

図2において、第1の投光装置12Aと第1の撮像装置13Aとを結ぶ直線と、第2の投光装置12Bと第2の撮像装置13Bとを結ぶ直線とは、被測定円筒14の円筒形状から定まる被測定円筒軸19と同一にならないように配置されている。   In FIG. 2, the straight line connecting the first light projecting device 12 </ b> A and the first imaging device 13 </ b> A and the straight line connecting the second light projecting device 12 </ b> B and the second imaging device 13 </ b> B are They are arranged so as not to be the same as the measured cylindrical shaft 19 determined from the cylindrical shape.

第1の投光装置12Aから出射された第1の測定光16は、測定箇所17に集光され、第1のライン状測定光20Aとなる。同様に、第2の投光装置12Bから出射された第2の測定光18は、測定箇所17に集光され、第2のライン状測定光20Bとなる。   The first measurement light 16 emitted from the first light projecting device 12A is collected at the measurement location 17 and becomes the first line-shaped measurement light 20A. Similarly, the second measurement light 18 emitted from the second light projecting device 12B is condensed at the measurement location 17 and becomes the second linear measurement light 20B.

第1のライン状測定光20Aと第2のライン状測定光20Bとは測定箇所17において互いに交差するように配置されている。測定箇所17の領域は、第1の撮像装置13A、第2の撮像装置13Bのどちらからも観察可能な位置となるように構成されている。   The first linear measurement light 20 </ b> A and the second linear measurement light 20 </ b> B are arranged so as to cross each other at the measurement location 17. The region of the measurement location 17 is configured to be a position that can be observed from both the first imaging device 13A and the second imaging device 13B.

第1の撮像装置13Aと第2の撮像装置13Bは、それぞれ第1の画像データ合成装置21A、第2の画像データ合成装置21Bとに接続されている。第1の画像データ合成装置21Aと第2の画像データ合成装置21Bは、更に画像データ解析装置22に接続されており、画像データ解析装置22は画像表示装置23に接続されている。   The first imaging device 13A and the second imaging device 13B are connected to the first image data synthesis device 21A and the second image data synthesis device 21B, respectively. The first image data synthesizing device 21A and the second image data synthesizing device 21B are further connected to an image data analyzing device 22, and the image data analyzing device 22 is connected to an image display device 23.

ここで、それぞれの測定光16、18が測定箇所17で反射して生じる反射光の中で、正反射となる反射光を直接それぞれの撮像装置13A、13Bで撮像しないようにすることが望ましい。例えば、第1の測定光16の光軸が測定箇所17で正反射した後の光軸と、第1の撮像装置13Aの光軸とが一致しない位置に第1の撮像装置13Aを配置されること等により実現される。   Here, it is desirable not to directly capture the reflected light that is regularly reflected among the reflected light generated by reflecting the respective measurement lights 16 and 18 at the measurement location 17 with the respective imaging devices 13A and 13B. For example, the first imaging device 13A is arranged at a position where the optical axis after the optical axis of the first measurement light 16 is regularly reflected at the measurement location 17 and the optical axis of the first imaging device 13A do not coincide. This is realized.

これは、それぞれの投光装置12A、12Bからの出射光のパワーにも拠るが、測定箇所17の凹凸によってそれぞれのライン状測定光20A、20Bの輝度が大幅に変化するのを防ぐことを目的とするためである。   This is based on the power of the emitted light from each of the light projecting devices 12A and 12B, but it is intended to prevent the brightness of each of the line-shaped measurement lights 20A and 20B from changing significantly due to the unevenness of the measurement location 17. This is because.

なお、それぞれの撮像装置13A、13Bの調整によって、測定箇所17で正反射した場合の反射光と正反射しない場合の反射光との輝度の変化分を吸収できる場合は、上記、それぞれの撮像装置13A、13Bと反射光の光軸との相対位置関係について考慮する必要は無い。   In addition, when adjustment of each imaging device 13A and 13B can absorb the change in luminance between the reflected light when specularly reflected at the measurement location 17 and the reflected light when not regularly reflected, each of the imaging devices described above is used. There is no need to consider the relative positional relationship between 13A and 13B and the optical axis of the reflected light.

また、被測定円筒14は、円筒状の部材を固定することが可能な移動ステージ24に固定されており、移動ステージ24は、被測定円筒軸19の平行方向(図2の矢印Cの方向)への直進動作と、被測定円筒軸19の周方向(図2の矢印Dの方向)に関する回転動作を行うことが可能な構成となっている。更に、移動ステージ24は、矢印C方向の直線移動量と矢印D方向の回転角度を管理するスケールを備えており、所定の位置からの移動ステージ24の移動量を把握することができる。   The cylinder 14 to be measured is fixed to a moving stage 24 capable of fixing a cylindrical member, and the moving stage 24 is parallel to the cylinder axis 19 to be measured (direction of arrow C in FIG. 2). It is configured to be able to perform a straight movement operation and a rotation operation in the circumferential direction of the cylindrical shaft 19 to be measured (direction of arrow D in FIG. 2). Furthermore, the moving stage 24 includes a scale that manages the linear movement amount in the direction of arrow C and the rotation angle in the direction of arrow D, and can grasp the movement amount of the moving stage 24 from a predetermined position.

移動ステージ24は、ステージ動作装置25に接続されており、ステージ動作装置25は、画像データ解析装置22に接続されている。   The moving stage 24 is connected to a stage operating device 25, and the stage operating device 25 is connected to the image data analyzing device 22.

図3は、図2の筒内形状測定装置を矢印Bの方向から見た概略断面図である。   FIG. 3 is a schematic cross-sectional view of the in-cylinder shape measuring apparatus of FIG.

なお、図3では説明のために第2の投光装置12B、第2の撮像装置13Bは省略して開示している。   In FIG. 3, the second light projecting device 12 </ b> B and the second imaging device 13 </ b> B are omitted for explanation.

図3において、第1の投光装置12Aは、第1のレーザ光源26(第1の赤色レーザ光源26R、第1の緑色レーザ光源26G、第1の青色レーザ光源26B)と、第1のコリメートレンズ27(第1の赤色用コリメートレンズ27R、第1の緑色用コリメートレンズ27G、第1の青色用コリメートレンズ27B)と、第1のシリンドリカルレンズ28と、第1のプリズムミラー29と、第1の偏光素子30とから構成されている。   In FIG. 3, the first projector 12A includes a first laser light source 26 (first red laser light source 26R, first green laser light source 26G, first blue laser light source 26B) and a first collimator. Lens 27 (first red collimating lens 27R, first green collimating lens 27G, first blue collimating lens 27B), first cylindrical lens 28, first prism mirror 29, and first And the polarizing element 30.

ここで、各色用コリメートレンズとして記載しているが、これは、入射した各色の波長域の光を平行光にするためのレンズである。   Here, although described as a collimating lens for each color, this is a lens for converting incident light in the wavelength region of each color into parallel light.

また、第1のプリズムミラー29は、入射した赤色、青色、緑色の周波数毎の光の光軸を揃えるために、第1のプリズムミラー赤色反射面29R、第1のプリズムミラー青色反射面29Bを有する。   Further, the first prism mirror 29 includes a first prism mirror red reflecting surface 29R and a first prism mirror blue reflecting surface 29B in order to align the optical axes of incident light for each frequency of red, blue, and green. Have.

第1の撮像装置13Aは、第1の撮像素子31(第1の赤色用撮像素子31R、第1の緑色用撮像素子31G、第1の青色用撮像素子31B)と、第1の分光プリズム32と、第1の結像レンズ33と、第1の対物レンズ34と、第1の偏光フィルタ35とから構成されている。ここで、第1の分光プリズム32は、入射した光を赤色、青色、緑色の周波数毎の光に分割するために、第1の分光プリズム赤色反射面32R、第1の分光プリズム青色反射面32Bを有する。   The first imaging device 13A includes a first imaging element 31 (a first red imaging element 31R, a first green imaging element 31G, and a first blue imaging element 31B), and a first spectral prism 32. And a first imaging lens 33, a first objective lens 34, and a first polarizing filter 35. Here, the first spectral prism 32 has a first spectral prism red reflecting surface 32R and a first spectral prism blue reflecting surface 32B in order to divide the incident light into light of red, blue and green frequencies. Have

第1の投光装置12A内の第1の赤色レーザ光源26R、第1の緑色レーザ光源26G、青色レーザ光源26Bからそれぞれ出射された光は、それぞれ第1の赤色用コリメートレンズ27R、第1の緑色用コリメートレンズ27G、第1の青色用コリメートレンズ27Bで屈折して平行光となり、第1のプリズムミラー29に入射する。第1の赤色レーザ光源26Rからの光は第1のプリズムミラー赤色反射面29Rで反射され、第1の青色レーザ光源26Bからの光は第1のプリズムミラー青色反射面29Bで反射され、第1の緑色レーザ光源26Gからの光は第1のプリズムミラー29を直進する。第1のプリズムミラー29からのそれぞれの光は、光軸を等しくして第1のシリンドリカルレンズ28を通過して、第1の測定光源光軸36方向に平行な方向に集光される。   The lights emitted from the first red laser light source 26R, the first green laser light source 26G, and the blue laser light source 26B in the first light projecting device 12A are respectively the first red collimating lens 27R and the first red laser light source 26B. The light is refracted by the green collimating lens 27 </ b> G and the first blue collimating lens 27 </ b> B to become parallel light, and is incident on the first prism mirror 29. The light from the first red laser light source 26R is reflected by the first prism mirror red reflecting surface 29R, the light from the first blue laser light source 26B is reflected by the first prism mirror blue reflecting surface 29B, and the first The light from the green laser light source 26G travels straight through the first prism mirror 29. Each light from the first prism mirror 29 passes through the first cylindrical lens 28 with the same optical axis, and is condensed in a direction parallel to the first measurement light source optical axis 36 direction.

また、第1のプリズムミラー29に第1のプリズムミラー赤色反射面29R、第1のプリズムミラー青色反射面29Bを設けたが、周波数毎の光の光軸を揃えるという目的を満たすならば、これらの内いずれか一方と置き換えて緑色反射面を設けても良い。   The first prism mirror 29 is provided with the first prism mirror red reflecting surface 29R and the first prism mirror blue reflecting surface 29B. If the purpose of aligning the optical axes of the light for each frequency is satisfied, these are provided. A green reflecting surface may be provided by replacing any one of the above.

測定箇所17を反射した光は第1のライン状測定光37となる。具体的には、第1の赤色レーザ光源26Rから第1のプリズムミラー29を介して出射された第1の赤色測定光16Rは、測定箇所17においてY方向に平行な細い第1の赤色ライン状測定光37Rとなる。同様に、第1の緑色レーザ光源26Gからの第1の緑色測定光16Gは、第1の緑色ライン状測定光37Gとなり、第1の青色レーザ光源26Bからの第1の青色測定光16Bは、第1の青色ライン状測定光37Bとなる。   The light reflected from the measurement location 17 becomes the first linear measurement light 37. Specifically, the first red measurement light 16R emitted from the first red laser light source 26R through the first prism mirror 29 is a thin first red line shape parallel to the Y direction at the measurement location 17. It becomes the measurement light 37R. Similarly, the first green measurement light 16G from the first green laser light source 26G becomes the first green line-shaped measurement light 37G, and the first blue measurement light 16B from the first blue laser light source 26B is The first blue line-shaped measurement light 37B is obtained.

第1のシリンドリカルレンズ28は、例えばアッベ数が40以下の光学材料など、波長分散の大きな光学材料を用いる。このような材料を用いることにより、第1の赤色測定光16R、第1の緑色測定光16G、第1の青色測定光16Bのそれぞれの集光位置を第1の測定光源光軸36方向で変化させることができる。   The first cylindrical lens 28 uses an optical material having a large wavelength dispersion, such as an optical material having an Abbe number of 40 or less. By using such a material, the respective condensing positions of the first red measurement light 16R, the first green measurement light 16G, and the first blue measurement light 16B are changed in the direction of the first measurement light source optical axis 36. Can be made.

このようにして、測定箇所17に照射されたそれぞれのライン状測定光37が測定箇所17付近にそれぞれ照射された像を、第1の撮像装置13Aで撮像する。   In this manner, the first imaging device 13 </ b> A captures an image in which each of the linear measurement light 37 irradiated to the measurement location 17 is irradiated in the vicinity of the measurement location 17.

具体的には、第1の赤色ライン状測定光37Rが測定箇所17付近に照射された像は、測定箇所17付近にて反射し、第1の偏光フィルタ35、第1の対物レンズ34、第1の結像レンズ33を介して第1の分光プリズム32に入射する。第1の赤色ライン状測定光37Rが測定箇所17付近で反射した光は、第1の分光プリズム赤色反射面32Rで反射され、第1の赤色用撮像素子31R上に結像する。同様に、第1の緑色ライン状測定光37Rが測定箇所17付近で反射した光は、第1の分光プリズム32を直進して第1の緑色撮像素子31G上に結像し、第1の青色ライン状測定光37Bが測定箇所17付近で反射した光は、第1の分光プリズム青色反射面32Bで反射され、第1の青色用撮像素子31B上に結像する。   Specifically, the image irradiated with the first red linear measurement light 37R near the measurement location 17 is reflected near the measurement location 17, and the first polarizing filter 35, the first objective lens 34, the first The light enters the first spectroscopic prism 32 through one imaging lens 33. The light reflected by the first red line-shaped measurement light 37R in the vicinity of the measurement location 17 is reflected by the first spectral prism red reflecting surface 32R and forms an image on the first red image pickup device 31R. Similarly, the light reflected by the first green line-shaped measurement light 37R in the vicinity of the measurement point 17 travels straight through the first spectral prism 32 and forms an image on the first green image pickup device 31G, thereby forming the first blue color. The light reflected by the line-shaped measurement light 37B in the vicinity of the measurement location 17 is reflected by the first spectral prism blue reflection surface 32B and forms an image on the first blue image pickup device 31B.

また、第1の分光プリズム32に第1の分光プリズム赤色反射面32Rと第1の分光プリズム青色反射面32Bを設けたが、周波数毎の光に分割するという目的を満たすならば、これらの内いずれか一方と置き換えて緑色反射面を設けても良い。   Further, the first spectral prism 32 is provided with the first spectral prism red reflecting surface 32R and the first spectral prism blue reflecting surface 32B. If the purpose of dividing the light into each frequency is satisfied, these may be included. A green reflective surface may be provided by replacing either one.

第1の赤色用撮像素子31Rは、第1の結像レンズ33と第1の対物レンズ34を通して測定箇所17を観察する場合に、第1の赤色用撮像素子31Rの中央に第1の赤色ライン状測定光37Rが結像するように配置されている。同様に、第1の緑色用撮像素子31Gは第1の緑色用撮像素子31Gの中央に第1の緑色ライン状測定光37Rが結像するように配置され、第1の青色用撮像素子31Bは、第1の青色用撮像素子31Bの中央に第1の青色ライン状測定光37Bが結像するように配置される。3つの撮像素子は個別に光軸合わせがされている。これにより、1つの撮像素子に対して1つの波長光のライン状測定光だけを捉えることが可能になる。   The first red imaging device 31R has a first red line at the center of the first red imaging device 31R when the measurement location 17 is observed through the first imaging lens 33 and the first objective lens 34. The measurement light 37R is arranged so as to form an image. Similarly, the first green image sensor 31G is arranged so that the first green line-shaped measurement light 37R forms an image at the center of the first green image sensor 31G, and the first blue image sensor 31B is The first blue line-shaped measurement light 37B is arranged in the center of the first blue image pickup device 31B. The three image sensors are individually optical axis aligned. Thereby, it becomes possible to capture only the linear measurement light of one wavelength light with respect to one imaging device.

このような構成とすることにより、1つの撮像装置に対して1種類の波長光のライン状測定光だけを捕らえることが可能になる。   By adopting such a configuration, it becomes possible to capture only one type of line-shaped measurement light of wavelength light with respect to one imaging apparatus.

第1の偏光素子30の偏光軸と、第1の偏光フィルタ35の偏光軸の向きは一致させておく。   The direction of the polarization axis of the first polarizing element 30 and the direction of the polarization axis of the first polarizing filter 35 are matched.

第1の赤色用撮像素子31R、第1の緑色用撮像素子31G、第1の青色用撮像素子31Bは、それぞれ第1の画像データ合成装置21Aに接続されている。第1の画像データ合成装置21Aにて、第1の赤色用撮像素子31R、第1の緑色用撮像素子31G、第1の青色用撮像素子31Bから送られた画像データを1つのデータにまとめる。   The first red image sensor 31R, the first green image sensor 31G, and the first blue image sensor 31B are each connected to the first image data composition device 21A. In the first image data synthesis device 21A, the image data sent from the first red image sensor 31R, the first green image sensor 31G, and the first blue image sensor 31B are combined into one data.

第1の画像データ合成装置21Aは、更に第1の画像表示装置23に接続されており、図3の第1の画像表示装置23内に示したように、第1のライン状測定光37が測定箇所17に照射されている像を表示する。   The first image data synthesizing device 21A is further connected to the first image display device 23. As shown in the first image display device 23 of FIG. An image irradiated on the measurement spot 17 is displayed.

ここで、第1の投光装置12Aと第1の撮像装置13Aとは、被測定円筒軸19を挟んでY軸方向にずれた位置に存在する。   Here, the first light projecting device 12 </ b> A and the first imaging device 13 </ b> A exist at positions shifted in the Y-axis direction with the measured cylindrical shaft 19 in between.

図4に、図3の筒内形状測定装置の斜視図を示す。   FIG. 4 is a perspective view of the in-cylinder shape measuring apparatus of FIG.

図4は、第1の投光装置12Aと第1の撮像装置13Aとの位置関係を明確にするために示したものであり、図3とは異なる方向から測定箇所17付近及び、第1の投光装置12Aと第1の撮像装置13Aとの位置関係の概略を示す図である。   FIG. 4 is shown in order to clarify the positional relationship between the first light projecting device 12A and the first imaging device 13A, and the vicinity of the measurement point 17 and the first location from a direction different from FIG. It is a figure which shows the outline of the positional relationship of 12 A of light projection apparatuses, and the 1st imaging device 13A.

図5は、図2の筒内形状測定装置を矢印Bの方向から見た概略断面図である。ただし、図5では説明のために第1の投光装置12A、第1の撮像装置13Aは省略して開示している。また、図5において、図3と同じ符号に関しては、説明を省略する。   FIG. 5 is a schematic cross-sectional view of the in-cylinder shape measuring apparatus of FIG. However, in FIG. 5, the first light projecting device 12 </ b> A and the first imaging device 13 </ b> A are omitted for explanation. In FIG. 5, description of the same reference numerals as those in FIG. 3 is omitted.

図5において、第2の投光装置12Bは、第2の赤色レーザ光源38R、第2の緑色レーザ光源38G、第2の青色レーザ光源38Bと、第2の赤色用コリメートレンズ39R、第2の緑色用コリメートレンズ39G、第2の青色用コリメートレンズ39Bと、第2のシリンドリカルレンズ40と、第2のプリズムミラー41と、第2の偏光素子42とから構成されている。また、第2のプリズムミラー41は、入射した赤色、青色、緑色の周波数毎の光の光軸を揃えるために、第2のプリズムミラー赤色反射面41R、第2のプリズムミラー青色反射面41Bを有する。   In FIG. 5, the second light projector 12B includes a second red laser light source 38R, a second green laser light source 38G, a second blue laser light source 38B, a second red collimating lens 39R, It comprises a green collimating lens 39G, a second blue collimating lens 39B, a second cylindrical lens 40, a second prism mirror 41, and a second polarizing element 42. Further, the second prism mirror 41 includes a second prism mirror red reflection surface 41R and a second prism mirror blue reflection surface 41B in order to align the optical axes of incident light for each frequency of red, blue, and green. Have.

第2の撮像装置13Bは、第2の赤色用撮像素子43R、第2の緑色用撮像素子43G、第2の青色用撮像素子43Bと、第2の分光プリズム44と、第2の結像レンズ45と、第2の対物レンズ46と、第2の偏光フィルタ47とから構成されている。ここで、第2の分光プリズム44は、入射した光を赤色、青色、緑色の周波数毎の光に分割するために、第2の分光プリズム赤色反射面44R、第2の分光プリズム青色反射面44Bを有する。   The second imaging device 13B includes a second red imaging element 43R, a second green imaging element 43G, a second blue imaging element 43B, a second spectral prism 44, and a second imaging lens. 45, a second objective lens 46, and a second polarizing filter 47. Here, the second spectral prism 44 has a second spectral prism red reflecting surface 44R and a second spectral prism blue reflecting surface 44B in order to divide the incident light into light of red, blue and green frequencies. Have

第2の赤色レーザ光源38Rから第2のプリズムミラー41を介して出射された第2の赤色測定光18Rは、測定箇所17においてY方向に平行な細い第2の赤色ライン状測定光48Rとなる。同様に、第2の緑色レーザ光源38Gからの第2の緑色測定光18Gは、第2の緑色ライン状測定光48Gとなり、第2の青色レーザ光源38Bからの第2の青色測定光18Bは、第2の青色ライン状測定光48Bとなる。   The second red measurement light 18R emitted from the second red laser light source 38R through the second prism mirror 41 becomes a thin second red line-shaped measurement light 48R parallel to the Y direction at the measurement location 17. . Similarly, the second green measurement light 18G from the second green laser light source 38G becomes the second green line-shaped measurement light 48G, and the second blue measurement light 18B from the second blue laser light source 38B is The second blue line-shaped measurement light 48B is obtained.

ただし、第2の偏光素子42の偏光軸と第2の偏光フィルタ47の偏光軸の向きは、第1の偏光素子30と第1の偏光フィルタ35の向きと直交するように調整しておく。   However, the direction of the polarization axis of the second polarizing element 42 and the direction of the polarization axis of the second polarizing filter 47 are adjusted so as to be orthogonal to the directions of the first polarizing element 30 and the first polarizing filter 35.

これにより、第1の測定光16は第2の撮像装置13Bに入射する前に第1の偏光フィルタ35に遮られるので、第1の測定光16が第2の撮像装置13Bに入射する、又は逆に第2の測定光18が第1の撮像装置13Aに入射することにより、それぞれの撮像装置に計測に用いない光が検出されることで生じる形状測定データの精度低下を防止できる。   As a result, the first measurement light 16 is blocked by the first polarizing filter 35 before entering the second imaging device 13B, so that the first measurement light 16 enters the second imaging device 13B, or Conversely, when the second measurement light 18 is incident on the first imaging device 13A, it is possible to prevent a decrease in accuracy of the shape measurement data caused by detection of light not used for measurement in each imaging device.

まず、互いに異なる3波長を用いた測定系に用いて、筒内面形状の深さ方向に測定範囲を広げる方法について、図6〜図9を用いて説明する。   First, a method of expanding the measurement range in the depth direction of the cylindrical inner surface shape using measurement systems using three different wavelengths will be described with reference to FIGS.

図6は、図3の測定箇所17付近を拡大した模式図である。   FIG. 6 is an enlarged schematic view of the vicinity of the measurement location 17 in FIG.

図6において、測定箇所17付近にある溝構造54の形状データを取得する場合、第1の赤色ライン状測定光37R、第1の緑色ライン状測定光37G、第1の青色ライン状測定光37Bのそれぞれの筒内面への投影像を撮像光学系で観察するが、図4で示したように波長の異なる測定光の像は、それぞれ集光位置が異なるため、撮像素子はライン状測定光の種類に応じて使用する必要がある。   In FIG. 6, when acquiring the shape data of the groove structure 54 in the vicinity of the measurement location 17, the first red line-shaped measurement light 37R, the first green line-shaped measurement light 37G, and the first blue line-shaped measurement light 37B. As shown in FIG. 4, the image of the measurement light having different wavelengths has a different condensing position. It is necessary to use depending on the type.

図6において、第1の撮像装置13Aは、第1の赤色用撮像素子31Rの中央付近に第1の赤色ライン状測定光37Rが結像するように調整されており、同様に第1の緑色用撮像素子31Gの中央付近に第1の緑色ライン状測定光37Gが、第1の青色用撮像素子31Bの中央付近に第1の青色ライン状測定光37Bが結像するように調整されている。   In FIG. 6, the first image pickup device 13A is adjusted so that the first red line-shaped measurement light 37R forms an image near the center of the first red image pickup device 31R. The first green line-shaped measurement light 37G is adjusted to form an image near the center of the first image pickup element 31B, and the first blue line-like measurement light 37B is formed near the center of the first blue image pickup element 31B. .

そのため、被測定円筒14の内面形状を第1の撮像装置13Aで観察する場合、図6において、第1の赤色用撮像素子31Rで観察している筒内面形状高さ範囲は第1の赤色観察領域56Rとなり、同様に第1の緑色用撮像素子31Gで観察している筒内面形状高さ範囲は第1の緑色観察領域56G、第1の青色用撮像素子31Bで観察している筒内面形状高さ第1の範囲は青色観察領域56Bとなる。   Therefore, when the inner surface shape of the cylinder 14 to be measured is observed with the first imaging device 13A, the height range of the cylinder inner surface shape observed with the first red image pickup device 31R in FIG. 6 is the first red observation. Similarly, the cylinder inner surface shape height range observed by the first green image pickup device 31G is the region 56R, and the cylinder inner surface shape observed by the first green image pickup region 31G and the first blue image pickup device 31B. The first height range is the blue observation region 56B.

ここで第1の赤色観察領域56R、第1の緑色観察領域56G、第1の青色観察領域56Bは、高さ方向(図12のh方向)に10〜15%程度に重なるように第1の撮像装置13Aを調整しておく。   Here, the first red observation area 56R, the first green observation area 56G, and the first blue observation area 56B are overlapped by about 10 to 15% in the height direction (h direction in FIG. 12). The imaging device 13A is adjusted in advance.

図7は、実施の形態1における3つの筒内面形状データの結合状況を示す図である。図7(a)は、実施の形態1における3つの波長のそれぞれの測定データを示す図であり、図7(b)は、図7(a)で得られた3つのデータの結合状況を示す図であり、図7(c)は、図7(b)で得られた結合データを1つのデータに集約した図である。   FIG. 7 is a diagram showing a coupling state of three cylinder inner surface shape data in the first embodiment. FIG. 7A is a diagram showing measurement data of each of the three wavelengths in the first embodiment, and FIG. 7B shows a combination state of the three data obtained in FIG. 7A. FIG. 7C is a diagram in which the combined data obtained in FIG. 7B is integrated into one data.

図7(a)において、3つの撮像素子画像データから算出された筒内形状データを、それぞれ赤色形状データ57R、緑色形状データ57G、青色形状データ57Bとすると、赤色形状データ57R(WR、hR)、緑色形状データ57G(WG、hG)、青色形状データ57B(WB、hB)が得られる。 In FIG. 7A, assuming that the in-cylinder shape data calculated from the three image sensor image data is red shape data 57R, green shape data 57G, and blue shape data 57B, respectively, red shape data 57R (W R , h R ), green shape data 57G (W G , h G ), and blue shape data 57B (W B , h B ).

第1の撮像装置13Aの調整やそれぞれの撮像素子の設置誤差により、各波長の撮像素子で観察している領域が異なるため、赤色形状データ57R(WR、hR)、緑色形状データ57G(WG、hG)、青色形状データ57B(WB、hB)の間にはh(高さ)座標にもW(位置)座標にもオフセットが含まれている。赤色形状データ57R(WR、hR)に対する緑色形状データ57G(WG、hG)のオフセット量を(WP、hP)とし、赤色形状データ57R(WR、hR)に対する青色形状データ57B(WB、hB)のオフセット量を(WQ、hQ)とする。赤色形状データ57R、緑色形状データ57G、青色形状データ57Bの相対的な関係を図7(b)に示す。緑色形状データ57G(WG、hG)、青色形状データ57B(WB、hB)にオフセット量(WP、hP)、(WQ、hQ)を加えて(WG+WP、hG+hP)、(WB+WQ、hB+hQ)とすることで赤色形状データ57R、緑色形状データ57G、青色形状データ57Bをまとめて、図7(c)に示すように観察領域の筒内面形状データ(W、h)とすることができる。ここで、赤色形状データ57Rと、緑色形状データ57G、青色形状データ57Bとを測定箇所17の被検面の高さ方向(被検面の深さ方向)に相対的にずらして重ね合わせる。そして、そのずらす量は色毎の光の焦点距離に応じて決定し、焦点距離が深いほど、深さ方向に深くなるようにずらす。 Since the region observed by the image sensor of each wavelength varies depending on the adjustment of the first image pickup device 13A and the installation error of each image sensor, the red shape data 57R (W R , h R ) and the green shape data 57G ( Between W G , h G ) and blue shape data 57B (W B , h B ), offsets are included in both h (height) coordinates and W (position) coordinates. The offset amount of the green shape data 57G (W G , h G ) with respect to the red shape data 57R (W R , h R ) is (W P , h P ), and the blue shape with respect to the red shape data 57R (W R , h R ) The offset amount of the data 57B (W B , h B ) is assumed to be (W Q , h Q ). FIG. 7B shows the relative relationship between the red shape data 57R, the green shape data 57G, and the blue shape data 57B. The offset values (W P , h P ), (W Q , h Q ) are added to the green shape data 57G (W G , h G ) and the blue shape data 57B (W B , h B ), and (W G + W P , h G + h P ), (W B + W Q , h B + h Q ), and the red shape data 57R, the green shape data 57G, and the blue shape data 57B are collected into an observation region as shown in FIG. Cylinder inner surface shape data (W, h). Here, the red shape data 57R, the green shape data 57G, and the blue shape data 57B are superimposed while being shifted relative to each other in the height direction of the measurement surface 17 (the depth direction of the test surface). The amount of shift is determined according to the focal length of light for each color, and the shift is performed so that the deeper the focal length, the deeper the depth.

図8は、実施の形態1における3波長の光源を用いた測定の処理フローを示す図である。図8における具体的な形状データ取得の詳細は後述するため、ここでは省略する。   FIG. 8 is a diagram showing a processing flow of measurement using a light source of three wavelengths in the first embodiment. Details of specific shape data acquisition in FIG. 8 will be described later, and will be omitted here.

図8において、まずステップS1〜ステップS3において、第1の測定系を用いて被測定円筒14の筒内面形状データを取得する。この時、第1の赤色ライン状測定光37R、第1の緑色ライン状測定光37G、第1の青色ライン状測定光37Bの筒内面への投影像を第1の撮像装置13Aで撮像することにより、第1の赤色用撮像素子31R、第1の緑色用撮像素子31G、第1の青色用撮像素子31Bから測定箇所17の形状を反映した画像データが得られ、画像データから赤色形状データ57R(WR、hR)、緑色形状データ57G(WG、hG)、青色形状データ57B(WB、hB)が得られる。 In FIG. 8, first, in step S1 to step S3, the cylinder inner surface shape data of the cylinder 14 to be measured is acquired by using the first measurement system. At this time, the first imaging device 13A captures projection images of the first red line-shaped measurement light 37R, the first green line-shaped measurement light 37G, and the first blue line-shaped measurement light 37B on the inner surface of the cylinder. Thus, image data reflecting the shape of the measurement location 17 is obtained from the first red image sensor 31R, the first green image sensor 31G, and the first blue image sensor 31B, and the red shape data 57R is obtained from the image data. (W R , h R ), green shape data 57G (W G , h G ), and blue shape data 57B (W B , h B ) are obtained.

次に、ステップS4、ステップS5において、緑色形状データ57G(WG、hG)、青色形状データ57B(WB、hB)に赤色形状データ57R(WR、hR)に対するオフセット量(WP、hP)、(WQ、hQ)を加えてオフセット補正後の緑色形状データ57G’(W’G、h’G)=(WG+WP、hG+hP)、オフセット補正後の青色形状データ57B’(W’B、h’B)=(WB+WQ、hB+hQ)を得る。 Next, in steps S4 and S5, an offset amount (W for green shape data 57G (W G , h G ), blue shape data 57B (W B , h B ) with respect to red shape data 57R (W R , h R ). Green shape data 57G ′ (W ′ G , h ′ G ) = (W G + W P , h G + h P ) after offset correction by adding P , h P ), (W Q , h Q ), after offset correction The blue shape data 57B ′ (W ′ B , h ′ B ) = (W B + W Q , h B + h Q ) is obtained.

このようにして得られた赤色形状データ57R(WR、hR)とオフセット後の緑色形状データ57G’(W’G、h’G)とオフセット後の青色形状データ57B’(W’B、h’B)を、ステップS6において、図7に示すようにそれぞれ重ね合わせることで実際の表面形状を形成し、測定を終了する。 The red shape data 57R (W R , h R ) obtained in this way, the offset green shape data 57G ′ (W ′ G , h ′ G ), and the offset blue shape data 57B ′ (W ′ B , In step S6, h ′ B ) are superimposed on each other as shown in FIG. 7 to form an actual surface shape, and the measurement is completed.

以上のように、3波長の光源を測定系に用いて筒内面形状を測定することにより、単色の光源を用いて同様の測定を行って筒内面形状データを得る場合に比べて、高さ方向の測定範囲が約3倍に広がり、筒内面形状の高さ方向の測定範囲が広くても測定光学系を筒内面形状高さに合わせて再調整したりする必要が無いため、測定時間を増加させることなく、凹凸の大きな筒内面形状の測定を行うことができる。   As described above, by measuring the cylinder inner surface shape using a light source of three wavelengths in the measurement system, the height direction is compared with the case where the same measurement is performed using a monochromatic light source to obtain the cylinder inner surface shape data. The measurement range is approximately three times larger, and even if the measurement range in the height direction of the cylinder inner surface shape is wide, there is no need to readjust the measurement optical system to match the cylinder inner surface shape height, thus increasing the measurement time It is possible to measure the shape of the inner surface of the cylinder with large irregularities without causing the deformation.

また、単色の光源を用いて凹凸の大きな筒内面形状を測定する場合に、測定光の焦点深度を広くすることによって高さ方向の測定範囲を広くして測定する手段があるが、そうするとライン状測定光の幅も広くなってしまい筒面内形状の測定分解能が損なわれてしまう。しかし、3波長の光源を測定系に用いて筒内面形状を測定し、それぞれの波長について注目すれば、意図的に焦点深度を深くすること無く焦点深度を保つことが可能であり、筒面内形状の測定分解能を損なうことなく筒内面形状の高さ方向の測定範囲を広げることができる。   In addition, when measuring a cylindrical inner surface shape with large irregularities using a monochromatic light source, there is a means to increase the measurement range in the height direction by increasing the depth of focus of the measurement light, but in that case the line shape The width of the measurement light is widened and the measurement resolution of the in-cylinder shape is impaired. However, if the shape of the cylinder inner surface is measured using a light source of 3 wavelengths in the measurement system and attention is paid to each wavelength, it is possible to keep the depth of focus without intentionally increasing the depth of focus. The measurement range in the height direction of the cylinder inner surface shape can be expanded without impairing the measurement resolution of the shape.

次に、測定箇所17へのライン状測定光の投影像から、測定箇所17の形状データを得る方法について説明する。   Next, a method for obtaining the shape data of the measurement location 17 from the projection image of the line-shaped measurement light onto the measurement location 17 will be described.

図9に、測定箇所17付近のライン状測定光の投影像の模式図を示す。   FIG. 9 shows a schematic diagram of a projected image of the linear measurement light in the vicinity of the measurement location 17.

ここで、図9(a)は測定箇所17付近のライン状測定光の投影像の斜視図であり、図9(b)は測定箇所17付近のライン状測定光の投影像の断面図である。   Here, FIG. 9A is a perspective view of the projection image of the linear measurement light near the measurement location 17, and FIG. 9B is a cross-sectional view of the projection image of the line measurement light near the measurement location 17. .

図9(a)において、測定箇所17に存在する高さhのリブ構造49のリブ長手方向に沿って、投光装置から角度θで入射した測定光50が幅Lのライン状測定光51を形成している。ライン状測定光51は、角度ωで反射して撮像装置に入射する。   In FIG. 9A, the measurement light 50 incident from the light projecting device at an angle θ along the longitudinal direction of the rib structure 49 having a height h existing at the measurement location 17 is changed into a line-shaped measurement light 51 having a width L. Forming. The line-shaped measurement light 51 is reflected at an angle ω and enters the imaging apparatus.

ここで、投光装置からの測定光50の光軸の存在する平面52aと、撮像装置に入射する光の光軸の存在する平面52bは、角度φを有する。   Here, the plane 52a where the optical axis of the measurement light 50 from the light projecting device exists and the plane 52b where the optical axis of the light incident on the imaging device exists have an angle φ.

ここで、図9(b)の形状で示される画像データが、図9(a)のライン状測定光51の投影像として画像表示装置23に表示されているとする。破線で示された画像領域53は、撮像装置に組み込まれている撮像素子の大きさに相当する。   Here, it is assumed that the image data shown in the shape of FIG. 9B is displayed on the image display device 23 as a projection image of the line-shaped measurement light 51 of FIG. An image area 53 indicated by a broken line corresponds to the size of the image sensor incorporated in the image pickup apparatus.

画像領域53内に表示される画像データは、図3に示す第1の青色撮像素子31B、第1の赤色用撮像素子31R、第1の緑色用撮像素子31Gの内のどの素子から得られた画像データに対しても、形状データを得る方法は同様の方法を用いる。   The image data displayed in the image area 53 is obtained from any of the first blue image sensor 31B, the first red image sensor 31R, and the first green image sensor 31G shown in FIG. The same method is used for obtaining shape data for image data.

撮像装置の像倍率をMとすると、画像表示装置23から得られた像から、リブ構造49の高さhは、リブ構造49の上段部分と下段部分からの反射像に相当する画像データの高低差をHと仮定すると、(式1)が成り立つ。   Assuming that the image magnification of the imaging device is M, the height h of the rib structure 49 from the image obtained from the image display device 23 is the height of the image data corresponding to the reflected images from the upper and lower portions of the rib structure 49. Assuming that the difference is H, (Equation 1) holds.

Figure 2007271300
Figure 2007271300

リブ構造49の幅をWとし、リブ構造49の上段部分からの反射像に相当する画像データの幅をIとすると、(式2)が成り立つ。   When the width of the rib structure 49 is W and the width of the image data corresponding to the reflected image from the upper part of the rib structure 49 is I, (Equation 2) holds.

Figure 2007271300
Figure 2007271300

図9において、それぞれの画像を第1の画像データ合成装置21A、第2の画像データ合成装置21Bを経て画像データ解析装置22に取り込んだ後、画像データから形状データを得るまでの処理は、画像データ解析装置22によって行われる。得られた画像データや画像データ解析装置22による処理結果は画像表示装置23に表示される。   In FIG. 9, after each image is taken into the image data analyzing device 22 via the first image data synthesizing device 21A and the second image data synthesizing device 21B, the processing until obtaining the shape data from the image data is shown in FIG. This is performed by the data analysis device 22. The obtained image data and the processing result by the image data analysis device 22 are displayed on the image display device 23.

図10は、実施の形態1における画像データから形状データを得る処理フローを示す図である。   FIG. 10 is a diagram showing a processing flow for obtaining shape data from image data in the first embodiment.

図10において、まず、ステップS7で、被測定円筒14の筒内面へ投影した測定光の反射像を画像表示装置23に表示する。   In FIG. 10, first, in step S <b> 7, a reflection image of the measurement light projected onto the inner surface of the cylinder 14 to be measured is displayed on the image display device 23.

次に、ステップS8で、画像データの縦方向(画面垂直方向)の画素の中で最大の輝度値を持つ画素座標を、画面端の画素縦方向列から順に各画素縦方向の列について求める。この求めた画素の縦方向における最大値の位置を、座標(I、H)とする。   Next, in step S8, pixel coordinates having the maximum luminance value among the pixels in the vertical direction (screen vertical direction) of the image data are obtained for each pixel vertical column in order from the pixel vertical column at the screen edge. The position of the maximum value of the obtained pixel in the vertical direction is defined as coordinates (I, H).

次に、ステップS9で、抽出した縦方向の最大輝度を持つ画素の輝度と、予め設定しておいた閾値とを比較する。   In step S9, the extracted luminance of the pixel having the maximum vertical luminance is compared with a preset threshold value.

その後、抽出した輝度最大値と予め設定した閾値との関係によって、異なる処理を行う。   Thereafter, different processing is performed depending on the relationship between the extracted maximum luminance value and a preset threshold value.

輝度最大値が閾値以上となった場合は、ステップS10において、輝度最大値の画素を縦方向画素列の最大値(I、H)とする。   If the maximum luminance value is equal to or greater than the threshold value, the pixel having the maximum luminance value is set as the maximum value (I, H) of the vertical pixel row in step S10.

その後、ステップS11において、前述の(式1)、(式2)の計算式を用いて、画素の最大値の位置(I、H)を、実際に測定光が投影されている点の高さ情報(W、h)に変換する。   Thereafter, in step S11, the position of the maximum value of the pixel (I, H) is calculated from the above-described calculation formulas (Expression 1) and (Expression 2), and the height of the point where the measurement light is actually projected. Convert to information (W, h).

逆に、輝度最大値が閾値より小さい場合は、ステップS12において、輝度最大値の画素において測定光の反射像が得られなかったと判断し、筒内形状データが取得できない欠損点と定める。   On the other hand, if the maximum luminance value is smaller than the threshold value, it is determined in step S12 that the reflected image of the measurement light has not been obtained in the pixel having the maximum luminance value, and is determined as a defect point where the in-cylinder shape data cannot be acquired.

ステップS10とステップS11、若しくはステップS12を行った後、ステップS13において、得られた画像の縦方向画素列の全てについて処理を行ったかどうかを判断する。画素列の全てについて処理を行っていた場合は、処理を終了し、未だ処理を行っていない画素列が存在する場合は、ステップS14において、次の画素縦方向列へ処理を移し、ステップS8からの一連の動作を繰り返す。   After performing Step S10 and Step S11 or Step S12, in Step S13, it is determined whether or not processing has been performed for all the vertical pixel columns of the obtained image. If all pixel columns have been processed, the process ends. If there is a pixel column that has not yet been processed, the process moves to the next pixel vertical column in step S14, and from step S8. Repeat the series of operations.

このようにして、取得した画像データの全ての縦方向の画素列について処理を行うと、図9に示す画像データから測定光が投影されている箇所の形状情報を得ることができる。   In this way, when the processing is performed for all the vertical pixel columns of the acquired image data, the shape information of the location where the measurement light is projected can be obtained from the image data shown in FIG.

次に、被測定円筒14内の全面の形状を測定する方法について説明する。   Next, a method for measuring the shape of the entire surface in the cylinder 14 to be measured will be described.

図2で説明したように、被測定円筒14は移動ステージ24に固定されているため、移動ステージ24が有する直進動作機構と回転動作機構を組み合わせて動作させることにより、第1の測定光16と第2の測定光18を筒内面の全面に走査させることができる。   As described with reference to FIG. 2, since the cylinder 14 to be measured is fixed to the moving stage 24, the first measuring light 16 and the measuring beam 16 are operated by combining the linear movement mechanism and the rotational movement mechanism of the movement stage 24. The second measurement light 18 can be scanned over the entire inner surface of the cylinder.

図11は、被測定円筒14内面における座標の取り方を示す図である。   FIG. 11 is a diagram showing how to take coordinates on the inner surface of the cylinder 14 to be measured.

図11(a)は、被測定円筒14内面における座標を示す図であり、図11(b)は、図11(a)の被測定円筒14内面の展開外略図である。   FIG. 11A is a diagram showing coordinates on the inner surface of the cylinder 14 to be measured, and FIG. 11B is a schematic development view of the inner surface of the cylinder 14 to be measured in FIG.

図11(a)において、被測定円筒14内面における座標の取り方を説明するために、切断線C−C’を定義し、切断線C−C’端近傍の角部分をD、D’、E、E’とする。ここで、Dを原点として切断線C−C’に沿った方向をX軸とし、角Dから角D’まで円筒の縁に沿った方向をY軸とすると、図11(b)に示すように、円筒面である筒内面をX軸、Y軸で定義される平面で示すことができる。図11(a)で示しているD、D’、E、E’と図11(b)で示しているD、D’、E、E’は同じ位置を示している。   In FIG. 11A, in order to explain how to take coordinates on the inner surface of the cylinder 14 to be measured, a cutting line CC ′ is defined, and corner portions near the end of the cutting line CC ′ are represented by D, D ′, Let E, E ′. Here, assuming that D is the origin and the direction along the cutting line CC ′ is the X axis, and the direction along the edge of the cylinder from the angle D to the angle D ′ is the Y axis, as shown in FIG. In addition, the cylindrical inner surface, which is a cylindrical surface, can be represented by a plane defined by the X axis and the Y axis. D, D ′, E, E ′ shown in FIG. 11A and D, D ′, E, E ′ shown in FIG. 11B indicate the same positions.

図11(b)に示す被測定円筒14内面全体の形状データを得る方法について説明する。   A method for obtaining the shape data of the entire inner surface of the cylinder 14 to be measured shown in FIG.

事前に画像データ解析装置22で決めておいた座標数値をステージ移動装置25に伝え、画像データ解析装置22からの指示に従い、ステージ動作装置25は、移動ステージ24を直進動作と回転動作させる。画像データ解析装置22はステージ移動装置25を通じて移動ステージ24の直進動作による移動量(図11(a)、図11(b)にあるX軸方向の動作に相当)と、回転動作(図11(a)、図11(b)にあるY軸方向の動作に相当)による回転量を取得することができる。そのため、図10に示した処理フローを経て得られた被測定円筒14内面の形状データ(W、h)と被測定円筒14内面上の位置(X、Y)との関連付けができ、被測定円筒14内面の全体の形状データ(W、h、X、Y)が得られる。   The coordinate numerical value determined in advance by the image data analyzing device 22 is transmitted to the stage moving device 25, and the stage operating device 25 causes the moving stage 24 to rotate and move straight according to the instruction from the image data analyzing device 22. The image data analyzing device 22 is moved through the stage moving device 25 by the amount of movement of the moving stage 24 by the straight movement (corresponding to the movement in the X-axis direction in FIGS. 11A and 11B) and the rotating operation (FIG. a) and the rotation amount according to the operation in the Y-axis direction in FIG. For this reason, the shape data (W, h) of the inner surface of the measured cylinder 14 obtained through the processing flow shown in FIG. 10 and the position (X, Y) on the inner surface of the measured cylinder 14 can be associated with each other. The shape data (W, h, X, Y) of the entire 14 inner surface is obtained.

次に、2組の測定系を用いて被測定円筒14内面の形状データを、被測定円筒14全面にわたり欠損なく取得する方法について、図12(a)、図12(b)を用いて説明する。   Next, a method for acquiring the shape data of the inner surface of the cylinder 14 to be measured over the entire surface of the cylinder 14 to be measured using two sets of measurement systems will be described with reference to FIGS. 12 (a) and 12 (b). .

図12は、実施の形態1における測定系と被測定物構造の位置関係を示す図である。   FIG. 12 is a diagram showing a positional relationship between the measurement system and the structure of the object to be measured in the first embodiment.

図12(a)は、実施の形態1における光切断法で測定光が見えなくなる場合を示す図であり、図12(b)は、実施の形態1における光切断法のデータ補完を示す図である。   FIG. 12A is a diagram illustrating a case where measurement light is not visible by the light cutting method according to the first embodiment, and FIG. 12B is a diagram illustrating data interpolation of the light cutting method according to the first embodiment. is there.

被測定円筒14内の形状測定を前述の方法で測定する場合に、1つの測定系から得られた結果だけを用いると、測定光の入射角度と被測定円筒14の内面上の構造(リブ、溝など)との位置や角度関係が原因となって、撮像光学系から見たときにライン状測定光が構造物の陰になり見えない場合が想定される。例えば図12(a)のように、溝構造54上に第1のライン状測定光37が投影された場合、第1のライン状測定光37の破線になっている部分は溝構造54の影になってしまい撮像光学系から観察できない。このような場合、観察できない部分の形状データは前述の欠損点となり、形状データが測定できない。   When the shape measurement in the cylinder 14 to be measured is measured by the above-described method, if only the result obtained from one measurement system is used, the incident angle of the measurement light and the structure on the inner surface of the cylinder 14 to be measured (rib, It is assumed that the line-shaped measurement light is hidden behind the structure and cannot be seen when viewed from the imaging optical system due to the position and angle relationship with the groove). For example, as shown in FIG. 12A, when the first linear measurement light 37 is projected onto the groove structure 54, the portion of the first linear measurement light 37 that is a broken line is a shadow of the groove structure 54. And cannot be observed from the imaging optical system. In such a case, the shape data of the part that cannot be observed becomes the above-described missing point, and the shape data cannot be measured.

そのような場合には、1つの測定系を用いているのみでは、影になっている部分の形状データは得られない。しかし、図2のように配置された2組の測定系を、それぞれ逆方向から測定光を入射する構造とすると、第1の測定系から測定したときに構造物に隠れる箇所を、第2の測定系から測定すれば、第1の測定系から測定したときに構造物に隠れてしまう箇所の測定が可能である。   In such a case, the shape data of the shaded portion cannot be obtained by using only one measurement system. However, if the two sets of measurement systems arranged as shown in FIG. 2 have a structure in which the measurement light is incident from the opposite directions, the locations hidden in the structure when measured from the first measurement system are If the measurement is performed from the measurement system, it is possible to measure a portion that is hidden by the structure when measured from the first measurement system.

図12(b)に、2つの測定系を用いて被測定円筒14の内面の形状データを測定する場合の流れを示す。すでに述べた形状データ取得の詳細は省略してある。   FIG. 12B shows a flow in the case of measuring the shape data of the inner surface of the cylinder 14 to be measured using two measurement systems. Details of the shape data acquisition already described are omitted.

以上のような形状データに対する処理を、筒内面で形状データを取得した位置(X、Y)全てについて行うことにより、筒内面上にリブ・溝などの形状があっても形状データを被測定円筒14の内面全面に渡って取得することが可能である。   By performing the above processing on the shape data for all the positions (X, Y) at which the shape data is acquired on the inner surface of the cylinder, the shape data is measured even if there are shapes such as ribs and grooves on the inner surface of the cylinder. 14 can be obtained over the entire inner surface.

例えば、図12(b)のように、測定したい筒内面形状データ55に対して第1の測定系からでは筒内面形状データ55a(粗い破線)しか得られないが、第2の測定系から測定すれば筒内面形状データ55b(細かい破線)が得られる。2つの測定系を用いて被測定円筒14の筒内面の形状データを測定する処理を行うと、筒内面形状データ55aと筒内面形状データ55bのお互いのデータで足りない部分を補うことになるので、測定データ漏れのない筒内面形状データ55が得られる。   For example, as shown in FIG. 12B, only the cylinder inner surface shape data 55a (coarse broken line) can be obtained from the first measurement system for the cylinder inner surface shape data 55 to be measured, but the measurement is performed from the second measurement system. Then, cylinder inner surface shape data 55b (fine broken line) is obtained. When the processing for measuring the shape data of the cylinder inner surface of the cylinder 14 to be measured is performed using two measurement systems, the missing portions of the cylinder inner surface shape data 55a and the cylinder inner surface shape data 55b are compensated. The cylinder inner surface shape data 55 with no measurement data leakage is obtained.

図13に、実施の形態1における光切断法のデータ補完の処理フロー図を示す。   FIG. 13 shows a process flow diagram of data interpolation of the light section method in the first embodiment.

図13において、ステップS15、ステップS16に示すように、移動ステージ24を動作させ、被測定円筒14の内面の形状データを取得する。その際、図2のように配置された2組の測定系を用いて被測定円筒14の内面の形状データを取得するので、第1の測定系で形状データを取得すると同時に、同位置の形状データを第2の測定系によって取得することができる。このように形状データ取得の操作を行うと、第1の測定系から得られた筒内形状データ(W、h1、X、Y)と、第2の測定系から得られた筒内形状データ(W、h2、X、Y)が同時に得られる。先に説明したように、筒内面形状によっては、第1の測定系では形状データが取得できず、h1が欠損点となる場合や、第2の測定系では形状データが取得できず、h2が欠損点となる場合が存在する。 In FIG. 13, as shown in steps S <b> 15 and S <b> 16, the moving stage 24 is operated to acquire the shape data of the inner surface of the cylinder 14 to be measured. At this time, since the shape data of the inner surface of the cylinder 14 to be measured is acquired using two sets of measurement systems arranged as shown in FIG. 2, the shape data at the same position is acquired at the same time as the shape data is acquired by the first measurement system. Data can be acquired by the second measurement system. When the shape data acquisition operation is performed in this way, in-cylinder shape data (W, h 1 , X, Y) obtained from the first measurement system and in-cylinder shape data obtained from the second measurement system (W, h 2 , X, Y) are obtained simultaneously. As described above, depending on the shape of the inner surface of the cylinder, the shape data cannot be acquired in the first measurement system and h 1 becomes a defect point, or the shape data cannot be acquired in the second measurement system. There are cases where 2 is a missing point.

次に、ステップS17で、被測定円筒14の内面で形状データを取得した位置(X、Y)全てについて、第1の測定系から得られた筒内形状データ(W、h1、X、Y)と、第2の測定系から得られた筒内形状データ(W、h2、X、Y)を評価する。 Next, in step S17, in-cylinder shape data (W, h 1 , X, Y) obtained from the first measurement system for all positions (X, Y) at which shape data was acquired on the inner surface of the cylinder 14 to be measured. ) And in-cylinder shape data (W, h 2 , X, Y) obtained from the second measurement system.

第1の測定系から得られたh1が欠損点となる場合は、ステップS18に進み、第2の測定系から得られた筒内形状データ(W、h2、X、Y)を筒内面位置における形状データ(W、h、X、Y)として採用する。 When h 1 obtained from the first measurement system becomes a defect point, the process proceeds to step S18, and the in-cylinder shape data (W, h 2 , X, Y) obtained from the second measurement system is used as the cylinder inner surface. It is adopted as shape data (W, h, X, Y) at the position.

第2の測定系から得られたh2が欠損点となる場合は、ステップS19に進み、第1の測定系から得られた筒内形状データ(W、h1、X、Y)を筒内面位置における形状データ(W、h、X、Y)として採用する。 If h 2 obtained from the second measurement system becomes a defect point, the process proceeds to step S19, and the in-cylinder shape data (W, h 1 , X, Y) obtained from the first measurement system is used as the cylinder inner surface. It is adopted as shape data (W, h, X, Y) at the position.

第1の測定系から得られたh1と第2の測定系から得られたh2とが共に欠損点でない場合は、ステップS20に進み、その筒内面位置における形状データ(W、h、X、Y)の高さデータhを、第1の測定系での測定結果と第2の測定系での測定結果との平均値、h=(h1+h2)/2として平均化したものを採用する。 If both h 1 obtained from the first measurement system and h 2 obtained from the second measurement system are not defective, the process proceeds to step S20, and the shape data (W, h, X at the cylinder inner surface position) is advanced. Y) is obtained by averaging the height data h of Y) as the average value of the measurement result in the first measurement system and the measurement result in the second measurement system, h = (h 1 + h 2 ) / 2 adopt.

このようにして得られたデータを、ステップS21に示すように、筒内面の全ての位置について行い、測定を終了する。   As shown in step S21, the data obtained in this way is performed for all positions on the inner surface of the cylinder, and the measurement is completed.

なお、第1の測定系から得られたh1と第2の測定系から得られたh2とが共に欠損点の場合はそのままでは測定不能であるとし、ステップS22において、投光装置又は撮像装置のうち少なくとも一方の位置を変更した後に、再度測定を行うことで、測定可能になる場合もある。 It should be noted that if h 1 obtained from the first measurement system and h 2 obtained from the second measurement system are both missing points, they cannot be measured as they are, and in step S22, the light projecting device or imaging In some cases, measurement can be performed by performing measurement again after changing the position of at least one of the apparatuses.

なお、図13の流れの中で、第1の測定系から得られた筒内形状データ、第2の測定系から得られた筒内形状データのどちらも欠損点になっていない場合は、加重平均のような単純平均以外の平均化手段を取っても良いし、h1、h2のどちらかの高さデータを代表として採用させても良い。 In the flow of FIG. 13, if neither the in-cylinder shape data obtained from the first measurement system nor the in-cylinder shape data obtained from the second measurement system is a missing point, the weighting is performed. An averaging means other than a simple average such as an average may be taken, or height data of either h 1 or h 2 may be adopted as a representative.

次に、今までの方法をまとめて行う場合の処理フローについて説明する。   Next, a processing flow in the case where the conventional methods are performed together will be described.

図14は、実施の形態1における測定の処理フローを示す図である。   FIG. 14 is a diagram showing a measurement processing flow in the first embodiment.

図14において、ステップS23〜ステップS27は、図8のステップS1〜ステップS5と同様であるので、説明を省略する。   In FIG. 14, steps S23 to S27 are the same as steps S1 to S5 of FIG.

ステップS23〜ステップS27を行った後、ステップS28において、赤色形状データ57R(WR、hR)、オフセット補正後の緑色形状データ57G’(W’G、h’G)、オフセット補正後の青色形状データ57B’(W’B、h’B)の全ての形状データについて、位置Wの最大値(Wmax)とWの最小値(Wmin)を探す。 After performing Steps S23 to S27, in Step S28, the red shape data 57R (W R , h R ), the green shape data 57G ′ (W ′ G , h ′ G ) after offset correction, and the blue color after offset correction For all the shape data in the shape data 57B ′ (W ′ B , h ′ B ), the maximum value (Wmax) and the minimum value (Wmin) of the position W are searched.

次に、ステップS29において、Wmin≦W≦Wmaxである位置データを取得した全てのWについて、欠損点でない高さデータ(hR、h’G、h’Bのいずれか)が存在するか調べる。 Next, in step S29, it is checked whether height data (any one of h R , h ′ G , and h ′ B ) that is not a missing point exists for all Ws that have acquired position data satisfying Wmin ≦ W ≦ Wmax. .

ここで、位置Wに対応する高さデータhR、h’G、h’Bの全てが欠損点の場合は、ステップS30にて、位置Wは欠損点と定義する。 Here, when all of the height data h R , h ′ G , h ′ B corresponding to the position W are missing points, the position W is defined as a missing point in step S30.

また、位置Wに対応する高さデータhR、h’G、h’Bのうち、1つ以上欠損点でない高さデータが存在する場合は、ステップS31にて、それら欠損点でない高さデータの平均値hを位置Wの高さデータとする。 If there is one or more height data that is not a missing point among the height data h R , h ′ G , h ′ B corresponding to the position W, the height data that is not the missing point in step S31. Is the height data of the position W.

ステップS32にて、この操作を、取得した全ての形状データの取りうる位置W(Wmin≦W≦Wmax)について行う。   In step S32, this operation is performed for possible positions W (Wmin ≦ W ≦ Wmax) of all the acquired shape data.

以上より、ステップS33にて、データ取得時には別々に取得した、赤色形状データ57R、緑色形状データ57G、青色形状データ57Bにオフセットを加えた状態で重ね合わせることで、測定箇所17の筒内面形状データ(W、h)として得ることができる。   As described above, in step S33, the cylinder inner surface shape data of the measurement location 17 is obtained by superimposing the red shape data 57R, the green shape data 57G, and the blue shape data 57B, which are obtained separately at the time of data acquisition, with an offset added. It can be obtained as (W, h).

次に、筒内回転方向の形状データの補正方法について説明する。   Next, a method for correcting shape data in the in-cylinder rotation direction will be described.

先に、図2において、筒内面の形状データを取得する際には被測定円筒14を移動ステージ24に固定することを説明したが、被測定円筒軸19と移動ステージ24の回転軸は取り付け時の誤差により一致しない可能性がある。   In FIG. 2, it has been described that the cylinder to be measured 14 is fixed to the moving stage 24 when acquiring the shape data of the cylinder inner surface. May not match due to errors.

被測定円筒軸19と移動ステージ24の回転軸が一致していない(偏芯が生じている)ときには、移動ステージ24で被測定円筒14を被測定円筒軸19の周りに回転させると、被測定円筒14は偏芯を伴う回転をする。   When the measured cylinder shaft 19 and the rotation axis of the moving stage 24 do not coincide (eccentricity occurs), the measured cylinder 14 is rotated around the measured cylinder axis 19 by the moving stage 24. The cylinder 14 rotates with eccentricity.

そうすると第1の測定系、第2の測定系で取得した筒内面の被測定円筒軸19周りの回転方向の形状データには偏芯の影響が加わる。被測定円筒軸19の周方向回転角をΘ、被測定円筒軸19と移動ステージ24の回転軸が一致しているときの角度Θの位置における円筒内面の高さをH(Θ)、被測定円筒軸19と移動ステージ24の回転軸の偏芯量をA、偏芯の角度方向をδ、偏芯の影響を含んだ円筒内面の高さをH’(Θ)とする。偏芯が高さ計測データにあたえる影響は、偏芯量Aが被測定円筒14の直径の10%以下程度である量であれば、(式3)で表すことができる。   If it does so, the influence of eccentricity will be added to the shape data of the rotation direction around the to-be-measured cylindrical axis | shaft 19 of the cylinder inner surface acquired by the 1st measurement system and the 2nd measurement system. The circumferential rotation angle of the measured cylindrical shaft 19 is Θ, the height of the inner surface of the cylinder at the position of the angle Θ when the measured rotating shaft 19 and the rotation axis of the moving stage 24 coincide with each other is H (Θ), and the measured The eccentricity of the cylindrical shaft 19 and the rotational axis of the moving stage 24 is A, the angular direction of the eccentricity is δ, and the height of the cylindrical inner surface including the influence of the eccentricity is H ′ (Θ). The influence of the eccentricity on the height measurement data can be expressed by (Equation 3) if the eccentricity amount A is an amount that is about 10% or less of the diameter of the cylinder 14 to be measured.

Figure 2007271300
Figure 2007271300

従って、被測定円筒軸19の回転方向に対する高さデータから、(式3)の第2項を引くことで、被測定円筒軸19と移動ステージ24の回転軸の偏芯の影響を取り除くことが可能である。ここで、A、δは数学的処理(例えばフーリエ変換)を用いて算出することができる。   Accordingly, by subtracting the second term of (Equation 3) from the height data in the rotational direction of the measured cylindrical shaft 19, the influence of the eccentricity of the rotational axes of the measured cylindrical shaft 19 and the moving stage 24 can be removed. Is possible. Here, A and δ can be calculated using mathematical processing (for example, Fourier transform).

以上のような方法と手順により、筒形状部品の内面形状を、高さ(厚み)方向に幅広い測定範囲でかつ高い測定精度を保ち、筒内面全面に渡り漏れなく測定することを可能にする。   With the method and procedure as described above, the inner surface shape of the cylindrical part can be measured over the entire inner surface of the cylinder with a wide measurement range and high measurement accuracy in the height (thickness) direction.

なお、本実施の形態では色毎に分光することで表面形状を測定したが、ここで分光する基準としては、色に限らず波長を基準とすることもできる。   In the present embodiment, the surface shape is measured by performing the spectrum for each color. However, the reference for the spectrum here is not limited to the color, and the wavelength can also be used as the reference.

なお、本発明は、その被検物を管形状に限定せず、一般的な3次元形状測定用途にも適用できる。   The present invention is not limited to the tube shape of the test object, and can be applied to general three-dimensional shape measurement applications.

本発明の表面形状測定方法および測定装置によれば、円筒の内面の形状測定を内周前面にわたって測定精度を保ちつつ行うことが可能であるため、カメラ鏡筒の内カム溝測定や、雌ねじのねじ山形状評価測定などに適用することができる。   According to the surface shape measuring method and measuring apparatus of the present invention, it is possible to measure the shape of the inner surface of the cylinder while maintaining the measurement accuracy over the inner peripheral front surface. It can be applied to thread shape evaluation measurement.

実施の形態1における筒内形状測定装置の概略図Schematic of in-cylinder shape measuring apparatus in Embodiment 1 図1の筒内形状測定装置を矢印Aの方向から見た概略断面図FIG. 1 is a schematic cross-sectional view of the in-cylinder shape measuring apparatus shown in FIG. 図2の筒内形状測定装置を矢印Bの方向から見た概略断面図FIG. 2 is a schematic cross-sectional view of the in-cylinder shape measuring apparatus shown in FIG. 図3の筒内形状測定装置の斜視図3 is a perspective view of the in-cylinder shape measuring apparatus of FIG. 図2の筒内形状測定装置を矢印Bの方向から見た概略断面図FIG. 2 is a schematic cross-sectional view of the in-cylinder shape measuring apparatus shown in FIG. 図3の測定箇所17付近を拡大した模式図Schematic diagram enlarging the vicinity of the measurement point 17 in FIG. (a)実施の形態1における3つの波長のそれぞれの測定データを示す図(b)3つのデータの結合状況を示す図(c)結合データを1つのデータに集約した図(A) The figure which shows each measurement data of three wavelengths in Embodiment 1 (b) The figure which shows the coupling | bonding condition of three data (c) The figure which consolidated the coupling data into one data 実施の形態1における3波長の光源を用いた測定の処理フローを示す図The figure which shows the processing flow of the measurement using the light source of 3 wavelengths in Embodiment 1. (a)測定箇所17付近のライン状測定光の投影像の斜視図(b)測定箇所17付近のライン状測定光の投影像の断面図(A) Perspective view of projection image of line-shaped measurement light near measurement point 17 (b) Cross-sectional view of projection image of line-like measurement light near measurement point 17 実施の形態1における画像データから形状データを得る処理フローを示す図The figure which shows the processing flow which acquires shape data from the image data in Embodiment 1. (a)被測定円筒14内面における座標を示す図(b)被測定円筒14内面の展開外略図(A) A diagram showing coordinates on the inner surface of the cylinder 14 to be measured (a)実施の形態1における光切断法で測定光が見えなくなる場合を示す図(b)実施の形態1における光切断法のデータ補完を示す図(A) The figure which shows the case where measurement light becomes invisible by the light cutting method in Embodiment 1, (b) The figure which shows the data complement of the light cutting method in Embodiment 1 実施の形態1における光切断法のデータ補完の処理フローを示す図The figure which shows the processing flow of the data complement of the light cutting method in Embodiment 1 実施の形態1における測定の処理フローを示す図The figure which shows the processing flow of the measurement in Embodiment 1. 従来の筒内形状測定装置の断面図Sectional view of a conventional in-cylinder shape measuring device 従来の筒内形状測定方法による測定状況を示す図The figure which shows the measurement situation by the conventional cylinder shape measurement method

符号の説明Explanation of symbols

12A 第1の投光装置
13A 第1の撮像装置
14 被測定円筒
16 第1の測定光
17 測定箇所
19 被測定円筒軸
21A 第1の画像データ合成装置
22 画像データ解析装置
23 画像表示装置
25 ステージ移動装置
26 第1のレーザ光源
27 第1のコリメートレンズ
28 第1のシリンドリカルレンズ
29 第1のプリズムミラー
30 第1の偏光素子
31 第1の撮像素子
32 第1の分光プリズム
33 第1の結像レンズ
35 第1の偏光フィルタ
36 第1の測定光源光軸
37 第1のライン状測定光
12A First light projecting device 13A First imaging device 14 Cylinder to be measured 16 First measurement light 17 Measurement location 19 Cylinder shaft to be measured 21A First image data synthesis device 22 Image data analysis device 23 Image display device 25 Stage Moving device 26 First laser light source 27 First collimating lens 28 First cylindrical lens 29 First prism mirror 30 First polarizing element 31 First imaging element 32 First spectral prism 33 First imaging Lens 35 First polarizing filter 36 First measurement light source optical axis 37 First linear measurement light

Claims (4)

互いに波長の異なる光を相平行な光軸で被検面に照射し、
前記被検面で反射した光を波長毎に分光し、
前記分光された光の輝度に基づいて前記被検面の基準面からの距離を波長毎に計測した後、
前記計測による波長毎の形状データを相対的にずらして重ね合わせることで、前記被検面の表面形状を測定すること
を特徴とする表面形状測定方法。
Irradiate the surface to be tested with optical axes parallel to each other with different wavelengths,
Spectroscopy the light reflected by the test surface for each wavelength,
After measuring the distance from the reference surface of the test surface for each wavelength based on the brightness of the dispersed light,
A surface shape measuring method, wherein the surface shape of the surface to be measured is measured by relatively shifting and superimposing the shape data for each wavelength by the measurement.
被検面を挟んだ異なる2方向からの光を用いて前記被検面の表面形状を測定すること
を特徴とする請求項1記載の表面形状測定方法。
2. The surface shape measuring method according to claim 1, wherein the surface shape of the test surface is measured using light from two different directions across the test surface.
円筒状の被検物を回転させることで、前記円筒状の被検物の全内周面を測定する際に、
円筒状の被検物の回転角をθ、回転機構の偏芯量をA、偏芯の位相をδとして、Acos(θ−δ)だけ形状データから減算すること
を特徴とする請求項1又は請求項2記載の表面形状測定方法。
By measuring the entire inner peripheral surface of the cylindrical test object by rotating the cylindrical test object,
2. A subtracting Acos (θ−δ) from the shape data, wherein θ is the rotation angle of the cylindrical specimen, A is the eccentricity of the rotation mechanism, and δ is the phase of the eccentricity. The surface shape measuring method according to claim 2.
投光装置と前記投光装置から出射され被検面で反射した光を撮像する撮像装置と前記撮像装置で得られたデータを処理する処理装置とを備えた表面形状測定装置であって、
投光装置は、互いに波長の異なる複数の光源と前記複数の光源からの光を相平行な光軸に変換する光学系とを有し、
撮像装置は、互いに有効波長の異なる複数の撮像素子と前記撮像装置に入射した光を波長の異なる複数の光に分光する光学系とを有すること
を特徴とする表面形状測定装置。
A surface shape measuring apparatus comprising a light projecting device, an image capturing device that captures light emitted from the light projecting device and reflected by a test surface, and a processing device that processes data obtained by the image capturing device,
The light projecting device includes a plurality of light sources having different wavelengths and an optical system that converts light from the plurality of light sources into phase-parallel optical axes,
The imaging apparatus includes: a plurality of imaging elements having different effective wavelengths; and an optical system that splits light incident on the imaging apparatus into a plurality of lights having different wavelengths.
JP2006093980A 2006-03-30 2006-03-30 Surface shape measuring method and measuring apparatus Expired - Fee Related JP4775072B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006093980A JP4775072B2 (en) 2006-03-30 2006-03-30 Surface shape measuring method and measuring apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006093980A JP4775072B2 (en) 2006-03-30 2006-03-30 Surface shape measuring method and measuring apparatus

Publications (2)

Publication Number Publication Date
JP2007271300A true JP2007271300A (en) 2007-10-18
JP4775072B2 JP4775072B2 (en) 2011-09-21

Family

ID=38674271

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006093980A Expired - Fee Related JP4775072B2 (en) 2006-03-30 2006-03-30 Surface shape measuring method and measuring apparatus

Country Status (1)

Country Link
JP (1) JP4775072B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011133405A (en) * 2009-12-25 2011-07-07 Hitachi Ltd Method and device for measuring dimension by two-dimensional optical cutting method
JP2012215496A (en) * 2011-04-01 2012-11-08 Nikon Corp Shape measuring device
JP2016180645A (en) * 2015-03-24 2016-10-13 株式会社小坂研究所 Non-contact surface shape measurement device
JP2019517671A (en) * 2016-06-03 2019-06-24 エス・エム・エス・グループ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング Thread measurement device
CN115060212A (en) * 2022-06-13 2022-09-16 中国第一汽车股份有限公司 Spiral groove measuring method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06167322A (en) * 1992-09-29 1994-06-14 Fujitsu Ltd Inspecting apparatus for stereoscopic appearance of electrode
JPH109827A (en) * 1996-06-24 1998-01-16 Omron Corp Method and equipment for determining height
JP2000199705A (en) * 1999-01-05 2000-07-18 Sony Corp Apparatus and method for measuring shape
JP2007147299A (en) * 2005-11-24 2007-06-14 Kobe Steel Ltd Apparatus and method for measuring displacement

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06167322A (en) * 1992-09-29 1994-06-14 Fujitsu Ltd Inspecting apparatus for stereoscopic appearance of electrode
JPH109827A (en) * 1996-06-24 1998-01-16 Omron Corp Method and equipment for determining height
JP2000199705A (en) * 1999-01-05 2000-07-18 Sony Corp Apparatus and method for measuring shape
JP2007147299A (en) * 2005-11-24 2007-06-14 Kobe Steel Ltd Apparatus and method for measuring displacement

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011133405A (en) * 2009-12-25 2011-07-07 Hitachi Ltd Method and device for measuring dimension by two-dimensional optical cutting method
JP2012215496A (en) * 2011-04-01 2012-11-08 Nikon Corp Shape measuring device
JP2016180645A (en) * 2015-03-24 2016-10-13 株式会社小坂研究所 Non-contact surface shape measurement device
JP2019517671A (en) * 2016-06-03 2019-06-24 エス・エム・エス・グループ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング Thread measurement device
CN115060212A (en) * 2022-06-13 2022-09-16 中国第一汽车股份有限公司 Spiral groove measuring method

Also Published As

Publication number Publication date
JP4775072B2 (en) 2011-09-21

Similar Documents

Publication Publication Date Title
EP2761356B1 (en) Microscope device
KR101073212B1 (en) Laser scanning microscope device and surface profile measuring method thereof
US9402059B2 (en) Microscope
JP3937024B2 (en) Detection of misalignment, pattern rotation, distortion, and misalignment using moiré fringes
JP6249513B1 (en) Correction method, correction device, and inspection device
JP4939843B2 (en) Defect inspection method and apparatus
JP6503221B2 (en) Three-dimensional information acquisition apparatus and three-dimensional information acquisition method
JP2010185803A (en) Wavefront aberration measuring method and device therefor
JP4775072B2 (en) Surface shape measuring method and measuring apparatus
WO2011114407A1 (en) Method for measuring wavefront aberration and device of same
JP6748803B2 (en) Optical cutting device for inspection of welding marks in tanks
JP2005189069A (en) Method and apparatus for measuring surface shape
JP2019074470A (en) Adjustment method of image measurement device
KR100808435B1 (en) Apparatus for optically detecting misalignment
JP2010080144A (en) Compound microscope device and method of observing sample
JP2008051576A (en) Shape-measuring apparatus and shape-measuring method
KR101826127B1 (en) optical apparatus for inspecting pattern image of semiconductor wafer
JP2016148569A (en) Image measuring method and image measuring device
JP4547526B2 (en) Microscope Farcus Control Device and Control Method
JP2011145160A (en) Device and method for multi-focus inspection
JP2007093369A (en) Displacement measuring apparatus and shape inspection apparatus using the same
JP5191265B2 (en) Optical microscope apparatus and data processing apparatus for optical microscope
JP2007333525A (en) Distance measurement device
JP4930834B2 (en) Shape measurement method
JP5367292B2 (en) Surface inspection apparatus and surface inspection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080514

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20091127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100921

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110531

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110613

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140708

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees