JP2019190918A - Shape measuring device, shape measuring method, shape measuring program, computer readable recording medium, and recorded apparatus - Google Patents

Shape measuring device, shape measuring method, shape measuring program, computer readable recording medium, and recorded apparatus Download PDF

Info

Publication number
JP2019190918A
JP2019190918A JP2018081913A JP2018081913A JP2019190918A JP 2019190918 A JP2019190918 A JP 2019190918A JP 2018081913 A JP2018081913 A JP 2018081913A JP 2018081913 A JP2018081913 A JP 2018081913A JP 2019190918 A JP2019190918 A JP 2019190918A
Authority
JP
Japan
Prior art keywords
measurement
unit
image
height
shape data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018081913A
Other languages
Japanese (ja)
Other versions
JP7157546B2 (en
Inventor
晋也 高橋
Shinya Takahashi
晋也 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keyence Corp
Original Assignee
Keyence Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keyence Corp filed Critical Keyence Corp
Priority to JP2018081913A priority Critical patent/JP7157546B2/en
Publication of JP2019190918A publication Critical patent/JP2019190918A/en
Application granted granted Critical
Publication of JP7157546B2 publication Critical patent/JP7157546B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To provide a shape measuring device, etc., with which it is possible to extend the depth in a direction Z.SOLUTION: The shape measuring device includes an XY position designation unit for accepting the designation of a position in discretionary directions X, Y on the image of a measurement object displayed on a display unit. The shape measuring device further includes control means 200 for executing: a focusing process of adjusting an optical axis direction drive unit so that the XY position on the image designated by the XY position designation unit is made a focus position; three-dimensional shape data generation process 212 of performing shape measurement in the depth adjusted by the focusing process on the basis of an image in which the pattern light projected from a light projection unit 110 is received by a light receiving unit 120, generating three-dimensional shape data and registering it in a storage unit 240; and a synthesized three-dimensional shape generation process of generating synthesized three-dimensional shape data in which depth is extended, by performing the focusing process and the three-dimensional shape data generation process in a prescribed imaging visual field at different XY positions, respectively, and synthesizing a plurality of three-dimensional shape data generation process differing in the depth range registered in the storage unit.SELECTED DRAWING: Figure 1

Description

本発明は、形状測定装置、形状測定方法、形状測定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器に関する。   The present invention relates to a shape measuring device, a shape measuring method, a shape measuring program, a computer-readable recording medium, and a recorded device.

三角測距の原理を用いたパターン投影法により、測定対象物(ワーク)の表面の形状を測定する形状測定装置が知られている(例えば特許文献1)。このような形状測定装置では、短時間でワークの三次元形状を測定することが可能である。   A shape measuring device that measures the shape of the surface of a measurement object (work) by a pattern projection method using the principle of triangulation is known (for example, Patent Document 1). With such a shape measuring apparatus, it is possible to measure the three-dimensional shape of the workpiece in a short time.

しかしながら、深度測定範囲は視野及び測定分解能とトレードオフの関係にあるため、十分な視野及び分解能の立体形状データを取得しようとすると、深度測定範囲が限定されるという問題があった。   However, since the depth measurement range is in a trade-off relationship with the visual field and measurement resolution, there is a problem that the depth measurement range is limited when attempting to acquire solid shape data with a sufficient visual field and resolution.

特許文献1に、従来の形状測定装置の一例を示す。この形状測定装置は、深度測定範囲を変化させて、得られた複数の測定データを合成する技術を開示している。これにより、一度に測定ができない複数の測定データを合成することで、高さ方向の深度測定範囲を拡張することができる。   Patent Document 1 shows an example of a conventional shape measuring apparatus. This shape measuring apparatus discloses a technique for synthesizing a plurality of obtained measurement data by changing the depth measurement range. Thereby, the depth measurement range in the height direction can be expanded by combining a plurality of measurement data that cannot be measured at one time.

しかしながら、この方法では使用者が求める深度測定範囲内の測定結果を取得するために、どの位置で何回測定を行えばよいかを直感的に把握できないという問題があった。このため、予め取得したワークの立体形状データを表示し、表示された立体形状データ上に1度の測定で測定が可能な範囲を表示するようにしている。ただし特許文献1の方法では、予めワークの立体形状データを取得する必要があり処理時間が長くなることがあった。また使用者に手間がかかる問題もあった。   However, in this method, there is a problem that it is not possible to intuitively know how many times a measurement should be performed at which position in order to obtain a measurement result within a depth measurement range required by the user. For this reason, the three-dimensional shape data of the workpiece acquired in advance is displayed, and the range that can be measured by one measurement is displayed on the displayed three-dimensional shape data. However, in the method of Patent Document 1, it is necessary to obtain the three-dimensional shape data of the workpiece in advance, and the processing time may be long. There is also a problem that the user takes time.

特開2014−092490号公報Japanese Unexamined Patent Publication No. 2014-092490

本発明は、従来のこのような問題点に鑑みてなされたものである。本発明の目的の一は、Z方向への深度拡張が可能な形状測定装置、計測測定方法、形状測定プログラム並びにコンピュータで読み取り可能な記録媒体を提供することにある。   The present invention has been made in view of such conventional problems. An object of the present invention is to provide a shape measuring device, a measuring and measuring method, a shape measuring program, and a computer-readable recording medium capable of extending the depth in the Z direction.

課題を解決するための手段及び発明の効果Means for Solving the Problems and Effects of the Invention

上記の目的を達成するために、本発明の第1の側面に係る形状測定装置によれば、測定対象物を載置するステージと、前記ステージ上に載置された測定対象物に対し、パターン光を投光する投光部と、所定の撮影視野を有し、前記投光部から照射され、測定対象物から反射されたパターン光を受光して画像を撮像する受光部と、前記ステージ上に載置された測定対象物の画像を表示する表示部と、データを保存するための記憶部と、前記ステージを前記受光部に対して光軸方向に相対的に移動させることにより、前記受光部の焦点位置を調整する光軸方向駆動部と、前記表示部上に表示された測定対象物の画像上で、任意のXY方向の位置の指定を受け付けるXY位置指定部を備え、前記XY位置指定部で指定された画像上のXY位置を焦点位置とするように前記光軸方向駆動部を調整する合焦処理と、前記合焦処理で調整された深度にて、前記投光部から投光されたパターン光を前記受光部で受光した画像に基づいて形状測定を行い立体形状データを生成し前記記憶部に登録する立体形状データ生成処理と、前記所定の撮影視野において、異なるXY位置で、それぞれ前記合焦処理と前記立体形状データ生成処理を行って前記記憶部に登録された深度範囲の異なる複数の立体形状データを合成することにより、深度を拡張した合成立体形状データを生成する合成立体形状生成処理とを実行する制御手段とを備えることができる。上記構成により、同じステージ平面で高さの異なる高さ画像を複数、合成するに際して、それぞれ焦点の合った深度で高さ画像を生成することにより、高さ情報の精度を高めることが可能となる。   In order to achieve the above object, according to the shape measuring apparatus according to the first aspect of the present invention, a stage for placing a measurement object, and a pattern for the measurement object placed on the stage A light projecting unit that projects light, a light receiving unit that has a predetermined imaging field of view, receives pattern light emitted from the light projecting unit and reflected from the measurement object, and captures an image; and on the stage The display unit displays an image of the measurement object placed on the storage unit, the storage unit for storing data, and the stage is moved relative to the light receiving unit in the optical axis direction to thereby receive the light receiving unit. An XY position designation unit that accepts designation of a position in an arbitrary XY direction on the image of the measurement target displayed on the display unit, and an XY position designation unit that adjusts the focal position of the unit Focus the XY position on the image specified in the specified part An image in which the light receiving unit receives the pattern light projected from the light projecting unit at the depth adjusted by the focusing process, and the focusing process for adjusting the optical axis direction driving unit so as to be placed 3D shape data generation processing for measuring the shape based on the shape and registering in the storage unit, and the focusing processing and the 3D shape data generation processing at different XY positions in the predetermined photographing field of view respectively And a control means for executing a combined solid shape generation process for generating combined solid shape data with an extended depth by combining a plurality of solid shape data having different depth ranges registered in the storage unit be able to. With the above configuration, when combining a plurality of height images having different heights on the same stage plane, it is possible to improve the accuracy of the height information by generating the height images at depths that are in focus. .

また、本発明の第2の側面に係る形状測定装置によれば、上記の構成に加えて、前記表示部上で、前記受光部で撮像した測定対象物の光学画像を表示させた状態で、前記XY位置指定部により、位置指定を受け付けるよう構成できる。上記構成により、ユーザは表示部に表示された測定対象物の光学画像上から、高さ画像を得たい部位を指定することができるようになり、視覚的に指定し易い環境を提供できる。   Further, according to the shape measuring apparatus according to the second aspect of the present invention, in addition to the above configuration, on the display unit, an optical image of the measurement object imaged by the light receiving unit is displayed, The XY position designation unit can be configured to accept position designation. With the above-described configuration, the user can designate a part where a height image is to be obtained from the optical image of the measurement object displayed on the display unit, and can provide an environment that is easy to visually designate.

さらに、本発明の第3の側面に係る形状測定装置によれば、測定対象物を載置するステージと、前記ステージ上に載置された測定対象物に対し、パターン光を投光する投光部と、所定の撮影視野を有し、前記投光部から照射され、測定対象物から反射されたパターン光を受光して画像を撮像する受光部と、前記ステージ上に載置された測定対象物の画像を表示する表示部と、データを保存するための記憶部と、前記ステージを前記受光部に対して光軸方向に相対的に移動させることにより、前記受光部の焦点位置を調整する光軸方向駆動部と、前記表示部に表示された画像の焦点を手動で調整する操作を受け付けるための焦点調整部と、前記焦点調整部で調整された深度にて、前記投光部から投光されたパターン光を前記受光部で受光した画像に基づいて形状測定を行い立体形状データを生成し前記記憶部に登録する立体形状データ生成処理と、前記所定の撮影視野において、前記焦点調整部で調整された異なる深度で、それぞれ前記立体形状データ生成処理を行って前記記憶部に登録された深度範囲の異なる複数の立体形状データを合成することにより、深度を拡張した合成立体形状データを生成する合成立体形状生成処理とを実行する制御手段とを備えることができる。   Furthermore, according to the shape measuring apparatus according to the third aspect of the present invention, the stage for placing the measurement object, and the projection for projecting pattern light onto the measurement object placed on the stage A light receiving unit having a predetermined field of view and receiving pattern light irradiated from the light projecting unit and reflected from the measurement target, and a measurement target placed on the stage A display unit for displaying an image of an object, a storage unit for storing data, and a focus position of the light receiving unit is adjusted by moving the stage relative to the light receiving unit in the optical axis direction. An optical axis direction drive unit, a focus adjustment unit for accepting an operation for manually adjusting the focus of the image displayed on the display unit, and a depth adjusted by the focus adjustment unit from the light projecting unit. An image in which the illuminated pattern light is received by the light receiving unit. 3D shape data generation processing for performing shape measurement based on the above and generating and registering the 3D shape data in the storage unit, and the 3D shape data at different depths adjusted by the focus adjustment unit in the predetermined photographing field of view respectively A control means for performing a composite solid shape generation process for generating composite solid shape data with an extended depth by performing a generation process and combining a plurality of solid shape data having different depth ranges registered in the storage unit; Can be provided.

さらにまた、本発明の第4の側面に係る形状測定装置によれば、上記何れかの構成に加えて、前記焦点調整部が、前記ステージと受光部の光軸方向の相対的な距離を、マウスのホイールで調整可能とできる。上記構成により、測定対象物の光学画像上から、焦点の位置を変えながら所望の位置を順次指定する作業を、ユーザはマウスを用いて容易に行える利点が得られる。   Furthermore, according to the shape measuring apparatus according to the fourth aspect of the present invention, in addition to any one of the above-described configurations, the focus adjusting unit determines a relative distance between the stage and the light receiving unit in the optical axis direction. It can be adjusted with the mouse wheel. With the above-described configuration, there is an advantage that the user can easily specify the desired position sequentially from the optical image of the measurement object while changing the focus position using the mouse.

さらにまた、本発明の第5の側面に係る形状測定装置によれば、上記何れかの構成に加えて、さらに、測定対象物の光学画像を撮像するための照明光を照射する照明光出力部と、前記照明光出力部で照明された測定対象物を光学的に撮像したテクスチャ画像を保存するためのテクスチャ画像記憶部とを備えることができる。上記構成により、投光部とは別に設けられた照明光出力部で照明された測定対象物の光学画像をテクスチャ画像として保存することができる。   Furthermore, according to the shape measuring apparatus according to the fifth aspect of the present invention, in addition to any of the above configurations, an illumination light output unit that emits illumination light for capturing an optical image of the measurement object. And a texture image storage unit for storing a texture image obtained by optically imaging the measurement object illuminated by the illumination light output unit. With the above configuration, the optical image of the measurement object illuminated by the illumination light output unit provided separately from the light projecting unit can be stored as a texture image.

さらにまた、本発明の第6の側面に係る形状測定装置によれば、上記何れかの構成に加えて、前記立体形状データを生成する合焦位置で、前記テクスチャ画像を撮像するよう構成できる。上記構成により、高さ画像を生成する焦点位置のテクスチャ画像も併せて取得することにより、高さ情報に加えてテクスチャ情報も取得できる。   Furthermore, according to the shape measuring apparatus according to the sixth aspect of the present invention, in addition to any of the above-described configurations, the texture image can be captured at a focus position where the solid shape data is generated. With the above configuration, texture information can be acquired in addition to height information by also acquiring a texture image at a focal position for generating a height image.

さらにまた、本発明の第7の側面に係る形状測定装置によれば、上記何れかの構成に加えて、前記制御手段が、立体形状データと、該立体形状データと同じ高さ指定位置で撮像したテクスチャ画像とを合成した合成画像を生成する三次元画像合成部を備えることができる。上記構成により、高さ画像に対し、同じ焦点位置で撮像したテクスチャ画像を付加した合成画像が得られ、各位置に焦点の合った高精細な合成画像を得ることができる。   Furthermore, according to the shape measuring apparatus according to the seventh aspect of the present invention, in addition to any of the above-described configurations, the control means captures the solid shape data and the same height designated position as the solid shape data. A three-dimensional image synthesis unit that generates a synthesized image obtained by synthesizing the texture image thus obtained can be provided. With the above configuration, a composite image in which a texture image captured at the same focal position is added to a height image can be obtained, and a high-definition composite image in which each position is focused can be obtained.

さらにまた、本発明の第8の側面に係る形状測定装置によれば、上記何れかの構成に加えて、前記合成立体形状データ生成部で生成された合成立体形状データが、光軸方向に離散的な領域を有することができる。上記構成により、ユーザの測定の目的に応じて、必ずしも測定対象物の全体の形状を再現できていなくとも、離散的な状態で測定を行える場合には、必要な部位のみの高さ情報を有する合成高さ画像を生成することで、処理の簡素化を図ることが可能となる。   Furthermore, according to the shape measuring apparatus according to the eighth aspect of the present invention, in addition to any of the above-described configurations, the combined solid shape data generated by the combined solid shape data generation unit is discrete in the optical axis direction. Specific areas. With the above configuration, depending on the purpose of the user's measurement, if the measurement object can be measured in a discrete state even if the entire shape of the measurement object is not necessarily reproduced, it has height information only for the necessary parts. By generating a composite height image, it is possible to simplify processing.

さらにまた、本発明の第9の側面に係る形状測定装置によれば、上記何れかの構成に加えて、前記表示部は、前記立体形状データと、該立体形状データを他の立体形状データと合成した前記合成立体形状データとを切り替えて、又は同時に表示可能とできる。上記構成により、高さ画像と、この高さ画像で得られる合成高さ画像を対比することができ、所望の高さ画像が得られているかどうかを視覚的に把握し易くできる利点が得られる。   Furthermore, according to the shape measuring apparatus according to the ninth aspect of the present invention, in addition to any one of the above-described configurations, the display unit includes the solid shape data and the solid shape data as another solid shape data. The synthesized three-dimensional shape data synthesized can be switched or simultaneously displayed. With the above configuration, the height image and the composite height image obtained from the height image can be compared, and an advantage can be obtained that it is easy to visually grasp whether or not a desired height image is obtained. .

さらにまた、本発明の第10の側面に係る形状測定装置によれば、上記何れかの構成に加えて、さらに前記立体形状データを保存するための立体形状データ記憶部を備え、前記立体形状データ記憶部が、一以上の立体形状データを保存している状態で、前記表示部が、前記合成立体形状データを表示させる際に、保存済みの立体形状データに、新たに生成しようとする未保存の立体形状データを加えた合成立体形状データに更新して表示させるよう構成できる。上記構成により、随時生成される高さ画像を加えた合成高さ画像に更新して表示部に表示させることが可能となり、ユーザは現在得られている高さ画像を視覚的に把握し易くなる。   Furthermore, according to the shape measuring apparatus according to the tenth aspect of the present invention, in addition to any one of the above-described configurations, a three-dimensional shape data storage unit for storing the three-dimensional shape data is further provided, and the three-dimensional shape data When the storage unit stores one or more three-dimensional shape data, when the display unit displays the composite three-dimensional shape data, unsaved data to be newly generated in the stored three-dimensional shape data The three-dimensional shape data added to the combined three-dimensional shape data can be updated and displayed. With the above configuration, it is possible to update the composite height image added with the height image generated as needed and display it on the display unit, and the user can easily visually grasp the currently obtained height image. .

さらにまた、本発明の第11の側面に係る形状測定方法によれば、測定対象物の高さ情報を含む立体形状データを生成することで形状を測定する形状測定方法であって、測定の対象となる測定対象物をステージ上に載置する工程と、前記ステージを受光部の光軸方向と直交するステージ平面における測定範囲内で相対的に位置決めさせた状態で、前記ステージを前記受光部に対して光軸方向に相対的に移動させて、前記受光部の焦点位置を光軸方向駆動部で調整する工程と、前記測定範囲内において前記光軸方向駆動部で調整された焦点位置を、立体形状データを取得する基準となる深度方向の位置を示す高さ指定位置として、測定対象物に対してパターン光を投光部から投光し、測定対象物で反射されたパターン光を受光部で受光して、受光データに基づいて、前記測定範囲内に存在する測定対象物の高さ情報を画素毎に、パターン投影法で測定した立体形状データを生成する工程と、前記測定範囲において異なる焦点位置に前記光軸方向駆動部で調整し、前記異なる焦点位置を高さ指定位置として前記立体形状データ生成部により立体形状データを生成する作業を繰り返し、得られた複数の立体形状データを合成して、合成立体形状データを生成する工程とを含むことができる。これにより、同じ直交測定範囲で高さの異なる高さ画像を複数、合成するに際して、それぞれ焦点の合った深度で高さ画像を生成することにより、高さ情報の精度を高めることが可能となる。   Furthermore, according to the shape measuring method according to the eleventh aspect of the present invention, there is provided a shape measuring method for measuring a shape by generating three-dimensional shape data including height information of a measurement object, the object being measured And placing the stage on the light receiving unit in a state where the stage is relatively positioned within a measurement range in a stage plane orthogonal to the optical axis direction of the light receiving unit. In contrast, the step of adjusting the focal position of the light receiving unit by the optical axis direction driving unit by relatively moving in the optical axis direction, and the focal position adjusted by the optical axis direction driving unit within the measurement range, Pattern light is projected from the light projecting unit to the measurement target as the height designation position indicating the position in the depth direction as a reference for acquiring the three-dimensional shape data, and the pattern light reflected by the measurement target is received by the light receiving unit. Receive the light and A step of generating three-dimensional shape data obtained by measuring the height information of the measurement object existing in the measurement range for each pixel by a pattern projection method based on the data; and the optical axis at a different focal position in the measurement range. Adjust the direction drive unit, repeat the work of generating the 3D shape data by the 3D shape data generation unit with the different focal position as the height specified position, and synthesize the obtained 3D shape data to combine the 3D shape data Generating data. As a result, when a plurality of height images having different heights in the same orthogonal measurement range are combined, it is possible to increase the accuracy of the height information by generating the height images at the respective in-focus depths. .

さらにまた、本発明の第12の側面に係る形状測定方法によれば、上記に加えて、前記焦点位置を調整する工程が、表示部上に表示された測定対象物の画像上で、前記高さ指定位置の指定を位置指定部で受け付け、前記位置指定部で指定された高さ指定位置に、前記受光部の焦点が一致するように、前記光軸方向駆動部で焦点を調整する工程とすることができる。これにより、ユーザは高さを取得したい部位を測定対象物の画像上で指定することにより、指定された高さを基準に高さ画像が生成されるので、ユーザが求める部位において高さ情報の精度を高めることができる。これにより、ユーザは高さを取得したい部位を測定対象物の画像上で指定することにより、指定された高さを基準に高さ画像が生成されるので、ユーザが求める部位において高さ情報の精度を高めることができる。   Furthermore, according to the shape measuring method according to the twelfth aspect of the present invention, in addition to the above, the step of adjusting the focal position may include the step of adjusting the height of the object to be measured displayed on the display unit. A step of receiving the designation of the designated position by the position designation unit, and adjusting the focus by the optical axis direction drive unit so that the focus of the light receiving unit coincides with the height designation position designated by the position designation unit; can do. As a result, the user designates the part for which the height is to be obtained on the image of the measurement object, so that a height image is generated based on the designated height. Accuracy can be increased. As a result, the user designates the part for which the height is to be obtained on the image of the measurement object, so that a height image is generated based on the designated height. Accuracy can be increased.

さらにまた、本発明の第13の側面に係る形状測定プログラムによれば、測定対象物の高さ情報を含む立体形状データを生成して形状を測定するための形状測定プログラムであって、測定の対象となる測定対象物が載置されたステージを、受光部の光軸方向と直交するステージ平面における測定範囲内で相対的に位置決めさせた状態で、前記ステージを前記受光部に対して光軸方向に相対的に移動させて、前記受光部の焦点位置を光軸方向駆動部で調整する機能と、前記測定範囲内において前記光軸方向駆動部で調整された焦点位置を、立体形状データを取得する基準となる深度方向の位置を示す高さ指定位置として、測定対象物に対してパターン光を投光部から投光し、測定対象物で反射されたパターン光を受光部で受光して、受光データに基づいて、前記測定範囲内に存在する測定対象物の高さ情報を画素毎に、パターン投影法で測定した立体形状データを生成する機能と、前記測定範囲において異なる焦点位置に前記光軸方向駆動部で調整し、前記異なる焦点位置を高さ指定位置として前記立体形状データ生成部により立体形状データを生成する作業を繰り返し、得られた複数の立体形状データを合成して、合成立体形状データを生成する機能と、生成された画像を表示部上に表示させる機能とをコンピュータに実現させることができる。これにより、同じ直交測定範囲で高さの異なる高さ画像を複数、合成するに際して、それぞれ焦点の合った深度で高さ画像を生成することにより、高さ情報の精度を高めることが可能となる。   Furthermore, according to the shape measurement program according to the thirteenth aspect of the present invention, there is provided a shape measurement program for generating solid shape data including height information of a measurement object and measuring the shape, With the stage on which the target measurement object is placed relatively positioned within the measurement range on the stage plane orthogonal to the optical axis direction of the light receiving unit, the stage is optically aligned with respect to the light receiving unit. The function of adjusting the focal position of the light receiving unit by the optical axis direction driving unit by moving the light in the direction relative to the direction, and the focal position adjusted by the optical axis direction driving unit within the measurement range, As a height designation position that indicates the position in the depth direction as a reference for acquisition, pattern light is projected from the light projecting unit to the measurement object, and the pattern light reflected by the measurement object is received by the light receiving unit. , Received light data Based on the function of generating the three-dimensional shape data measured by the pattern projection method for each pixel, the height information of the measurement object existing in the measurement range, and the optical axis direction drive to a different focal position in the measurement range The three-dimensional shape data is generated by the three-dimensional shape data generation unit using the different focal position as the height designation position, and a plurality of the obtained three-dimensional shape data is synthesized to obtain the combined three-dimensional shape data. The computer can realize the function of generating and the function of displaying the generated image on the display unit. As a result, when a plurality of height images having different heights in the same orthogonal measurement range are combined, it is possible to increase the accuracy of the height information by generating the height images at the respective in-focus depths. .

さらにまた、本発明の第14の側面に係る形状測定プログラムによれば、上記何れかの構成に加えて、さらに、前記表示部上に表示された測定対象物の画像上で、前記高さ指定位置の指定を受け付ける機能をコンピュータに実現させ、前記指定された高さ指定位置に、前記受光部の焦点が一致するように、前記光軸方向駆動部で焦点を調整して、前記立体形状データ生成部で該焦点の調整された高さ指定位置を基準として立体形状データを生成することができる。これにより、ユーザは高さを取得したい部位を測定対象物の画像上で指定することにより、指定された高さを基準に高さ画像が生成されるので、ユーザが求める部位において高さ情報の精度を高めることができる。   Furthermore, according to the shape measurement program according to the fourteenth aspect of the present invention, in addition to any of the above-described configurations, the height designation is further performed on the image of the measurement object displayed on the display unit. A function of accepting designation of a position is realized in a computer, and the optical axis direction drive unit adjusts the focal point so that the focal point of the light receiving unit coincides with the designated height designation position, and the three-dimensional shape data The generation unit can generate the three-dimensional shape data based on the height designation position where the focus is adjusted. As a result, the user designates the part for which the height is to be obtained on the image of the measurement object, so that a height image is generated based on the designated height. Accuracy can be increased.

さらにまた、本発明の第14の側面に係る形状測定プログラムによれば、上記に加えて、さらに前記表示部上に表示された測定対象物の画像上で、前記深度の指定を受け付ける機能をコンピュータに実現させ、前記指定された深度に、前記受光部の焦点が一致するように、前記光軸方向駆動部で焦点を調整して、前記高さ画像生成部で該焦点の調整された深度を基準として高さ画像を生成することができる。これにより、ユーザは高さを取得したい部位を測定対象物の画像上で指定することにより、指定された高さを基準に高さ画像が生成されるので、ユーザが求める部位において高さ情報の精度を高めることができる。   Furthermore, according to the shape measurement program according to the fourteenth aspect of the present invention, in addition to the above, the computer has a function of accepting designation of the depth on the image of the measurement object displayed on the display unit. The optical axis direction driving unit adjusts the focal point so that the focal point of the light receiving unit coincides with the designated depth, and the height image generating unit sets the adjusted depth of the focal point. A height image can be generated as a reference. As a result, the user designates the part for which the height is to be obtained on the image of the measurement object, so that a height image is generated based on the designated height. Accuracy can be increased.

また第15の側面に係るコンピュータで読み取り可能な記録媒体又は記録した機器は、上記プログラムを格納するものである。記録媒体には、CD−ROM、CD−R、CD−RWやフレキシブルディスク、磁気テープ、MO、DVD−ROM、DVD−RAM、DVD−R、DVD+R、DVD−RW、DVD+RW、Blu−ray(登録商標)、HD DVD(AOD)等の磁気ディスク、光ディスク、光磁気ディスク、半導体メモリその他のプログラムを格納可能な媒体が含まれる。またプログラムには、上記記録媒体に格納されて配布されるものの他、インターネット等のネットワーク回線を通じてダウンロードによって配布される形態のものも含まれる。さらに記録媒体にはプログラムを記録可能な機器、例えば上記プログラムがソフトウェアやファームウェア等の形態で実行可能な状態に実装された汎用もしくは専用機器を含む。さらにまたプログラムに含まれる各処理や機能は、コンピュータで実行可能なプログラムソフトウエアにより実行してもよいし、各部の処理を所定のゲートアレイ(FPGA、ASIC、DSP)等のハードウエア、又はプログラムソフトウエアとハードウエアの一部の要素を実現する部分的ハードウエアモジュールとが混在する形式で実現してもよい。   A computer-readable recording medium or recorded device according to the fifteenth aspect stores the program. CD-ROM, CD-R, CD-RW, flexible disk, magnetic tape, MO, DVD-ROM, DVD-RAM, DVD-R, DVD + R, DVD-RW, DVD + RW, Blu-ray (registered) Trademark), HD DVD (AOD), and other magnetic disks, optical disks, magneto-optical disks, semiconductor memories, and other media that can store programs. The program includes a program distributed in a download manner through a network line such as the Internet, in addition to a program stored and distributed in the recording medium. Further, the recording medium includes a device capable of recording the program, for example, a general purpose or dedicated device in which the program is implemented in a state where the program can be executed in the form of software, firmware, or the like. Furthermore, each process and function included in the program may be executed by computer-executable program software, or each part of the process or function may be executed by hardware such as a predetermined gate array (FPGA, ASIC, DSP), or a program. You may implement | achieve in the format with which the partial hardware module which implement | achieves some elements of software and hardware is mixed.

本発明の実施形態1に係る計測顕微鏡装置を示すブロック図である。It is a block diagram which shows the measuring microscope apparatus which concerns on Embodiment 1 of this invention. 本発明の実施形態2に係る計測顕微鏡装置を示すブロック図である。It is a block diagram which shows the measuring microscope apparatus which concerns on Embodiment 2 of this invention. 本発明の実施形態3に係る計測顕微鏡装置を示すブロック図である。It is a block diagram which shows the measurement microscope apparatus which concerns on Embodiment 3 of this invention. 図1の撮像手段の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging means of FIG. 計測顕微鏡装置操作プログラムのGUIの一例を示すイメージ図である。It is an image figure which shows an example of GUI of a measurement microscope apparatus operation program. テレセントリック両側投光の光学系を示す模式図である。It is a schematic diagram which shows the optical system of a telecentric double side light projection. 左右投光と測定範囲の関係を示す模式図である。It is a schematic diagram which shows the relationship between right-and-left light projection and a measurement range. 上ヘッドと下ヘッドを接続した状態を示す側面図である。It is a side view which shows the state which connected the upper head and the lower head. 下ヘッドの内部構成を示す概略図である。It is the schematic which shows the internal structure of a lower head. 形状測定の手順を示すフローチャートである。It is a flowchart which shows the procedure of a shape measurement. テクスチャ画像を取得する手順を示すフローチャートである。It is a flowchart which shows the procedure which acquires a texture image. 計測設定を行う手順を示すフローチャートである。It is a flowchart which shows the procedure which performs a measurement setting. 図13Aは、ステージの下方にZステージを配置し、スケール部を離間させた構成を示す模式図、図13Bは、ステージの下方にスケールユニットを配置し、Zステージを背面に配置した構成を示す模式図である。FIG. 13A is a schematic diagram showing a configuration in which the Z stage is arranged below the stage and the scale portion is separated, and FIG. 13B shows a configuration in which the scale unit is arranged below the stage and the Z stage is arranged on the back surface. It is a schematic diagram. 図14Aは高さA、図14Bは高さB、図14Cは高さCにおける、測定範囲を示す模式図である。14A is a schematic diagram showing a measurement range at height A, FIG. 14B at height B, and FIG. 14C at height C. FIG. 図15A〜図15Cは、図14A、図14B、図14Cの各高さで得られた光学画像、図15D〜図15Fは、図14A、図14B、図14Cの各高さで得られた縞画像を、それぞれ示すイメージ図である。15A to 15C are optical images obtained at the respective heights shown in FIGS. 14A, 14B, and 14C, and FIGS. 15D to 15F are fringes obtained at the respective heights shown in FIGS. 14A, 14B, and 14C. It is an image figure which shows an image, respectively. 図16Aは図14Aの高さA、図16Bは図14Bの高さB、図16Cは図14Cの高さCで得られた測定結果を、図16Dはこれらを連結する様子を示す模式図である。16A is the height A of FIG. 14A, FIG. 16B is the height B of FIG. 14B, FIG. 16C is the measurement result obtained at the height C of FIG. 14C, and FIG. is there. 図17Aは深度探索範囲内のデータを非表示とした合成画像のイメージ図、図17Bは深度探索範囲内のデータを表示させた合成画像のイメージ図である。FIG. 17A is an image diagram of a composite image in which data in the depth search range is not displayed, and FIG. 17B is an image diagram of a composite image in which data in the depth search range is displayed. 図18Aは別の測定対象物の深度探索範囲内のデータを非表示とした合成画像のイメージ図、図18Bは深度探索範囲内のデータを表示させた合成画像のイメージ図である。FIG. 18A is an image diagram of a composite image in which data in the depth search range of another measurement object is not displayed, and FIG. 18B is an image diagram of a composite image in which data in the depth search range is displayed. 測定可能な高さ範囲外で深度探索範囲内にある測定対象物の高さ位置に縞画像が確認できる状態を示すイメージ図である。It is an image figure which shows the state which can confirm a fringe image in the height position of the measuring object which exists in the depth search range out of the measurable height range. 別の測定対象物に対して、測定可能な高さ範囲外で深度探索範囲内にある高さ位置に縞画像が確認できる状態を示すイメージ図である。It is an image figure which shows the state which can confirm a fringe image in the height position which exists in the depth search range outside the measurable height range with respect to another measuring object. 連結時の画像の粗さとピッチの関係を示すグラフである。It is a graph which shows the relationship between the roughness of an image at the time of connection, and a pitch. 連結測定範囲を自動で決定する深度探索範囲を説明する模式図である。It is a schematic diagram explaining the depth search range which determines a connection measurement range automatically. 取得済みの画素を累積する様子を示す模式図である。It is a schematic diagram which shows a mode that the acquired pixel is accumulated. 累積画像の変遷を示す模式図である。It is a schematic diagram which shows the transition of a cumulative image. 自動深度拡張の手順を示すフローチャートである。It is a flowchart which shows the procedure of automatic depth extension. 実施例2に係る自動深度拡張を説明する模式図である。FIG. 10 is a schematic diagram for explaining automatic depth extension according to the second embodiment. 形状測定プログラムのフルオートモードのユーザインターフェース画面を示すイメージ図である。It is an image figure which shows the user interface screen of the full auto mode of a shape measurement program. 測定モード選択を行う例を示すイメージ図である。It is an image figure which shows the example which performs measurement mode selection. 深度拡張モード選択を行う例を示すイメージ図である。It is an image figure which shows the example which performs depth extension mode selection. 測定方向選択を行う例を示すイメージ図である。It is an image figure which shows the example which performs a measurement direction selection. 測定明るさ設定を行う例を示すイメージ図である。It is an image figure which shows the example which performs measurement brightness setting. 手動深度拡張の手順を示すフローチャートである。It is a flowchart which shows the procedure of manual depth expansion. 図33Aは測定対象物を表示させた光学画像A、図33Bは図33Aよりも高い焦点位置の光学画像B、図33Cは図33Bよりも高い焦点位置の光学画像C、図33Dは図33Aの高さ画像D、図33Eは図33Bの高さ画像E、図33Fは図33Cの高さ画像F、図33Gは図33D、図33E、図33Fの高さ画像を合成した合成高さ画像Gを、それぞれ示すイメージ図である。33A is an optical image A displaying a measurement object, FIG. 33B is an optical image B at a higher focal position than FIG. 33A, FIG. 33C is an optical image C at a higher focal position than FIG. 33B, and FIG. Height image D, FIG. 33E is the height image E in FIG. 33B, FIG. 33F is the height image F in FIG. 33C, and FIG. 33G is a composite height image G that is a combination of the height images in FIGS. 33D, 33E, and 33F. FIG. 3D測定画面のマニュアル観察画面を示すイメージ図である。It is an image figure which shows the manual observation screen of 3D measurement screen. 高さ画像を示す3Dプレビュー画面を示すイメージ図である。It is an image figure which shows the 3D preview screen which shows a height image. 3D測定画面を示すイメージ図である。It is an image figure which shows a 3D measurement screen. 図36の高さ指定位置で得られた高さ画像を示す3Dプレビュー画面を示すイメージ図である。It is an image figure which shows the 3D preview screen which shows the height image obtained in the height designation position of FIG. 図35の高さ画像を合成した合成高さ画像を表示する3Dプレビュー画面を示すイメージ図である。It is an image figure which shows the 3D preview screen which displays the synthetic | combination height image which synthesize | combined the height image of FIG. 高さ画像と合成高さ画像を一覧表示する3Dプレビュー画面を示すイメージ図である。It is an image figure which shows the 3D preview screen which displays a height image and a composite height image as a list. 図35の高さ画像を合成した合成高さ画像を表示する3Dプレビュー画面を示すイメージ図である。It is an image figure which shows the 3D preview screen which displays the synthetic | combination height image which synthesize | combined the height image of FIG. 図40の高さ画像を異なる角度から見た3Dプレビュー画面を示すイメージ図である。It is an image figure which shows the 3D preview screen which looked at the height image of FIG. 40 from a different angle. 部分領域の設定例を示すイメージ図である。It is an image figure which shows the example of a setting of a partial area | region. 図42の測定対象物の光学画像を示すイメージ図である。FIG. 43 is an image diagram showing an optical image of the measurement object in FIG. 42. 図44Aは、図43の測定対象物から通常測定モードで生成された高さ画像、図44Bは、反射/潜り込み光除去モードで生成された高さ画像のイメージ図である。44A is a height image generated from the measurement object of FIG. 43 in the normal measurement mode, and FIG. 44B is an image diagram of the height image generated in the reflection / simmering light removal mode. 図45Aはある測定対象物の縞画像のイメージ図、図45Bは図45Aの測定対象物の内、金属部分の輝度プロファイル、図45Cは穴部分の輝度プロファイル、図45Dは白樹脂部分の輝度プロファイルである。45A is an image diagram of a stripe image of a certain measurement object, FIG. 45B is a luminance profile of a metal part of the measurement object of FIG. 45A, FIG. 45C is a luminance profile of a hole part, and FIG. 45D is a luminance profile of a white resin part. is there. 部分領域測定設定を自動調整して合成立体形状データを生成する手順を示すフローチャートである。It is a flowchart which shows the procedure which produces | generates synthetic | combination solid shape data by adjusting a partial area | region measurement setting automatically. 測定対象物に複数の部分領域を設定した状態を示す側面図である。It is a side view which shows the state which set the some partial area | region to the measuring object. 図47の分割測定領域毎の部分領域測定設定を示す表である。48 is a table showing partial area measurement settings for each divided measurement area in FIG. 47.

以下、本発明の実施の形態を図面に基づいて説明する。ただし、以下に示す実施の形態は、本発明の技術思想を具体化するための形状測定装置、形状測定方法、形状測定プログラム及びコンピュータで読み取り可能な記録媒体を例示するものであって、本発明は形状測定装置、形状測定方法、形状測定プログラム及びコンピュータで読み取り可能な記録媒体を以下のものに特定しない。また、本明細書は特許請求の範囲に示される部材を、実施の形態の部材に特定するものでは決してない。特に実施の形態に記載されている構成部品の寸法、材質、形状、その相対的配置等は特に特定的な記載がない限りは、本発明の範囲をそれのみに限定する趣旨ではなく、単なる説明例にすぎない。なお、各図面が示す部材の大きさや位置関係等は、説明を明確にするため誇張していることがある。さらに以下の説明において、同一の名称、符号については同一もしくは同質の部材を示しており、詳細説明を適宜省略する。さらに、本発明を構成する各要素は、複数の要素を同一の部材で構成して一の部材で複数の要素を兼用する態様としてもよいし、逆に一の部材の機能を複数の部材で分担して実現することもできる。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the following embodiments exemplify a shape measuring device, a shape measuring method, a shape measuring program, and a computer-readable recording medium for embodying the technical idea of the present invention. Does not specify a shape measuring apparatus, a shape measuring method, a shape measuring program, and a computer-readable recording medium as follows. Further, the present specification by no means specifies the members shown in the claims to the members of the embodiments. In particular, the dimensions, materials, shapes, relative arrangements, and the like of the component parts described in the embodiments are not intended to limit the scope of the present invention unless otherwise specified, and are merely explanations. It is just an example. Note that the size, positional relationship, and the like of the members shown in each drawing may be exaggerated for clarity of explanation. Furthermore, in the following description, the same name and symbol indicate the same or the same members, and detailed description thereof will be omitted as appropriate. Furthermore, each element constituting the present invention may be configured such that a plurality of elements are constituted by the same member and the plurality of elements are shared by one member, and conversely, the function of one member is constituted by a plurality of members. It can also be realized by sharing.

本明細書において、「テクスチャ画像」とは、光学画像に代表される、テクスチャ情報を有する観察画像である。一方、「高さ画像」とは、距離画像等とも呼ばれるものであり、高さ情報を含む画像の意味で使用する。例えば、高さ情報を輝度や色度等に変換して二次元画像として表示した画像や、高さ情報をZ座標情報として三次元状に表示した画像が挙げられる。またこのような高さ画像にテクスチャ画像をテクスチャ情報として貼り付けた三次元の合成画像も、高さ画像に含む。また、本明細書において高さ画像の表示形態は二次元状に表示されるものに限られず、三次元状に表示されるものも含む。例えば、高さ画像の有する高さ情報を輝度等に変換して二次元画像として表示したものや、高さ情報をZ座標情報として三次元状に表示したものを含む。   In this specification, the “texture image” is an observation image having texture information represented by an optical image. On the other hand, the “height image” is also called a distance image or the like, and is used to mean an image including height information. For example, an image in which height information is converted into luminance, chromaticity, and the like and displayed as a two-dimensional image, and an image in which height information is displayed in three dimensions as Z coordinate information can be given. A three-dimensional composite image in which a texture image is pasted as texture information on such a height image is also included in the height image. Further, in the present specification, the display form of the height image is not limited to the one displayed in a two-dimensional form, but includes the one displayed in a three-dimensional form. For example, it includes information displayed as a two-dimensional image by converting height information of the height image into luminance, and information displayed three-dimensionally as height information as Z coordinate information.

さらに本明細書において測定対象物をステージ上に置く「姿勢」とは、測定対象物の回転角度を意味する。なお、測定対象物が円錐のような平面視において点対称の形状の場合は、回転角度に依らず同じ結果が得られるため、姿勢は規定する必要がない。
[実施形態1]
Further, in this specification, the “posture” where the measurement object is placed on the stage means the rotation angle of the measurement object. In addition, when the measurement object has a point-symmetric shape in a plan view like a cone, the same result can be obtained regardless of the rotation angle, and thus the posture need not be defined.
[Embodiment 1]

本発明の実施形態1に係る形状測定装置の構成を示すブロック図を図1に示す。形状測定装置500は、図1に示すように、撮像手段100、制御手段200、光源部300、表示部400及び操作デバイス450を備える。この構成は一例であって、各部材や各部材に含まれる機能ブロックは、適宜統合させたり、分割させることができる。例えば、制御手段に光源部を含めてもよい。また制御手段を、コントローラと汎用コンピュータに分割してもよい。
(撮像手段100)
FIG. 1 is a block diagram showing the configuration of the shape measuring apparatus according to the first embodiment of the present invention. As shown in FIG. 1, the shape measuring apparatus 500 includes an imaging unit 100, a control unit 200, a light source unit 300, a display unit 400, and an operation device 450. This configuration is an example, and each member and the functional blocks included in each member can be appropriately integrated or divided. For example, a light source unit may be included in the control means. The control means may be divided into a controller and a general-purpose computer.
(Imaging means 100)

撮像手段100は、投光部110と、受光部120と、測定制御部150と、ステージ140と、光軸方向駆動部146と、ステージ平面方向駆動部148を備える。投光部110は、ステージ140上に載置された測定対象物WKに対し、パターン光を照射するための部材である。受光部120は、投光部110から照射されて、測定対象物WKで反射されたパターン光を受光して、受光データを出力する。測定制御部150は、投光部110の投光と受光部120の受光を駆動し、また受光部120の受光データを出力するための部材である。この撮像手段は、パターン投影法に基づいて測定対象物WKの形状を測定する。
[実施形態2]
The imaging unit 100 includes a light projecting unit 110, a light receiving unit 120, a measurement control unit 150, a stage 140, an optical axis direction driving unit 146, and a stage plane direction driving unit 148. The light projecting unit 110 is a member for irradiating the measurement target object WK placed on the stage 140 with pattern light. The light receiving unit 120 receives the pattern light irradiated from the light projecting unit 110 and reflected by the measurement target WK, and outputs light reception data. The measurement control unit 150 is a member for driving light projection of the light projecting unit 110 and light reception of the light receiving unit 120 and outputting light reception data of the light receiving unit 120. This imaging means measures the shape of the measuring object WK based on the pattern projection method.
[Embodiment 2]

図1の例では、高さ画像を取得するための測定光を投光するパターン投光系と、テクスチャ画像を撮像するための照明光を照射する照明投光系を、別個に設けた例を説明した。ただ本発明は、投光系を個別に設ける構成に限定せず、投光系を共通化してもよい。このような例を実施形態2として、図2のブロック図に示す。この図に示す形状測定装置500Bにおいて、図1と同様の部材については、同じ符号を付して詳細説明を省略する。   In the example of FIG. 1, an example in which a pattern projection system that projects measurement light for obtaining a height image and an illumination projection system that illuminates illumination light for capturing a texture image are provided separately. explained. However, the present invention is not limited to the configuration in which the light projecting system is provided individually, and the light projecting system may be shared. Such an example is shown in the block diagram of FIG. In the shape measuring apparatus 500B shown in this figure, the same members as those in FIG.

実施形態2に係る形状測定装置500Bは、図1の形状測定装置500と比べて、照明光出力部及び観察用照明光源を備えていない。この形状測定装置500Bでは、投光部110が照明光の照射を兼用している。例えば投光部110がパターン投影する際のパターンをすべて点灯として照射することで、面状光源として利用して照明光と同様の光を照射できる。この構成であれば、照明光出力部を省略できるので、形状測定装置の構成を簡素化できる利点が得られる。   The shape measuring apparatus 500B according to the second embodiment does not include an illumination light output unit and an observation illumination light source, as compared with the shape measuring apparatus 500 in FIG. In the shape measuring apparatus 500B, the light projecting unit 110 also serves as illumination light irradiation. For example, by irradiating all the patterns when the light projecting unit 110 projects a pattern as lighting, it is possible to irradiate the same light as the illumination light by using as a planar light source. If it is this structure, since an illumination light output part can be abbreviate | omitted, the advantage which can simplify the structure of a shape measuring apparatus is acquired.

一方、ステージ140は、測定対象物WKを載置するための部材である。また光軸方向駆動部146は、ステージ140を受光部120に対して光軸方向に相対的に移動させることにより、受光部120の焦点位置を調整するための部材である。この例では光軸方向駆動部146は、ステージ140側を駆動させて、焦点距離を調整する焦点調整部として機能する。また光軸方向駆動部146は、電動でステージ140を駆動するステージ駆動部と、手動でステージ140を操作するためのステージ操作部を備えている。これら詳細については後述する。   On the other hand, the stage 140 is a member for placing the measurement object WK. The optical axis direction drive unit 146 is a member for adjusting the focal position of the light receiving unit 120 by moving the stage 140 relative to the light receiving unit 120 in the optical axis direction. In this example, the optical axis direction drive unit 146 functions as a focus adjustment unit that drives the stage 140 side and adjusts the focal length. The optical axis direction drive unit 146 includes a stage drive unit that electrically drives the stage 140 and a stage operation unit that manually operates the stage 140. Details of these will be described later.

またステージ平面方向駆動部148は、ステージ140を受光部120の光軸方向と直交するステージ平面方向に相対的に移動させるための部材である。ステージ平面方向駆動部148はステージ140を水平面内で駆動させる駆動部であり、視野範囲を調整することができる。ステージ140側を駆動させる例においては、ステージ平面方向駆動部148はXYステージ141に相当し、一方光軸方向駆動部146はZステージ142に相当する。
[実施形態3]
The stage plane direction driving unit 148 is a member for relatively moving the stage 140 in the stage plane direction orthogonal to the optical axis direction of the light receiving unit 120. The stage plane direction drive unit 148 is a drive unit that drives the stage 140 in the horizontal plane, and can adjust the visual field range. In the example of driving the stage 140 side, the stage plane direction driving unit 148 corresponds to the XY stage 141, while the optical axis direction driving unit 146 corresponds to the Z stage 142.
[Embodiment 3]

ただ本発明は、光軸方向駆動部146をステージ140側の移動に限定せず、投光部110及び受光部120側を移動させてもよい。このような例を実施形態3に係る形状測定装置として、図3のブロック図に示す。この図に示す形状測定装置500Cにおいても、図1等と同様の部材については、同じ符号を付して詳細説明を省略する。   However, in the present invention, the optical axis direction driving unit 146 is not limited to the movement on the stage 140 side, and the light projecting unit 110 and the light receiving unit 120 side may be moved. Such an example is shown in the block diagram of FIG. 3 as a shape measuring apparatus according to the third embodiment. Also in the shape measuring apparatus 500C shown in this figure, members similar to those in FIG. 1 and the like are denoted by the same reference numerals and detailed description thereof is omitted.

実施形態3に係る形状測定装置500Cは、撮像手段100Cにおいて、ステージ140側の高さを固定する一方、光軸方向駆動部146Cで、投光部110及び受光部120側を移動させている。光軸方向駆動部146Cは、投光部110や受光部120などの撮像系を手動で操作するための撮像系操作部144Cと、撮像系を電動で駆動するための撮像系駆動部145Cを備えている。この構成であっても、同様に焦点位置を調整できる。またステージ140の高さを一定とすることで、ステージ140上に測定対象物WKを載置する高さを一定に維持できるので、測定対象物WKの載置作業をスムーズに行える利点が得られる。なお、ステージ側と投光部及び受光部側の両方を移動可能とさせてもよい。このように本明細書においては、ステージ側、あるいは投光部及び受光部側のいずれか又は両方を移動させる場合でも、深度方向に焦点位置を調整できる。よって本明細書において「ステージを受光部に対して光軸方向に相対的に移動させる」というときは、ステージ側を移動させる態様と投光部及び受光部側を移動させる態様、及び両者を移動させる態様を含むものとする。
(制御手段200)
The shape measuring apparatus 500C according to the third embodiment fixes the height on the stage 140 side in the imaging unit 100C, while moving the light projecting unit 110 and the light receiving unit 120 side by the optical axis direction driving unit 146C. The optical axis direction driving unit 146C includes an imaging system operation unit 144C for manually operating an imaging system such as the light projecting unit 110 and the light receiving unit 120, and an imaging system driving unit 145C for electrically driving the imaging system. ing. Even with this configuration, the focal position can be adjusted similarly. Further, by making the height of the stage 140 constant, the height of placing the measurement object WK on the stage 140 can be maintained constant, so that an advantage that the work of placing the measurement object WK can be performed smoothly is obtained. . Note that both the stage side and the light projecting unit and the light receiving unit side may be movable. Thus, in the present specification, the focal position can be adjusted in the depth direction even when either or both of the stage side, the light projecting unit and the light receiving unit side are moved. Therefore, in this specification, when “the stage is moved relative to the light receiving part in the optical axis direction”, the stage side is moved, the light projecting part and the light receiving part side are moved, and both are moved. It is assumed that the mode to be performed is included.
(Control means 200)

制御手段200は、立体形状データ生成部212と、三次元画像合成部213と、判定処理部214と、深度拡張処理部215と、合成処理部216と、測定設定自動調整部217と、立体形状データ連結部219と、記憶部240と、設定部250とを備える。
(測定設定自動調整部217)
The control means 200 includes a three-dimensional shape data generation unit 212, a three-dimensional image composition unit 213, a determination processing unit 214, a depth extension processing unit 215, a composition processing unit 216, a measurement setting automatic adjustment unit 217, and a three-dimensional shape. The data connection part 219, the memory | storage part 240, and the setting part 250 are provided.
(Measurement setting automatic adjustment unit 217)

測定設定自動調整部217は、各部分領域の立体形状データ及び該立体形状データを生成する際に各部分領域で取得された受光データの少なくともいずれかに基づいて、該部分領域の測定設定を自動的に調整するための部材である。測定設定自動調整部217は、各部分領域において、部分領域測定設定を自動的に調整し、必要に応じて各部分領域の測定設定に変更する。このように各部分領域の測定設定が変更された場合、この部分領域の測定設定に従って、立体形状データ生成部で再度立体形状データを生成し直す。すなわち、調整後の各部分領域の測定設定に従って、投光部でパターン光を投光し、受光部で調整受光データを受光し、これに基づいて、立体形状データ生成部で調整立体形状データを生成する。さらに立体形状データ連結部219でこの調整立体形状データを連結して連結調整立体形状データを生成する。これにより、一旦取得された受光データや立体形状データに基づいて最適な条件に変更された各部分領域の測定設定でもって立体形状データを生成し、より正確な計測を行うことが可能となる。
(立体形状データ連結部219)
The measurement setting automatic adjustment unit 217 automatically sets the measurement setting of the partial area based on at least one of the solid shape data of each partial area and the received light data acquired in each partial area when the solid shape data is generated. It is a member for adjusting automatically. The measurement setting automatic adjustment unit 217 automatically adjusts the partial region measurement setting in each partial region, and changes the measurement setting to each partial region as necessary. Thus, when the measurement setting of each partial area is changed, according to the measurement setting of this partial area, the solid shape data generation part generates 3D shape data again. That is, according to the measurement settings of each adjusted partial area, the light projecting unit projects pattern light, the light receiving unit receives the adjusted light reception data, and based on this, the three-dimensional shape data generating unit receives the adjusted three-dimensional shape data. Generate. Further, the three-dimensional shape data connection unit 219 connects the adjusted three-dimensional shape data to generate connection adjusted three-dimensional shape data. As a result, it is possible to generate the three-dimensional shape data with the measurement settings of the partial regions that have been changed to the optimum conditions based on the received light data and the three-dimensional shape data, and perform more accurate measurement.
(Three-dimensional shape data connection unit 219)

立体形状データ連結部219は、測定設定調整部により調整された部分領域測定設定に従って測定された各部分領域の立体形状データを連結し、連結領域に対応する連結立体形状データを生成するための部材である。
(立体形状データ生成部212)
The solid shape data connecting unit 219 is a member for connecting the solid shape data of each partial region measured according to the partial region measurement setting adjusted by the measurement setting adjusting unit, and generating connected solid shape data corresponding to the connected region. It is.
(3D shape data generation unit 212)

立体形状データ生成部212は、連結領域設定部256で設定された各部分領域において、測定設定部255で設定された測定設定に従って、受光部により出力された受光データに基づいて、測定対象物の形状を示す立体形状データをパターン投影法で生成する部材である。図1等の例では、立体形状データ生成部212は、投光部110により順次位相をシフトして投光され、測定対象物WKの表面から反射した光を受光部120が複数回受光し、出力した複数の受光データに基づいて、測定対象物WKの表面形状によって変化する位相データを取得し、当該位相データに基づいて、受光部120の光軸と直交するステージ平面内に存在する測定対象物WKの形状をパターン投影法で測定して立体形状データを取得する。このステージ平面は、面状に指定され、例えばXY平面上で指定される。また立体形状データは、画素毎に取得することが好ましい。なおここでいう立体形状データは、高さ情報を測定可能なデータの意味である。例えば、測定対象物を示す各画素が測定対象物の三次元座標を示す高さ画像が、立体形状データに含まれる。すなわち立体形状データは、必ずしも高さ情報を直接有していることは要さず、例えば高さ情報を測定前の、パターン投影法で測定した縞画像や、位相データ、縞画像から画素毎に測定対象物の三次元座標(例えばXYZ座標)を示す高さ情報を計測したデータも、立体形状データに含む。   The three-dimensional shape data generation unit 212 determines the measurement target object based on the light reception data output from the light receiving unit according to the measurement setting set by the measurement setting unit 255 in each partial region set by the connection region setting unit 256. It is a member that generates solid shape data indicating a shape by a pattern projection method. In the example of FIG. 1 and the like, the three-dimensional shape data generation unit 212 sequentially projects the phase by the light projecting unit 110, and the light receiving unit 120 receives the light reflected from the surface of the measurement object WK a plurality of times. Based on the output plurality of received light data, phase data that varies depending on the surface shape of the measurement object WK is acquired, and on the basis of the phase data, the measurement object that exists in the stage plane orthogonal to the optical axis of the light receiving unit 120 The shape of the object WK is measured by the pattern projection method to obtain solid shape data. This stage plane is specified as a planar shape, for example, specified on the XY plane. Further, it is preferable to obtain the solid shape data for each pixel. Note that the three-dimensional shape data here means data that can measure height information. For example, the three-dimensional shape data includes a height image in which each pixel indicating the measurement object indicates the three-dimensional coordinates of the measurement object. That is, solid shape data does not necessarily have height information directly. For example, before measuring height information, a fringe image measured by a pattern projection method, phase data, or a fringe image is used for each pixel. Data obtained by measuring height information indicating the three-dimensional coordinates (for example, XYZ coordinates) of the measurement object is also included in the three-dimensional shape data.

また立体形状データ生成部212は、高さ画像を生成することもできる。このため立体形状データ生成部212は、高さ画像を生成する高さ画像生成部212bや、高さ画像に対して計測を行う形状測定処理部212cを含めることができる。このように立体形状データ生成部212を、立体形状データに含まれる、測定対象物を示す各画素が測定対象物の三次元座標を示す高さ画像を生成するよう構成してもよい。
(判定処理部214)
The three-dimensional shape data generation unit 212 can also generate a height image. Therefore, the three-dimensional shape data generation unit 212 can include a height image generation unit 212b that generates a height image and a shape measurement processing unit 212c that performs measurement on the height image. In this way, the three-dimensional shape data generation unit 212 may be configured to generate a height image in which each pixel indicating the measurement object included in the three-dimensional shape data indicates the three-dimensional coordinates of the measurement object.
(Determination processing unit 214)

判定処理部214は、立体形状データ取得部212により取得された立体形状データに基づいて、深度測定範囲内に高さ情報を有さない未測定の領域が存在するか否かを、所定の判定条件に従って判定するための部材である。パターン投影法では、縞パターンのコントラストが低くても、隣り合う明部と暗部が区別できる程度のコントラストを有していれば、立体形状データの取得が可能である。したがって、深度測定範囲とは、ステージ140を受光部120、投光部110、又はその両方に対し、相対的に移動させることなく高さ情報を取得可能な受光部120の光軸方向のある一定の幅を有する範囲を示す。より詳細には、深度測定範囲は、投光部110により測定対象物WK上に投光された縞パターンが最も大きいコントラストで撮像される位置に対し、光軸方向上下に一定の範囲を有する。ここで、一定の範囲とは、受光部120により投光部110から投光された縞パターンが少なくとも撮像可能な範囲であり、異なる方向からパターン光を投光する投光部110が複数存在する場合は、すべての投光部110から投光された縞パターンが撮像される範囲に基づいて定義されてよい。また、未測定の領域とは、立体形状データの内、高さ情報を取得できないデータを指す。例えば縞投影の縞パターンが映っていない画素や複数の画素からなる領域が挙げられる。また所定の判定条件には、立体形状データに含まれる縞画像のコントラストや、輝度が所定値に至っているかなどが挙げられる。   Based on the solid shape data acquired by the solid shape data acquisition unit 212, the determination processing unit 214 determines whether or not there is an unmeasured region having no height information within the depth measurement range. It is a member for determining according to conditions. In the pattern projection method, even if the contrast of the fringe pattern is low, it is possible to acquire the three-dimensional shape data as long as the adjacent bright and dark portions can be distinguished. Therefore, the depth measurement range is a certain constant in the optical axis direction of the light receiving unit 120 that can acquire height information without moving the stage 140 relative to the light receiving unit 120, the light projecting unit 110, or both. A range having a width of. More specifically, the depth measurement range has a certain range up and down in the optical axis direction with respect to the position where the fringe pattern projected on the measurement object WK by the light projecting unit 110 is imaged with the highest contrast. Here, the fixed range is a range where at least the stripe pattern projected from the light projecting unit 110 by the light receiving unit 120 can be imaged, and there are a plurality of light projecting units 110 that project pattern light from different directions. In this case, it may be defined based on a range in which stripe patterns projected from all the light projecting units 110 are imaged. Further, the unmeasured area refers to data in which height information cannot be acquired from the solid shape data. For example, a pixel that does not show a fringe pattern of fringe projection or a region composed of a plurality of pixels can be used. Further, the predetermined determination condition includes, for example, the contrast of the fringe image included in the three-dimensional shape data and whether the luminance reaches a predetermined value.

すなわち、最終的な立体形状データが得られていない画素の中で、パターンが投影されていることが判定できる程度の輝度値が得られている画素が存在する場合には、測定対象物が存在しているものと判断して、これを元に深度測定範囲を変えて立体形状データの取得を試みる。   In other words, if there is a pixel that has a brightness value enough to determine that the pattern is projected among the pixels for which final three-dimensional shape data has not been obtained, the measurement object exists. Based on this, the depth measurement range is changed, and acquisition of the three-dimensional shape data is attempted.

判定処理部214は、このような判定条件に基づいて、高さの計測が可能な程度に縞パターンが得られているかを判定することで、深度測定範囲内に高さ情報を有さない未測定の領域が存在するか否かを判断できる。   Based on such a determination condition, the determination processing unit 214 determines whether or not the fringe pattern is obtained to such an extent that the height can be measured, thereby not having height information in the depth measurement range. It can be determined whether or not a measurement area exists.

また判定処理部214は、深度測定範囲内で高さ情報を測定可能な取得済みの画素を累積して、この取得済み画素を累積した累積画像に基づいて未測定の画素が存在するか否かを判定するよう構成できる。   Further, the determination processing unit 214 accumulates acquired pixels that can measure height information within the depth measurement range, and whether or not there is an unmeasured pixel based on the accumulated image obtained by accumulating the acquired pixels. Can be configured to determine.

さらに判定処理部214は、深度測定範囲内のいずれかの部位に立体形状データを有するか否かを判定し、未測定画素の有無を判定するよう構成してもよい。このように、深度測定範囲内に高さが測定できた画素があれば、深度を自動拡張するようにしてもよい。すなわち深度測定範囲内で一点でも測定できたら、拡張するように制御することもできる。
(深度拡張処理部215)
Furthermore, the determination processing unit 214 may be configured to determine whether or not there is solid shape data in any part within the depth measurement range, and determine whether or not there is an unmeasured pixel. Thus, if there is a pixel whose height can be measured within the depth measurement range, the depth may be automatically expanded. That is, if even one point can be measured within the depth measurement range, it can be controlled to expand.
(Depth extension processing unit 215)

深度拡張処理部215は、判定処理部214による未測定判定処理により、未測定の領域が存在すると判定された場合に、光軸方向駆動部146を制御して受光部120の焦点位置を変更するための部材である。
(設定部250)
The depth extension processing unit 215 changes the focal position of the light receiving unit 120 by controlling the optical axis direction driving unit 146 when it is determined that an unmeasured region exists by the non-measurement determination process by the determination processing unit 214. It is a member for.
(Setting unit 250)

設定部250は、位置指定部251と、終了条件設定部252と、深度範囲設定部253と、深度拡張モード選択部254と、測定設定部255と、連結領域設定部256と、測定モード選択部257を備える。
(位置指定部251)
The setting unit 250 includes a position specifying unit 251, an end condition setting unit 252, a depth range setting unit 253, a depth extension mode selection unit 254, a measurement setting unit 255, a connected region setting unit 256, and a measurement mode selection unit. 257.
(Position designation part 251)

位置指定部251は、表示部400上に表示された測定対象物WKの画像上で、XY位置を指定するための部材である。
(終了条件設定部252)
The position specifying unit 251 is a member for specifying the XY position on the image of the measurement target WK displayed on the display unit 400.
(End condition setting unit 252)

終了条件設定部252は、光軸方向駆動部146を制御して受光部120の焦点位置を変更する焦点位置変更処理を終了する所定の終了条件を設定するための部材である。   The end condition setting unit 252 is a member for setting a predetermined end condition for ending the focal position changing process for changing the focal position of the light receiving unit 120 by controlling the optical axis direction driving unit 146.

ここで判定処理部214による所定の終了条件とは、移動範囲の物理的な限界、例えばステージ140がそれ以上移動できない位置に到達した状態が挙げられる。また所定の終了条件として、そもそも測定できない状態の他、未測定だが縞画像が取得できない状態も挙げられる。   Here, the predetermined end condition by the determination processing unit 214 includes a physical limit of the moving range, for example, a state where the stage 140 has reached a position where it cannot move any more. In addition to the state where measurement is not possible in the first place, the predetermined end condition includes a state where measurement is not performed but a fringe image cannot be acquired.

なお深度拡張処理部215は、光軸方向駆動部146を動作させる際に、受光部120とステージ140との距離が長くなる方向に動作させることが好ましい。これにより、ステージ140上に載置された測定対象物WKが受光部120に接触する事態を回避することができる。この場合、受光部120とステージ140が離れる一方向にのみ動作するため、ステージの初期位置を適切に設定しないと、測定対象物WKの全体を測定することができなくなる。使用者はステージ140を受光部120の光軸方向に移動させながら、測定を行いたい測定対象物WKの最も低い位置(受光部120が離れた位置)の測定が可能で、且つ測定対象物WKの最も高い位置(受光部120に最も近い位置)が受光部120に衝突しない位置にステージ140の初期位置としてセットする。この作業は、使用者が表示部400に表示された立体形状データを確認したり、実際のステージ140と受光部120との距離を目視で確認することにより行うことができる。   The depth extension processing unit 215 is preferably operated in a direction in which the distance between the light receiving unit 120 and the stage 140 is increased when the optical axis direction driving unit 146 is operated. Thereby, the situation where the measuring object WK placed on the stage 140 contacts the light receiving unit 120 can be avoided. In this case, since the light receiving unit 120 and the stage 140 operate only in one direction away from each other, the entire measurement target WK cannot be measured unless the initial stage position is set appropriately. The user can measure the lowest position of the measuring object WK to be measured (position where the light receiving part 120 is separated) while moving the stage 140 in the optical axis direction of the light receiving part 120, and the measuring object WK. Is set as the initial position of the stage 140 at a position where the highest position (position closest to the light receiving unit 120) does not collide with the light receiving unit 120. This operation can be performed by the user confirming the three-dimensional shape data displayed on the display unit 400 or visually confirming the distance between the stage 140 and the light receiving unit 120.

一方で、深度拡張処理部215が、受光部120とステージ140との距離が短くなる方向にも光軸方向駆動部146の動作を許容する場合は、ステージ140上の測定対象物WKがカメラ等と接触する事態を阻止するための機構を備えることが好ましい。例えば、測定対象物WKの最も高い部位の大まかな高さを予め取得しておき、この高さよりも短い距離に受光部120とステージ140とが接近することを禁止するように、深度拡張処理部215で光軸方向駆動部146の動作を制限する。受光部120とステージ140との距離が短くなる方向、及び長くなる方向の両方向にステージの移動を許容する場合は、ステージ140の初期位置から、まずいずれか一方の方向にステージ140を移動して、判定処理部214による終了条件が満たされない場合は、他方の方向にステージ140を移動し、終了条件が満たされるまで往復動作を行う。   On the other hand, when the depth extension processing unit 215 permits the operation of the optical axis direction driving unit 146 in the direction in which the distance between the light receiving unit 120 and the stage 140 is shortened, the measurement target WK on the stage 140 is a camera or the like. It is preferable to provide a mechanism for preventing a situation in contact with the device. For example, a depth extension processing unit is obtained so that a rough height of the highest part of the measurement object WK is acquired in advance and the light receiving unit 120 and the stage 140 are prohibited from approaching at a distance shorter than this height. The operation of the optical axis direction driving unit 146 is limited at 215. When the stage is allowed to move in both the direction in which the distance between the light receiving unit 120 and the stage 140 is shortened and the direction in which the distance is increased, the stage 140 is first moved in one direction from the initial position of the stage 140. If the end condition by the determination processing unit 214 is not satisfied, the stage 140 is moved in the other direction, and a reciprocating operation is performed until the end condition is satisfied.

深度範囲設定部253は、光軸方向駆動部146を制御して受光部120の焦点位置を変更する範囲を設定するための部材である。   The depth range setting unit 253 is a member for setting the range in which the focal position of the light receiving unit 120 is changed by controlling the optical axis direction driving unit 146.

深度拡張モード選択部254は、光軸方向駆動部146を制御して受光部120の焦点位置を変更する焦点位置変更処理を、所定の範囲内で行うか、自動的に拡張するかを切り替えるための部材である。
(測定設定部255)
The depth extension mode selection unit 254 controls whether to perform the focus position change process for changing the focus position of the light receiving unit 120 by controlling the optical axis direction driving unit 146 within a predetermined range or automatically extending. It is a member.
(Measurement setting unit 255)

測定設定部255は、連結領域を設定するための部材である。連結領域は、複数の部分領域に分割される。各部分領域は、形状測定装置で測定可能な視野又はこれよりも若干狭い領域に対応する。このように複数の部分領域に分けて、各部分領域にステージを平面方向駆動部で移動させ、それぞれで生成した立体形状データをXY平面方向に連結することで、ハードウェア仕様上の制限のある視野を拡大した広域画像を得ることが可能となる。
(連結領域設定部256)
The measurement setting unit 255 is a member for setting a connection area. The connection area is divided into a plurality of partial areas. Each partial area corresponds to a field of view that can be measured by the shape measuring apparatus or a slightly narrower area. As described above, there is a limitation in hardware specifications by dividing a plurality of partial areas, moving the stage to each partial area with a plane direction driving unit, and connecting the generated solid shape data in the XY plane direction. A wide-area image with an enlarged field of view can be obtained.
(Linked region setting unit 256)

連結領域設定部256は、平面方向駆動部で平面方向におけるステージの相対位置を移動させる領域として、複数の部分領域で構成された連結領域を設定する部材である。
(測定モード選択部257)
The connection area setting unit 256 is a member that sets a connection area composed of a plurality of partial areas as an area for moving the relative position of the stage in the plane direction by the plane direction driving unit.
(Measurement mode selection unit 257)

測定モード選択部257は、立体形状データ生成部で測定対象物の立体形状データを生成する際の測定モードとして、通常モードと、通常モードよりも精細な測定を行うためのファインモードと、受光データからハレーションを除去するハレーション除去モードのいずれかを選択するための部材である。
(合成処理部216)
The measurement mode selection unit 257 has a normal mode, a fine mode for performing finer measurement than the normal mode, and received light data as measurement modes when generating the three-dimensional shape data of the measurement object in the three-dimensional shape data generation unit. This is a member for selecting any one of the halation removal modes for removing halation from.
(Composition processing unit 216)

合成処理部216は、判定処理部214による未測定判定処理により、未測定の領域が存在しないと判定されるか、又は所定の終了条件を満たすまで、立体形状データ生成部212による立体形状データ取得処理、判定処理部214による未測定判定処理、深度拡張処理部215による焦点位置変更処理を自動的に繰り返して生成された複数の高さ画像を合成した合成高さ画像を生成するための部材である。   The synthesis processing unit 216 obtains the solid shape data by the solid shape data generation unit 212 until it is determined by the non-measurement determination processing by the determination processing unit 214 that there is no unmeasured area or a predetermined end condition is satisfied. A member for generating a composite height image obtained by combining a plurality of height images generated by automatically repeating the processing, the unmeasured determination processing by the determination processing unit 214, and the focus position change processing by the depth extension processing unit 215. is there.

このような形状測定装置により、深度方向の測定範囲を各視野において拡張することが可能となる。
(高さ情報の取得方法)
With such a shape measuring device, it is possible to extend the measurement range in the depth direction in each field of view.
(How to get height information)

本実施形態では、高さ情報を取得するための方法として、三角測距の原理に基づくパターン投影法を用いている。この方式では、1回の深度測定範囲が広い三角測距方式をベースにしながら、測定対象物又は形状測定装置の位置を、物理的又は光学的に移動させて測定を繰り返す。そして得られた測定結果を合成していくことで、1回の測定で実現できる深度測定範囲を移動した分だけ、深度方向にトータルの高さを拡張していくことができる。この結果、高速に、かつ三角測距方式よりも広い範囲を測定可能となる。これによって、より広い視野を、高い分解能で計測可能な形状測定装置や形状測定方法が実現される。
(XY画像連結機能)
In the present embodiment, a pattern projection method based on the principle of triangulation is used as a method for acquiring height information. In this method, the measurement is repeated by physically or optically moving the position of the object to be measured or the shape measuring device while using the triangular distance measuring method having a wide depth measurement range as a base. Then, by combining the obtained measurement results, the total height can be expanded in the depth direction by the amount of movement of the depth measurement range that can be realized by one measurement. As a result, it is possible to measure at a high speed and a wider range than the triangular distance measuring method. Thereby, a shape measuring device and a shape measuring method capable of measuring a wider field of view with high resolution are realized.
(XY image connection function)

また合成処理部216は、ステージ140をXY方向に移動させて撮像したXY座標が異なる複数の高さ画像を、XY平面上で連結することもできる。このようなXY連結の場合は、ステージ平面方向駆動部148でもってステージ140を水平方向に移動させて、異なる視野範囲で撮像した画像を水平方向に連結する。例えばテクスチャ画像取得部218で複数回に分けて撮像された、異なる部位を示すテクスチャ画像同士をXY連結部で連結して、大きなテクスチャ画像として連結画像を、基準対象画像や検査対象画像として利用することもできる。特に高倍率な光学画像等を撮像可能な形状測定装置においては、低倍率なテクスチャ画像ではその能力を十分に発揮できないことがあり、高倍率で高精細なテクスチャ画像を画像連結機能で生成して、精度の高い画像検査を実現することができる。あるいは、高倍率の画像は視野が狭いため、異なる視野で撮像した画像同士を連結することで視野を拡大した連結画像を得ることもできる。また画像連結機能、ここではXY連結機能はテクスチャ画像に限らず、高さ画像や合成高さ画像、あるいはテクスチャ画像と高さ画像を合成した合成画像に対しても実行することができる。ステージ140をXY方向に移動させて取得した複数の立体形状データを連結する場合は、各XY位置において、深度拡張処理部215による深度拡張処理を自動的に行い、生成された複数の立体形状データ同士が連結される。これにより、XY方向に大きく、且つ高さ方向に大きな起伏がある測定対象物WKであっても、測定対象物WK全体の測定を容易に行うことができる。また、各XY位置で測定対象物WKに高さ方向の起伏が異なる場合、各XY位置において深度拡張処理部215による深度拡張処理の有無、又は回数が異なる。例えば、測定対象物が割と平坦であり、1回の測定で全体が測定深度範囲に収まるXY位置では深度拡張処理を行わずに立体形状データを生成し、測定対象物の起伏が大きく、深度拡張処理が必要なXY位置では複数回の深度拡張処理を行って立体形状データを生成し、これらの立体形状データ同士をXY方向に連結することができる。   Further, the composition processing unit 216 can also connect a plurality of height images with different XY coordinates captured by moving the stage 140 in the XY direction on the XY plane. In the case of such XY connection, the stage 140 is moved in the horizontal direction by the stage plane direction driving unit 148, and images captured in different visual field ranges are connected in the horizontal direction. For example, texture images showing different parts captured by the texture image acquisition unit 218 in multiple times are connected by an XY connecting unit, and the connected image is used as a large texture image as a reference target image or an inspection target image. You can also. Especially in shape measuring devices that can capture high-magnification optical images, etc., low-power texture images may not be able to fully demonstrate their capabilities. Highly accurate image inspection can be realized. Alternatively, since a high-magnification image has a narrow field of view, it is also possible to obtain a connected image with an enlarged field of view by connecting images captured in different fields of view. Further, the image connection function, here, the XY connection function, can be executed not only on the texture image but also on the height image, the combined height image, or the combined image obtained by combining the texture image and the height image. When connecting a plurality of three-dimensional shape data acquired by moving the stage 140 in the XY direction, the depth extension processing by the depth extension processing unit 215 is automatically performed at each XY position, and the generated plurality of three-dimensional shape data They are linked together. Thereby, even if the measuring object WK is large in the XY direction and has large undulations in the height direction, the entire measuring object WK can be easily measured. Further, when the undulation in the height direction is different from the measurement target WK at each XY position, the presence / absence of the depth extension processing by the depth extension processing unit 215 or the number of times is different at each XY position. For example, the object to be measured is relatively flat, and the three-dimensional shape data is generated without performing the depth extension process at the XY position where the entire measurement is within the measurement depth range in one measurement. At the XY position where the extension process is required, the depth extension process is performed a plurality of times to generate the three-dimensional shape data, and these three-dimensional shape data can be connected in the XY direction.

記憶部240は、各種のデータを保存したり、設定値を記憶するための部材であり、半導体記憶素子等が利用できる。ここでは記憶部240は、高さ画像を保存する高さ画像記憶部241と、テクスチャ画像を保存するテクスチャ画像記憶部242と、測定設定自動調整部217により調整された各部分領域の測定設定を保存するための測定設定保存部243を備える。   The storage unit 240 is a member for storing various data and storing set values, and a semiconductor storage element or the like can be used. Here, the storage unit 240 stores the height image storage unit 241 that stores the height image, the texture image storage unit 242 that stores the texture image, and the measurement setting of each partial region adjusted by the measurement setting automatic adjustment unit 217. A measurement setting storage unit 243 for storing is provided.

表示部400は、取得した画像等を表示するための部材である。例えばLCDや有機EL、CRT等が利用できる。   The display unit 400 is a member for displaying acquired images and the like. For example, LCD, organic EL, CRT, etc. can be used.

操作デバイス450は、ユーザの入力等を受け付けるための部材であり、マウスやキーボード、コンソール等の入力デバイスが利用できる。また表示部400にタッチパネルを使用することで、表示部と操作デバイスを兼用することもできる。
(ブロック図)
The operation device 450 is a member for receiving user input and the like, and input devices such as a mouse, a keyboard, and a console can be used. Further, by using a touch panel for the display unit 400, the display unit and the operation device can be used together.
(Block Diagram)

図1の形状測定装置500の撮像手段100の構成例を、図4のブロック図に示す。撮像手段100は、投光部110、受光部120、照明光出力部130、ステージ140及び測定制御部150を含む。投光部110は、測定光源111、パターン生成部112及び複数のレンズ113、114、115を含む。受光部120は、カメラ121及び複数のレンズ122、123を含む。ステージ140上には、測定対象物WKが載置される。
(投光部110)
A configuration example of the imaging unit 100 of the shape measuring apparatus 500 of FIG. 1 is shown in a block diagram of FIG. The imaging unit 100 includes a light projecting unit 110, a light receiving unit 120, an illumination light output unit 130, a stage 140, and a measurement control unit 150. The light projecting unit 110 includes a measurement light source 111, a pattern generation unit 112, and a plurality of lenses 113, 114, and 115. The light receiving unit 120 includes a camera 121 and a plurality of lenses 122 and 123. On the stage 140, the measuring object WK is placed.
(Light Projecting Unit 110)

投光部110は、ステージ140の斜め上方に配置される。撮像手段100は、複数の投光部110を含んでもよい。図4の例においては、撮像手段100は2つの投光部110を含む。ここでは、第一の方向から測定対象物WKに対してパターン光を照射可能な第一投光部110A(図4において右側)と、第一の方向とは異なる第二の方向から測定対象物WKに対してパターン光を照射可能な第二投光部110B(図4において左側)を、それぞれ配置している。第一投光部110A、第二投光部110Bは受光部120の光軸を挟んで対称に配置される。なお投光部を3以上備えたり、逆に投光部を一のみとしたり、あるいは共通の投光部を用いながら、投光部とステージを相対移動させることで照明の方向を異ならせて投光させることも可能である。さらに図4の例では投光部110が投光する垂直方向に対する照明光の照射角度を固定としているが、これを可変とすることもできる。   The light projecting unit 110 is disposed obliquely above the stage 140. The imaging unit 100 may include a plurality of light projecting units 110. In the example of FIG. 4, the imaging unit 100 includes two light projecting units 110. Here, the first light projecting unit 110A (right side in FIG. 4) capable of irradiating the measurement target object WK with the pattern light from the first direction and the measurement target object from the second direction different from the first direction. Second light projecting units 110B (left side in FIG. 4) capable of irradiating pattern light to WK are respectively arranged. The first light projecting unit 110 </ b> A and the second light projecting unit 110 </ b> B are arranged symmetrically across the optical axis of the light receiving unit 120. It should be noted that there are three or more light projecting units, or conversely, only one light projecting unit is used, or while using a common light projecting unit, the light projecting unit and the stage are moved relative to each other so that the illumination direction is different. It is also possible to make it light. Furthermore, in the example of FIG. 4, the illumination angle of the illumination light with respect to the vertical direction in which the light projecting unit 110 projects is fixed, but this may be variable.

図4の受光部120は、第一投光部110Aから照射され、測定対象物WKから反射された第一パターン光を受光して第一受光データを出力する。その一方でこの受光部120は、第二投光部110Bから照射され、測定対象物WKから反射された第二パターン光を受光して第二受光データを出力する。受光部120が出力する受光データは、例えば縞投影法に基づく縞画像である。   The light receiving unit 120 in FIG. 4 receives the first pattern light irradiated from the first light projecting unit 110A and reflected from the measurement object WK, and outputs first light reception data. On the other hand, the light receiving unit 120 receives the second pattern light irradiated from the second light projecting unit 110B and reflected from the measurement object WK, and outputs second light reception data. The light reception data output from the light receiving unit 120 is, for example, a fringe image based on the fringe projection method.

また受光データを受ける立体形状データ取得部212は、受光部120が受光した第一受光データに基づいて、測定対象物WKの第一高さ画像を生成する。一方で、立体形状データ取得部212は、受光部120が受光した第二受光データに基づいて、測定対象物WKの第二高さ画像を生成する。
(深度測定範囲)
In addition, the three-dimensional shape data acquisition unit 212 that receives the light reception data generates a first height image of the measurement object WK based on the first light reception data received by the light reception unit 120. On the other hand, the three-dimensional shape data acquisition unit 212 generates a second height image of the measurement object WK based on the second light reception data received by the light receiving unit 120.
(Depth measurement range)

ここで、ステージ140上の受光部120の撮影視野の位置するステージ平面内において、第一投光部110A及び第二投光部110Bから、第一パターン光及び第二パターン光をそれぞれ照射可能な共通の高さ範囲を、深度測定範囲とする。合成処理部216は、この深度測定範囲内の立体形状データを有する第一高さ画像と第二高さ画像を合成して、合成高さ画像を生成する。
(深度探索範囲)
Here, the first pattern light and the second pattern light can be irradiated from the first light projecting unit 110A and the second light projecting unit 110B, respectively, in the stage plane where the imaging field of view of the light receiving unit 120 on the stage 140 is located. The common height range is set as the depth measurement range. The composition processing unit 216 synthesizes the first height image and the second height image having the solid shape data within the depth measurement range to generate a composite height image.
(Depth search range)

一方で、ステージ140上の受光部120のステージ平面内に、第一投光部110A及び第二投光部110Bのいずれか一方のみから、第一パターン光又は第二パターン光を照射可能な領域を含む高さ範囲を深度探索範囲とする。判定処理部214は、この深度探索範囲内に測定対象物WKの表面領域が存在するか否かを判定条件とすることができる。
(測定光源111)
On the other hand, in the stage plane of the light receiving unit 120 on the stage 140, an area in which the first pattern light or the second pattern light can be irradiated from only one of the first light projecting unit 110A and the second light projecting unit 110B. The height range including the depth search range. The determination processing unit 214 can determine whether or not the surface region of the measurement object WK exists within this depth search range.
(Measurement light source 111)

各第一投光部110A、第二投光部110Bの測定光源111は、例えば白色光を出射するハロゲンランプである。測定光源111は、白色光を出射する白色LED(発光ダイオード)等の他の光源であってもよい。測定光源111から出射された光(以下、「測定光」と呼ぶ。)は、レンズ113により適切に集光された後、パターン生成部112に入射する。   The measurement light sources 111 of the first light projecting units 110A and the second light projecting units 110B are, for example, halogen lamps that emit white light. The measurement light source 111 may be another light source such as a white LED (light emitting diode) that emits white light. Light emitted from the measurement light source 111 (hereinafter referred to as “measurement light”) is appropriately condensed by the lens 113 and then enters the pattern generation unit 112.

パターン生成部112は、例えばDMD(デジタルマイクロミラーデバイス)である。パターン生成部112は、LCD(液晶ディスプレイ)、LCOS(Liquid Crystal on Silicon:反射型液晶素子)又はマスクであってもよい。パターン生成部112に入射した測定光は、予め設定されたパターン及び予め設定された強度(明るさ)に変換されて出射される。パターン生成部112により出射された測定光は、複数のレンズ114、115により受光部120の観察・測定可能な視野よりも大きい径を有する光に変換された後、ステージ140上の測定対象物WKに照射される。   The pattern generation unit 112 is a DMD (digital micromirror device), for example. The pattern generation unit 112 may be an LCD (Liquid Crystal Display), LCOS (Liquid Crystal on Silicon), or a mask. The measurement light incident on the pattern generation unit 112 is converted into a preset pattern and a preset intensity (brightness) and emitted. The measurement light emitted by the pattern generation unit 112 is converted into light having a diameter larger than the visual field that can be observed and measured by the light receiving unit 120 by the plurality of lenses 114 and 115, and then the measurement target WK on the stage 140. Is irradiated.

なお図4の配置は一例であり、光学系部材の配置は適宜変更できる。例えばパターン生成部112をレンズ115の出射面側に配置してもよい。
(受光部120)
The arrangement in FIG. 4 is an example, and the arrangement of the optical system members can be changed as appropriate. For example, the pattern generation unit 112 may be disposed on the exit surface side of the lens 115.
(Light receiving unit 120)

受光部120は、ステージ140の上方に配置される。測定対象物WKによりステージ140の上方に反射された測定光は、受光部120の複数のレンズ122、123により集光、結像された後、カメラ121により受光される。
(カメラ121)
The light receiving unit 120 is disposed above the stage 140. Measurement light reflected above the stage 140 by the measurement object WK is condensed and imaged by the plurality of lenses 122 and 123 of the light receiving unit 120 and then received by the camera 121.
(Camera 121)

カメラ121は、例えば撮像素子121a及びレンズを含むCCD(電荷結合素子)カメラである。撮像素子121aは、例えばモノクロCCD(電荷結合素子)である。撮像素子121aは、CMOS(相補性金属酸化膜半導体)イメージセンサ等の他の撮像素子であってもよい。カラーの撮像素子は各画素を赤色用、緑色用、青色用の受光に対応させる必要があるため、モノクロの撮像素子と比較すると計測分解能が低く、また各画素にカラーフィルタを設ける必要があるため感度が低下する。そのため、本実施形態では、撮像素子としてモノクロのCCDを採用し、後述する照明光出力部130をRGBにそれぞれ対応した照明を時分割で照射して撮像することにより、カラー画像を取得している。このような構成にすることにより、計測精度を低下させずに測定物のカラー画像を取得することができる。   The camera 121 is, for example, a CCD (charge coupled device) camera including an image sensor 121a and a lens. The image sensor 121a is, for example, a monochrome CCD (charge coupled device). The image sensor 121a may be another image sensor such as a CMOS (complementary metal oxide semiconductor) image sensor. The color image sensor requires each pixel to receive light for red, green, and blue, so the measurement resolution is lower than that of a monochrome image sensor, and a color filter must be provided for each pixel. Sensitivity decreases. For this reason, in the present embodiment, a monochrome CCD is used as the image sensor, and a color image is acquired by illuminating the illumination light output unit 130 described later with illumination corresponding to RGB in a time-sharing manner. . With such a configuration, it is possible to acquire a color image of the measurement object without reducing the measurement accuracy.

ただ、撮像素子121aとして、カラーの撮像素子を用いても良いことは云うまでもない。この場合、計測精度や感度は低下するが、照明光出力部130からRGBにそれぞれ対応した照明を時分割で照射する必要がなくなり、白色光を照射するだけで、カラー画像を取得できるため、照明光学系をシンプルに構成できる。 撮像素子121aの各画素からは、受光量に対応するアナログの電気信号(以下、「受光信号」と呼ぶ。)が測定制御部150に出力される。
(測定制御部150)
However, it goes without saying that a color image sensor may be used as the image sensor 121a. In this case, although measurement accuracy and sensitivity are lowered, it is not necessary to irradiate illumination corresponding to RGB from the illumination light output unit 130 in a time-sharing manner, and a color image can be acquired simply by irradiating white light. The optical system can be configured simply. From each pixel of the image sensor 121 a, an analog electrical signal (hereinafter referred to as “light reception signal”) corresponding to the amount of received light is output to the measurement control unit 150.
(Measurement control unit 150)

測定制御部150には、A/D変換器(アナログ/デジタル変換器)及びFIFO(First In First Out)メモリが実装される。カメラ121から出力される受光信号は、光源部300による制御に基づいて、測定制御部150のA/D変換器により一定のサンプリング周期でサンプリングされると共にデジタル信号に変換される。A/D変換器から出力されるデジタル信号は、FIFOメモリに順次蓄積される。FIFOメモリに蓄積されたデジタル信号は画素データとして順次制御手段200に転送される。
(制御手段200)
The measurement control unit 150 includes an A / D converter (analog / digital converter) and a FIFO (First In First Out) memory. The light reception signal output from the camera 121 is sampled at a constant sampling period and converted to a digital signal by the A / D converter of the measurement control unit 150 based on control by the light source unit 300. Digital signals output from the A / D converter are sequentially stored in the FIFO memory. The digital signal stored in the FIFO memory is sequentially transferred to the control means 200 as pixel data.
(Control means 200)

図1に示すように、制御手段200は、CPU(中央演算処理装置)210、ROM220(リードオンリメモリ)、作業用メモリ230、記憶部240及び設定部250を含む。制御手段200には、PC(パーソナルコンピュータ)やワークステーション等のコンピュータが利用できる。また、専用のコントローラを用意してもよい。あるいは、汎用のコンピュータと専用のコントローラを組み合わせて、制御手段200を構築してもよい。この例では、制御手段200を、形状測定プログラムをインストールしたコンピュータで構成している。   As shown in FIG. 1, the control means 200 includes a CPU (Central Processing Unit) 210, a ROM 220 (Read Only Memory), a working memory 230, a storage unit 240 and a setting unit 250. The control means 200 can be a computer such as a PC (personal computer) or a workstation. A dedicated controller may be prepared. Alternatively, the control means 200 may be constructed by combining a general-purpose computer and a dedicated controller. In this example, the control means 200 is configured by a computer in which a shape measurement program is installed.

設定部250は、操作デバイス450で操作される。操作デバイス450は、キーボード及びポインティングデバイスを含む。ポインティングデバイスとしては、マウス又はジョイスティック等が用いられる。また操作デバイス450を表示部400と統合することもできる。例えば表示部400にタッチパネルを用いることで、表示部に操作部の機能を持たせることが可能となる。   The setting unit 250 is operated by the operation device 450. The operation device 450 includes a keyboard and a pointing device. As a pointing device, a mouse or a joystick is used. In addition, the operation device 450 can be integrated with the display unit 400. For example, by using a touch panel for the display unit 400, the display unit can have a function of an operation unit.

ROM220には、システムプログラムが記憶される。作業用メモリは、RAM(ランダムアクセスメモリ)からなり、種々のデータの処理のために用いられる。記憶部240は、ハードディスク等からなる。記憶部240には、画像処理プログラム及び形状測定プログラムが記憶される。また、記憶部240は、測定制御部150から与えられる画素データ等の種々のデータを保存するために用いられる。   The ROM 220 stores a system program. The working memory is composed of a RAM (Random Access Memory) and is used for processing various data. The storage unit 240 includes a hard disk or the like. The storage unit 240 stores an image processing program and a shape measurement program. The storage unit 240 is used to store various data such as pixel data provided from the measurement control unit 150.

CPU210は、測定制御部150から与えられる画素データに基づいて画像データを生成する。また、CPU210は、生成した画像データに作業用メモリ230を用いて各種処理を行うと共に、画像データに基づく画像を表示部400に表示させる。さらに、CPU210は、後述するステージ駆動部145に駆動パルスを与える。さらにこのCPUは、後述する立体形状データ生成部212と、判定処理部214と、合成処理部216と、三次元画像合成部213と、深度拡張処理部215の機能を実現する。
(表示部400)
The CPU 210 generates image data based on the pixel data given from the measurement control unit 150. The CPU 210 performs various processes on the generated image data using the work memory 230 and causes the display unit 400 to display an image based on the image data. Further, the CPU 210 gives a driving pulse to a stage driving unit 145 described later. Further, this CPU realizes functions of a three-dimensional shape data generation unit 212, a determination processing unit 214, a synthesis processing unit 216, a three-dimensional image synthesis unit 213, and a depth extension processing unit 215, which will be described later.
(Display unit 400)

表示部400は、撮像手段100で取得された測定画像や、撮像された観察画像を表示させるための部材である。表示部400は、例えばLCDパネル又は有機EL(エレクトロルミネッセンス)パネルにより構成される。
(ステージ140)
The display unit 400 is a member for displaying a measurement image acquired by the imaging unit 100 and a captured observation image. The display unit 400 is configured by, for example, an LCD panel or an organic EL (electroluminescence) panel.
(Stage 140)

ステージ140は、上面に測定対象物WKを載置するための部材である。このステージ140は、図1に示すようにユーザが手動でステージ140を移動させるためのステージ操作部144と、電動でステージ140を移動させるためのステージ駆動部145を備える。   The stage 140 is a member for placing the measurement object WK on the upper surface. As shown in FIG. 1, the stage 140 includes a stage operation unit 144 for allowing the user to manually move the stage 140 and a stage driving unit 145 for electrically moving the stage 140.

図4において、測定対象物WKが載置されるステージ140上の平面(以下、「載置面」と呼ぶ。)内で互いに直交する2方向をX方向及びY方向と定義し、それぞれ矢印X、Yで示す。ステージ140の載置面に対して直交する方向をZ方向と定義し、矢印Zで示す。Z方向に平行な軸を中心に回転する方向をθ方向と定義し、矢印θで示す。なお、θステージの回転軸はZ方向に平行な光軸と平行である必要はなく、例えば当該光軸に対して45°傾いていてもよい。   In FIG. 4, two directions orthogonal to each other within a plane (hereinafter referred to as “mounting surface”) on the stage 140 on which the measurement object WK is placed are defined as an X direction and a Y direction. , Y. A direction orthogonal to the mounting surface of the stage 140 is defined as a Z direction and is indicated by an arrow Z. A direction rotating around an axis parallel to the Z direction is defined as a θ direction, and is indicated by an arrow θ. Note that the rotation axis of the θ stage does not have to be parallel to the optical axis parallel to the Z direction, and may be inclined by 45 ° with respect to the optical axis, for example.

ステージ140は、XYステージ141、Zステージ142及びθステージ143を含む。XYステージ141は、ステージ平面方向駆動部として、X方向移動機構及びY方向移動機構を有する。Zステージ142は、Z方向移動機構を有する。θステージ143は、θ方向回転機構を有する。XYステージ141、Zステージ142及びθステージ143により、ステージ140が構成される。また、ステージ140は、載置面に測定対象物WKを固定する固定部材(クランプ)をさらに含む。ステージ140は、載置面に平行な軸を中心に回転可能な機構を有するチルトステージをさらに含んでもよい。   The stage 140 includes an XY stage 141, a Z stage 142, and a θ stage 143. The XY stage 141 includes an X direction moving mechanism and a Y direction moving mechanism as a stage plane direction driving unit. The Z stage 142 has a Z direction moving mechanism. The θ stage 143 has a θ direction rotation mechanism. The XY stage 141, the Z stage 142, and the θ stage 143 constitute a stage 140. Stage 140 further includes a fixing member (clamp) that fixes measurement object WK to the placement surface. The stage 140 may further include a tilt stage having a mechanism that can rotate around an axis parallel to the placement surface.

ステージ140のX方向移動機構、Y方向移動機構、Z方向移動機構及びθ方向回転機構には、それぞれステッピングモータが用いられる。ステージ140のX方向移動機構、Y方向移動機構、Z方向移動機構及びθ方向回転機構は、図1のステージ操作部144又はステージ駆動部145により駆動される。   Stepping motors are used for the X direction moving mechanism, Y direction moving mechanism, Z direction moving mechanism, and θ direction rotating mechanism of the stage 140, respectively. The X direction moving mechanism, Y direction moving mechanism, Z direction moving mechanism, and θ direction rotating mechanism of the stage 140 are driven by the stage operation unit 144 or the stage driving unit 145 of FIG.

ユーザは、ステージ操作部144を手動で操作することにより、ステージ140の載置面を受光部120に対して相対的にX方向、Y方向もしくはZ方向に移動させるか、又はθ方向に回転させることができる。ステージ駆動部145は、制御手段200より与えられる駆動パルスに基づいて、ステージ140のステッピングモータに電流を供給することにより、ステージ140を受光部120に相対的にX方向、Y方向もしくはZ方向に移動させるか、又はθ方向に回転させることができる。   The user manually operates the stage operation unit 144 to move the mounting surface of the stage 140 in the X direction, the Y direction, the Z direction, or rotate in the θ direction relative to the light receiving unit 120. be able to. The stage driving unit 145 supplies the current to the stepping motor of the stage 140 based on the driving pulse supplied from the control unit 200, thereby moving the stage 140 relative to the light receiving unit 120 in the X direction, Y direction, or Z direction. It can be moved or rotated in the θ direction.

ここで図4に示すように、左右の投光部110の中心軸と受光部120の中心軸は、ステージ140の焦点が最も合うピント平面で互いに交差するように、受光部120、投光部110、ステージ140の相対的な位置関係が定められている。また、θ方向の回転軸の中心は、受光部120の中心軸と一致しているため、θ方向にステージ140が回転した際に、測定対象物WKが視野から外れることなく、回転軸を中心に視野内で回転するようになっている。また、Z方向移動機構に対して、これらXYθ及びチルト移動機構は支持されている。すなわち、ステージをθ方向に回転させたり、チルトさせた状態であっても、受光部120の中心軸と、Z方向の移動軸にずれが生じない構成になっている。このようなステージ機構により、測定対象物WKの位置や姿勢を変化させた状態であっても、Z方向にステージ140を移動させて異なる焦点位置の画像を複数撮像して合成することが可能となる。なお、本実施形態ではステッピングモータにより駆動させることが可能な電動ステージを例に説明したが、手動でのみ移動させることが可能な手動ステージであっても良い。
(光源部300)
Here, as shown in FIG. 4, the light receiving unit 120 and the light projecting unit are arranged such that the central axis of the left and right light projecting units 110 and the center axis of the light receiving unit 120 intersect each other on the focus plane where the focus of the stage 140 is best. 110 and the relative position of the stage 140 are determined. Since the center of the rotation axis in the θ direction coincides with the center axis of the light receiving unit 120, when the stage 140 rotates in the θ direction, the measurement target WK does not deviate from the field of view and is centered on the rotation axis. It is designed to rotate within the field of view. Further, the XYθ and tilt moving mechanisms are supported with respect to the Z direction moving mechanism. In other words, even if the stage is rotated in the θ direction or tilted, the center axis of the light receiving unit 120 and the movement axis in the Z direction are not displaced. With such a stage mechanism, even when the position and orientation of the measurement target WK are changed, it is possible to move the stage 140 in the Z direction to capture and combine a plurality of images at different focal positions. Become. In the present embodiment, an electric stage that can be driven by a stepping motor has been described as an example. However, a manual stage that can be moved only manually may be used.
(Light source unit 300)

光源部300は、制御基板310及び観察用照明光源320を含む。制御基板310には、CPUが実装される。制御基板310のCPUは、制御手段200のCPU210からの指令に基づいて、投光部110、受光部120及び測定制御部150を制御する。なお、この構成は一例であり、他の構成としてもよい。例えば測定制御部150で投光部110や受光部120を制御したり、又は制御手段200で投光部110や受光部120を制御することとして、制御基板を省略してもよい。あるいはこの光源部300に、撮像手段100を駆動するための電源回路を設けることもできる。
(観察用照明光源320)
The light source unit 300 includes a control board 310 and an observation illumination light source 320. A CPU is mounted on the control board 310. The CPU of the control board 310 controls the light projecting unit 110, the light receiving unit 120, and the measurement control unit 150 based on a command from the CPU 210 of the control unit 200. This configuration is an example, and other configurations may be used. For example, the control board may be omitted by controlling the light projecting unit 110 and the light receiving unit 120 with the measurement control unit 150 or controlling the light projecting unit 110 and the light receiving unit 120 with the control means 200. Alternatively, the light source unit 300 can be provided with a power supply circuit for driving the imaging unit 100.
(Light source for observation 320)

観察用照明光源320は、例えば赤色光、緑色光及び青色光を出射する3色のLEDを含む。各LEDから出射される光の輝度を制御することにより、観察用照明光源320から任意の色の光を発生することができる。観察用照明光源320から発生される光(以下、「照明光」と呼ぶ)は、導光部材(ライトガイド)を通して撮像手段100の照明光出力部130から出力される。   The observation illumination light source 320 includes, for example, three color LEDs that emit red light, green light, and blue light. By controlling the luminance of the light emitted from each LED, light of an arbitrary color can be generated from the observation illumination light source 320. Light generated from the observation illumination light source 320 (hereinafter referred to as “illumination light”) is output from the illumination light output unit 130 of the imaging unit 100 through a light guide member (light guide).

照明光出力部130から出力される照明光は、赤色光、緑色光及び青色光を時分割で切り替えて測定対象物WKに照射する。これにより、これらのRGB光でそれぞれ撮像された観察画像を合成して、カラーの観察画像を得て、表示部400に表示させることができる。   The illumination light output from the illumination light output unit 130 irradiates the measurement object WK by switching red light, green light, and blue light in a time-sharing manner. Thereby, the observation images captured with these RGB lights can be synthesized to obtain a color observation image, which can be displayed on the display unit 400.

このようにしてカラーの観察画像を表示させる際、照明光の色を切り替える切替周波数を、表示部400で表示内容を更新する(画面を書き換える)際のフレームレートと一致させると、フレームレートが低い場合(例えば数Hz程度)は、ちらつきが顕著となる。特に、RGBの原色によるカラー切り替えが目立つと、ユーザに不快感を与えることがある。そこで、RGBの照明光を切り替える切替周波数を、ユーザが認識できない程度の高速(例えば数百Hz)とすることで、このような問題を回避できる。照明光の色の切り替えは、照明光出力部130等により行われる。また、高速で照明光のRGBを切り替えつつも、実際に撮像手段100で測定対象物WKを撮像するタイミングは、表示部400の表示内容の更新のタイミングとする。すなわち、観察像の撮像のタイミングと照明光の切り替えのタイミングは完全に一致させる必要はなく、撮像素子によるRGBの観察画像の撮像が可能な程度に、いいかえると照明光のRGBの切り替え周期が撮像周期の倍数となるようにリンクさせることで対応できる。この方法であれば、照明光の切り替えのタイミングを高速化することができ、撮像素子121aで処理可能なフレームレートを向上させることなく、ユーザに与える不快感を低減できる。   When the color observation image is displayed in this manner, if the switching frequency for switching the color of the illumination light is made to coincide with the frame rate when the display contents are updated (rewrite the screen), the frame rate is low. In such a case (for example, about several Hz), the flicker becomes remarkable. In particular, when color switching by RGB primary colors is conspicuous, the user may be uncomfortable. Therefore, such a problem can be avoided by setting the switching frequency for switching the RGB illumination light to a high speed (for example, several hundred Hz) that the user cannot recognize. The color of the illumination light is switched by the illumination light output unit 130 or the like. The timing at which the imaging unit 100 actually images the measurement object WK while switching RGB of illumination light at high speed is the timing for updating the display content of the display unit 400. In other words, it is not necessary that the observation image capturing timing and the illumination light switching timing coincide completely. In other words, the RGB switching period of the illumination light is captured to the extent that an RGB observation image can be captured by the image sensor. This can be handled by linking so as to be a multiple of the period. With this method, the illumination light switching timing can be increased, and the discomfort given to the user can be reduced without improving the frame rate that can be processed by the image sensor 121a.

図1の例では観察用照明光源320を撮像手段100に対して外付けとして、光源部300に観察用照明光源320を配置している。このようにすることで、観察用照明光源320の発熱が撮像手段100の光学系に影響を与える事態を回避できる。ただ、発熱量の小さい観察用照明光源を利用したり、あるいは相応の放熱機構を撮像手段側に設ける等して、撮像手段側に観察用照明光源を設けることもできる。この場合、照明光出力部に観察用照明光源を組み込む等、照明光出力部と観察用照明光源を一体化することが可能となり、光源部と撮像手段とを光学的に接続するための導光部材を不要とでき、構成を簡素化できる。同様に投光部についても、投光用光源を撮像手段に内蔵したり、あるいは光源部側に外付けとすることもできる。   In the example of FIG. 1, the observation illumination light source 320 is externally attached to the imaging unit 100, and the observation illumination light source 320 is disposed in the light source unit 300. By doing so, it is possible to avoid a situation in which the heat generated by the observation illumination light source 320 affects the optical system of the imaging unit 100. However, the observation illumination light source can be provided on the image pickup means side by using an observation illumination light source with a small calorific value, or by providing a corresponding heat radiation mechanism on the image pickup means side. In this case, the illumination light output unit and the observation illumination light source can be integrated, for example, by incorporating an observation illumination light source into the illumination light output unit, and a light guide for optically connecting the light source unit and the imaging means. A member can be made unnecessary and a structure can be simplified. Similarly, with respect to the light projecting section, a light source for projecting light can be built in the imaging means, or can be externally attached to the light source section side.

図4の照明光出力部130は、円環形状を有し、受光部120を取り囲むようにステージ140の上方に配置される。これにより、影が発生しないように照明光出力部130から測定対象物WKに照明光が照射される。また照明光出力部130は、円環形状のリング照明とする他、同軸落射照明、側射スポット照明、透過照明等としたり、これらの組み合わせとすることもできる。また投光部110から均一光を照射して照明光とすることで、照明光出力部を省いてもよい。例えば投光部110として、二次元アレイを利用した白パターン画像投影を可能とすることで、投光部110を照明光出力部に兼用できる。このように、投光部110の二次元アレイの白パターン画像投影を観察用照明光源として使用する場合は、二次元アレイを透過又は反射した光を拡散板を通して測定対象物WKに投影することにより、二次元アレイの画素格子が測定対象物WKに映りこまないようにしてもよい。
(GUIの例)
The illumination light output unit 130 in FIG. 4 has an annular shape and is disposed above the stage 140 so as to surround the light receiving unit 120. Thereby, illumination light is irradiated from the illumination light output unit 130 to the measurement object WK so that no shadow is generated. The illumination light output unit 130 may be a ring-shaped ring illumination, a coaxial epi-illumination, a side-spot illumination, a transmission illumination, or a combination thereof. Further, the illumination light output unit may be omitted by irradiating uniform light from the light projecting unit 110 to obtain illumination light. For example, by allowing the light projection unit 110 to project a white pattern image using a two-dimensional array, the light projection unit 110 can also be used as an illumination light output unit. As described above, when using the two-dimensional array white pattern image projection of the light projecting unit 110 as the illumination light source for observation, the light transmitted or reflected through the two-dimensional array is projected onto the measurement object WK through the diffusion plate. The pixel grid of the two-dimensional array may not be reflected on the measurement object WK.
(Example of GUI)

形状測定装置は、制御手段200であるPCに形状測定装置500を操作するための操作プログラムをインストールしている。表示部400には、形状測定プログラムを操作するためのGUI(Graphical User Interface)が表示される。このようなGUI画面の一例を図5に示す。この例においては、表示部400において、第一投光部110Aから第一測定光が照射された測定対象物WKの第一測定画像S1と、第二投光部110Bから第二測定光が照射された測定対象物WKの第二測定画像S2とが並ぶように、表示させることができる。この例では、表示部400の左側に設けられた画像表示領域410の、右側に第一表示領域416を、左側に第二表示領域417を設けている。このような2画面表示とすることで、各測定光で得られる測定画像の様子、特に影となる領域等を対比しながら確認できる。なお、画像表示領域の分割例は、このように左右に並べる構成に限らず、上下に並べる、あるいは別画面として構成する等、任意の構成が適宜利用できる。   In the shape measuring apparatus, an operation program for operating the shape measuring apparatus 500 is installed in a PC that is the control means 200. The display unit 400 displays a GUI (Graphical User Interface) for operating the shape measurement program. An example of such a GUI screen is shown in FIG. In this example, in the display unit 400, the first measurement image S1 of the measurement object WK irradiated with the first measurement light from the first light projection unit 110A and the second measurement light from the second light projection unit 110B are irradiated. It can be displayed so that the second measurement image S2 of the measured object WK is aligned. In this example, the first display area 416 is provided on the right side and the second display area 417 is provided on the left side of the image display area 410 provided on the left side of the display unit 400. By using such a two-screen display, it is possible to confirm while comparing the state of the measurement image obtained with each measurement light, particularly the shadowed area. In addition, the division example of the image display area is not limited to the configuration in which the image display areas are arranged side by side in this manner, and an arbitrary configuration such as an arrangement in the vertical direction or a separate screen can be used as appropriate.

また形状測定装置の操作プログラムには、表示中の画像を、観察画像と測定画像とに切り替え可能な画像切替手段が設けられている。この例では、画像切替手段として、「観察画像」ボタン427を押下すると、観察用照明光源を用いて撮像した観察画像が画像表示領域410に表示され、また「測定画像」ボタン428を押下すると、測定光投光手段を用いて取得した測定画像が画像表示領域410に表示される。ユーザは、図1の制御手段200の操作デバイス450でもって、GUIに設けられた操作領域420を操作して、例えば明るさ調整を行うことにより、第一投光部110Aや第二投光部110Bから出射される測定光の明るさ又は対応するカメラ露光時間を変更することができる。ここでは、測定光の明るさを変えるパラメータを、カメラの露光時間としている。また必要に応じて、観察画像の撮像条件を設定する。図5の画像表示領域410の上段には、このような観察画像の撮像条件を設定するための観察画像撮像条件設定手段490が設けられている。観察画像撮像条件設定手段490は、例えば観察画像を撮像するシャッタースピード切り換えや撮像の倍率、フォーカス調整等の設定を含んでいる。図5に示す例では、撮像手段の明るさを「オート」又は「マニュアル」から選択する。「マニュアル」を選択した場合は、カメラ明るさ調整スライダでもって撮像手段の明るさを調整する。   The operation program of the shape measuring apparatus is provided with an image switching means capable of switching the displayed image between the observation image and the measurement image. In this example, when an “observation image” button 427 is pressed as an image switching unit, an observation image captured using an observation illumination light source is displayed in the image display area 410, and when a “measurement image” button 428 is pressed, A measurement image acquired using the measurement light projecting unit is displayed in the image display area 410. The user operates the operation area 420 provided in the GUI with the operation device 450 of the control unit 200 in FIG. 1 to adjust the brightness, for example, thereby adjusting the first light projecting unit 110A and the second light projecting unit. The brightness of the measurement light emitted from 110B or the corresponding camera exposure time can be changed. Here, the parameter that changes the brightness of the measurement light is the exposure time of the camera. Moreover, the imaging condition of an observation image is set as needed. In the upper part of the image display area 410 in FIG. 5, observation image imaging condition setting means 490 for setting the imaging conditions for such an observation image is provided. The observation image imaging condition setting means 490 includes settings such as shutter speed switching for imaging an observation image, imaging magnification, and focus adjustment. In the example illustrated in FIG. 5, the brightness of the imaging unit is selected from “auto” or “manual”. When “Manual” is selected, the brightness of the image pickup means is adjusted by the camera brightness adjustment slider.

上記のように、画像表示領域410には、第一投光部110A、第二投光部110Bの各々により測定光を照射された場合における測定対象物WKの画像が並ぶように表示できる。したがって、ユーザは、画像表示領域410に表示された測定対象物WKの画像を見ながら、明るさ調整スライダ444、446の位置をそれぞれ移動させることにより、第一投光部110A、第二投光部110Bの各々から出射される測定光の明るさ又はそれぞれの投光部110に対応したカメラ露光時間を適切に調整することができる。   As described above, in the image display area 410, images of the measurement object WK when the measurement light is irradiated by each of the first light projecting unit 110A and the second light projecting unit 110B can be displayed in a line. Therefore, the user moves the positions of the brightness adjustment sliders 444 and 446 while looking at the image of the measurement object WK displayed in the image display area 410, whereby the first light projecting unit 110A and the second light projecting unit 110A. The brightness of the measurement light emitted from each of the units 110B or the camera exposure time corresponding to each light projecting unit 110 can be appropriately adjusted.

また、第一投光部110A、第二投光部110Bから出射される測定光の適切な明るさと照明光出力部130から出射される照明光の適切な明るさ又はそれぞれの照明に対応したカメラ露光時間との間に相関がある場合がある。この場合、第一投光部110A、第二投光部110Bの各々から出射される測定光の明るさ又はそれぞれの投光部110に対応したカメラ露光時間は、照明光出力部130から出射される照明光の明るさ又は照明光に対応したカメラ露光時間に基づいて自動的に調整されてもよい。   The appropriate brightness of the measurement light emitted from the first light projecting unit 110A and the second light projecting unit 110B and the appropriate brightness of the illumination light emitted from the illumination light output unit 130, or cameras corresponding to each illumination There may be a correlation between the exposure time. In this case, the brightness of the measurement light emitted from each of the first light projecting unit 110 </ b> A and the second light projecting unit 110 </ b> B or the camera exposure time corresponding to each light projecting unit 110 is emitted from the illumination light output unit 130. It may be automatically adjusted based on the brightness of the illumination light or the camera exposure time corresponding to the illumination light.

あるいは、照明光出力部130から出射される照明光の明るさ又は照明光に対応したカメラ露光時間に基づいて、第一投光部110A、第二投光部110Bの各々から出射される測定光の明るさ又はそれぞれの投光部110に対応したカメラ露光時間を適切にするための調整ガイドが表示部400に表示されてもよい。この場合、ユーザは、調整ガイドに基づいて明るさ調整スライダ444、446の位置をそれぞれ移動させることにより、第一投光部110A、第二投光部110Bの各々から出射される測定光の明るさ又はそれぞれの投光部110に対応したカメラ露光時間を適切に調整することができる。   Alternatively, the measurement light emitted from each of the first light projecting unit 110A and the second light projecting unit 110B based on the brightness of the illumination light emitted from the illumination light output unit 130 or the camera exposure time corresponding to the illumination light. An adjustment guide for making the brightness of the camera or the camera exposure time corresponding to each light projecting unit 110 appropriate may be displayed on the display unit 400. In this case, the user moves the positions of the brightness adjustment sliders 444 and 446 based on the adjustment guide, so that the brightness of the measurement light emitted from each of the first light projecting unit 110A and the second light projecting unit 110B. Or the camera exposure time corresponding to each light projection part 110 can be adjusted appropriately.

光の照射方向が異なれば、光の反射方向も異なるため、結果として得られる画像の明るさは、同じ部位であっても光の照射方向によって異なる。すなわち、測定に適した測定光の明るさ、撮像素子の露光時間は照射方向によって異なることになる。本実施形態では、複数の第一投光部110A、第二投光部110Bから光を照射して撮像されたそれぞれの画像の明るさを個別に調整可能とすることにより、照射方向毎に適切な測定光の明るさ又は露光時間を設定することができる。また、明るさ調整中の画像は、画像表示領域410に更新されながら表示されるため、調整後の画像を確認しながら明るさを調整できる。この際に、画像表示領域410に表示された画像の中で、明るすぎて白とびしている部分や、暗すぎて黒つぶれしている部分を識別可能に表示することで、ユーザにとって明るさが適切に調整できているか否かをより判り易く表示することも可能である。
(テレセントリック両側投光光学系)
If the light irradiation direction is different, the light reflection direction is also different, so that the brightness of the resulting image varies depending on the light irradiation direction even in the same region. That is, the brightness of the measurement light suitable for measurement and the exposure time of the image sensor vary depending on the irradiation direction. In the present embodiment, the brightness of each image captured by irradiating light from the plurality of first light projecting units 110 </ b> A and 110 </ b> B can be individually adjusted, so that it is appropriate for each irradiation direction. It is possible to set the brightness or exposure time of the measurement light. In addition, since the image whose brightness is being adjusted is displayed in the image display area 410 while being updated, the brightness can be adjusted while checking the adjusted image. At this time, in the image displayed in the image display area 410, a portion that is too bright and overexposed, or a portion that is too dark and obscured by black is displayed in an identifiable manner, so that the brightness is improved for the user. It is also possible to display whether or not can be adjusted appropriately.
(Telecentric double-sided projection optical system)

ここで、テレセントリック両側投光の光学系の模式図を図6に示す。この図に示すように、ステージ140上に載置された測定対象物WKに対して投光する投光部120を構成する投光光学系として、第一投光部110Aで構成される右投光光学系と、第二投光部110Bで構成される左投光光学系がそれぞれ配置される。このように投光光学系を左右にそれぞれ設けることで、パターン光が影になって測定不能となる領域を低減できる等の利点が得られる。   Here, a schematic diagram of a telecentric double-sided projection optical system is shown in FIG. As shown in this figure, the right projection unit 110A includes a right projection unit 110A as a projection optical system that configures the projection unit 120 that projects the measurement target WK placed on the stage 140. A left light projecting optical system including the light optical system and the second light projecting unit 110B is disposed. By providing the light projecting optical systems on the left and right in this way, there are advantages such as reduction of the area in which the pattern light becomes a shadow and cannot be measured.

一方、受光120を構成する受光光学系は、低倍率用撮像素子120Aと、高倍率用撮像素子120Bを備えている。中央のプリズム124の上方には、二分岐両側テレセントリック受光レンズ125が設けられている。またプリズム124の右側には、高倍率用撮像素子120Bが配置される。なお投光光学系は、図6に示すように、視野よりも広めに照射されている。   On the other hand, the light receiving optical system constituting the light receiving unit 120 includes a low-magnification imaging device 120A and a high-magnification imaging device 120B. Above the central prism 124, a bifurcated both-side telecentric light receiving lens 125 is provided. On the right side of the prism 124, a high-magnification imaging device 120B is disposed. As shown in FIG. 6, the light projecting optical system is irradiated wider than the field of view.

受光光学系は、受光レンズ及びカメラユニットで構成される。受光レンズは精度を優先し、固定倍率のテレセントリック光学系としているが、ズームレンズとして広い倍率をカバーしても良い。形状測定装置は二分岐の固定焦点両側テレセントリック光学系を採用しており、カメラが低倍率用カメラ、及び高倍率用カメラの2個構成となっている。これにより、ズームレンズのような機械的な切り替えではなく、電気的な切り替えによる倍率変更が可能となり、機械位置決め精度に起因する測定精度ずれ等が発生しない、安定した測定性能が実現できる。   The light receiving optical system includes a light receiving lens and a camera unit. The light receiving lens has a fixed magnification and is a telecentric optical system giving priority to accuracy. However, the zoom lens may cover a wide magnification. The shape measuring apparatus employs a bifurcated fixed-focus both-side telecentric optical system, and has two cameras, a low-magnification camera and a high-magnification camera. As a result, it is possible to change the magnification by electrical switching instead of mechanical switching as in the zoom lens, and it is possible to realize stable measurement performance that does not cause a measurement accuracy shift due to the mechanical positioning accuracy.

左右両側投光による測定範囲について、図7の模式図に基づいて説明する。形状測定装置では、影領域(測定不能領域)を最小限とすべく、受光レンズを挟んで左右対称な方向からパターン投光が可能な構成としており、左右にそれぞれパターン投光光学系を配置している。   The measurement range by left and right side light projection will be described based on the schematic diagram of FIG. In the shape measuring device, in order to minimize the shadow area (unmeasurable area), the pattern can be projected from the left and right symmetrical directions with the light receiving lens in between. ing.

受光レンズには、二分岐両側テレセントリック受光レンズ125を採用しており、測定対象物WKの高さによる倍率変化が無い、真上から見た歪みの無い画像が取得できると共に、両側テレセントリック投光レンズの構成と合わせると、視野内どこでも投受光角度が一定であるという測定設定をシンプルにできる効果が発揮される。二分岐両側テレセントリック受光レンズ125は図7に示すように、2倍率が同軸な視野を有しており、倍率を切り替えても視野調整を不要にできるメリットがある。   The light receiving lens employs a two-branch both-side telecentric light-receiving lens 125, which can acquire an image without distortion caused by a change in magnification due to the height of the object to be measured WK, as well as a double-sided telecentric projection lens. When combined with this configuration, the effect of simplifying the measurement setting that the light projection / reception angle is constant everywhere in the field of view is exhibited. As shown in FIG. 7, the two-branch both-side telecentric light-receiving lens 125 has a field of view with two magnifications coaxial, and there is a merit that the field of view adjustment is not required even if the magnification is switched.

左右投光レンズ116からは、平行な光束として二次元パターン光が、測定対象物WKに対して左右均等な投光角度から照射される。左右から受光レンズを挟んで対象に二次元パターン光を照射することの利点としては、前述の影を最小にする効果だけでなく、左右それぞれの測定結果を合成(例えば平均処理など)することにより、左右それぞれに発生する誤差を軽減できるという点が挙げられる。   From the left and right light projection lens 116, the two-dimensional pattern light is irradiated as a parallel light beam from the right and left light projection angles to the measurement object WK. The advantage of irradiating the target with the two-dimensional pattern light from the left and right is not only the effect of minimizing the above-mentioned shadow, but also by combining the measurement results of the left and right (for example, averaging) It is possible to reduce errors that occur on the left and right.

左右投光と測定範囲の関係において、図7の模式図に示すように、測定視野(XY方向)の広さは、受光レンズの光束の幅(図7における細線(低倍率)もしくは太線(高倍率)な光線の幅)で決定され、1組のパターン投影を用いた高さ測定の範囲については、投光と受光の関係性から決定される。図7における点線枠の領域のように、受光光束と左右からの投光光束の共通領域として深度測定範囲を定義する。すなわち、点線枠で示す左右投光照射の共通領域が、測定可能な高さのレンジを示す。このように深度測定範囲を決定することで、深度測定範囲の中であればどこで測定しても、左右からの光の当たり方が均一であり、また、左右それぞれの測定を平均化することで計測が安定する効果を深度測定範囲全域で実現できる。
(下ヘッド102)
In the relationship between the left and right projections and the measurement range, as shown in the schematic diagram of FIG. 7, the width of the measurement visual field (XY direction) is the width of the light beam of the light receiving lens (the thin line (low magnification) or the thick line (high) in FIG. The range of height measurement using a set of pattern projections is determined from the relationship between light projection and light reception. A depth measurement range is defined as a common area of the received light flux and the projected light flux from the left and right, as in the dotted frame area in FIG. That is, the common area of the left and right light projection irradiation indicated by the dotted frame indicates the range of the measurable height. By determining the depth measurement range in this way, the light hitting from the left and right is uniform regardless of where in the depth measurement range, and by averaging the left and right measurements. The effect of stable measurement can be realized over the entire depth measurement range.
(Lower head 102)

ステージ140は、ベース筐体149に連結されている。ベース筐体149やステージ140は、下ヘッド102としてユニット化されている。この下ヘッド102は、上ヘッド101と接続されている。ここで上ヘッド101と下ヘッド102を接続した形状測定装置100の外観側面を図8に、下ヘッド102の部構成を図9に、それぞれ示す。上ヘッド101は、投光部110及び受光部120を収容する。また下ヘッド102は、XYステージ141、Zステージ142、スケールユニット160、ステージ駆動部145、ベース筐体149、及び床面に設置される土台部151とを備える。ステージ140は、XYステージ141とZステージ142で構成される。ベース筐体149は、土台部151と上ヘッド101を連結する。なお、この構成は一例であり、 例えば上ヘッドと下ヘッド102を一体に構成することもできる。   The stage 140 is connected to the base casing 149. The base casing 149 and the stage 140 are unitized as the lower head 102. The lower head 102 is connected to the upper head 101. Here, FIG. 8 shows an external side view of the shape measuring apparatus 100 in which the upper head 101 and the lower head 102 are connected, and FIG. 9 shows a configuration of the lower head 102. The upper head 101 houses the light projecting unit 110 and the light receiving unit 120. The lower head 102 includes an XY stage 141, a Z stage 142, a scale unit 160, a stage driving unit 145, a base casing 149, and a base 151 installed on the floor surface. The stage 140 includes an XY stage 141 and a Z stage 142. The base casing 149 connects the base portion 151 and the upper head 101. This configuration is an example, and for example, the upper head and the lower head 102 can be integrally configured.

下ヘッド102は、ステージ駆動部145を通じて撮像手段100の測定制御部150(上ヘッド101側)と電気的に接続される。またベース筐体149での機械的位置決め、及び位置決めボルトによって機械的に締結される。ベース筐体149に内蔵されたZステージ142から、ステージ支持部152を介して、XYステージ141を保持している。このXYステージ141の高さを、高さ検出用のスケールユニット160によって検知することで、測定時のステージ面高さを正確に認識することが可能となる。
(スケールユニット160)
The lower head 102 is electrically connected to the measurement control unit 150 (upper head 101 side) of the imaging unit 100 through the stage driving unit 145. Further, it is mechanically fastened by mechanical positioning in the base casing 149 and positioning bolts. The XY stage 141 is held from the Z stage 142 built in the base casing 149 via the stage support 152. By detecting the height of the XY stage 141 with the scale unit 160 for height detection, the stage surface height at the time of measurement can be accurately recognized.
(Scale unit 160)

スケールユニット160は、センサ移動部161と、スケール部162を備える。センサ移動部161は、図9に示すように、ステージ支持部152の背面側に連結されて、ステージ支持部152と共に移動する。一方スケール部162は、ベース筐体149に固定されて、センサ移動部161の位置を検出する。このようにセンサ移動部161をスケール部162に沿って移動させて、受光部120の光軸方向におけるステージ140と受光部120との相対的な距離を検出する。この構成では、センサ移動部161がスケール部162に沿って摺動する摺動面が、ステージ140の高さすなわちワーキングディスタンスを測定する測定軸となる。図9のように、光軸の延長線と測定軸とを一致させることで、誤差の少ない測定が実現される。   The scale unit 160 includes a sensor moving unit 161 and a scale unit 162. As shown in FIG. 9, the sensor moving unit 161 is connected to the back side of the stage support unit 152 and moves together with the stage support unit 152. On the other hand, the scale unit 162 is fixed to the base casing 149 and detects the position of the sensor moving unit 161. In this manner, the sensor moving unit 161 is moved along the scale unit 162 to detect the relative distance between the stage 140 and the light receiving unit 120 in the optical axis direction of the light receiving unit 120. In this configuration, the sliding surface on which the sensor moving unit 161 slides along the scale unit 162 serves as a measurement axis for measuring the height of the stage 140, that is, the working distance. As shown in FIG. 9, by making the extension line of the optical axis coincide with the measurement axis, measurement with less error is realized.

図8及び図9に示すように、ステージ駆動部145が、スケールユニット160に対してベース筐体149側に配置されている。これによって高荷重なXYステージ141の剛性を維持しながら、Z方向に長ストローク稼働するステージ構成が実現されている。通常、高い剛性を維持したステージでは、クロスローラガイドやリニアガイドを用いられるところ、モーメント剛性を維持する観点からは、可動部の根元には十分な幅を持たせることが重要となる。この幅とストローク長との和が必要なガイド長となるため、通常は軽量なスケール部の可動部に比べて、Zステージガイドは長尺となる。そこで本実施形態においては、距離測定面と光軸方向駆動部146を独立に配置することで、長ストロークながら低床な筐体設計が可能となり、結果的に床振動等の外乱に対してより安定した計測器が実現できるメリットがある。   As shown in FIGS. 8 and 9, the stage driving unit 145 is disposed on the base housing 149 side with respect to the scale unit 160. As a result, a stage configuration is realized in which a long stroke operation is performed in the Z direction while maintaining the rigidity of the high-load XY stage 141. Normally, a cross roller guide or a linear guide is used in a stage that maintains high rigidity. From the viewpoint of maintaining moment rigidity, it is important to have a sufficient width at the base of the movable part. Since the sum of the width and the stroke length is a necessary guide length, the Z stage guide is usually longer than the movable portion of the lightweight scale portion. Therefore, in this embodiment, by arranging the distance measuring surface and the optical axis direction driving unit 146 independently, it is possible to design a low-floor casing with a long stroke, and as a result, it is more resistant to disturbances such as floor vibration. There is an advantage that a stable measuring instrument can be realized.

なお、本実施例では、スケールユニット160をベース筐体149側に配置されている例を示したが、投光部、受光部が設けられた上ヘッド側に受光部の光軸と一致させて配置するようにしてもよい。特にステージ側でなく受光部側を駆動させる際には、駆動させる受光部側の移動量をスケールユニットで測定するように配置することが好ましい。   In this embodiment, an example in which the scale unit 160 is disposed on the base housing 149 side is shown, but the optical axis of the light receiving unit is aligned with the upper head side where the light projecting unit and the light receiving unit are provided. It may be arranged. In particular, when driving not the stage side but the light receiving unit side, it is preferable to arrange so that the amount of movement on the light receiving unit side to be driven is measured by the scale unit.

一方で、センサ移動部161と光軸方向駆動部146を独立して配置することの欠点として、1方向ガイドを二重で構成する点が考えられる。距離の離れた2箇所に独立した直動ガイドを配置することで、お互いの真直度がクロストークし、コジル、直進性が悪化するなどのデメリットが考えられる。そこで、本実施形態に係る形状測定装置ではこれらの点に鑑みて、図9に示すように、スケールユニット160とステージ支持部152との接続を磁力で行う構成とし、強締結を避けたロバストな構成を実現している。
(連結部)
On the other hand, as a drawback of disposing the sensor moving unit 161 and the optical axis direction driving unit 146 independently, it is conceivable that the one-way guide is configured in a double manner. By arranging independent linear motion guides at two locations that are separated from each other, there may be disadvantages such as crosstalk between the straightness of each other, and deterioration of kodil and straightness. Therefore, in view of these points, the shape measuring apparatus according to the present embodiment is configured to connect the scale unit 160 and the stage support unit 152 with a magnetic force as shown in FIG. The configuration is realized.
(Connecting part)

図9に示すように、スライド移動するスケール部162の連結に磁石を使用している。またこの磁石面の締結には、一方を球状体163とし、他方を平板状の板材164とし、球状体163の球面で板材164の平板に点接触させた吸着としている。ここでは、球状体163を磁性体として、板材164を永久磁石製としている。球状体103は、保持部167で保持され、保持部167がステージ支持部152に固定される。さらに、平滑面を有する板状部材165を介在させている。
(XYステージ141)
As shown in FIG. 9, a magnet is used to connect the scale unit 162 that slides. Further, for fastening of the magnet surface, one is a spherical body 163 and the other is a flat plate material 164, and the spherical surface of the spherical body 163 is attracted by point contact with the flat plate of the plate material 164. Here, the spherical body 163 is made of a magnetic material, and the plate material 164 is made of a permanent magnet. The spherical body 103 is held by a holding unit 167, and the holding unit 167 is fixed to the stage support unit 152. Further, a plate-like member 165 having a smooth surface is interposed.
(XY stage 141)

XYステージ141は内部に傾斜センサ、ステージ駆動部145(マイコン・FPGA・モータードライバ)を有する。またXYステージ141は、ステージ支持部152を通じて電気的にベース筐体149内部のステージ駆動部145と接続されている。ステージ支持部152とXYステージ141との電気接続をコネクタで構成することで、XYステージ141も着脱可能な構成となり、チルト・回転ステージといった異なる視野調整ステージに切り替えることも可能となる。
(縞投影法による計測の流れ)
The XY stage 141 includes a tilt sensor and a stage drive unit 145 (microcomputer, FPGA, motor driver) inside. The XY stage 141 is electrically connected to a stage driving unit 145 inside the base casing 149 through a stage support unit 152. By configuring the electrical connection between the stage support unit 152 and the XY stage 141 with a connector, the XY stage 141 can also be attached and detached, and can be switched to a different visual field adjustment stage such as a tilt / rotation stage.
(Measurement flow by fringe projection method)

次に、図4に基づいて、形状を測定する動作の流れの概要を説明する。なお、ここでの説明はすべてZステージ142を高さ方向に固定した「ワンショット測定」におけるものとする。   Next, based on FIG. 4, the outline of the flow of the operation | movement which measures a shape is demonstrated. It should be noted that all the descriptions here are for “one-shot measurement” in which the Z stage 142 is fixed in the height direction.

まずユーザは、計測したい測定対象物WKをステージ140上に配置し、表示部400に映し出された光学画像を見ながら焦点、視野位置、明るさなどを照明条件調整部で調節する。ここでは照明光出力部130として、リング照明を用いている。ただ照明光出力部130は、リング照明に限らず、例えば投光系照明部を構成する投光部110から均一照明を照射しても良い。   First, the user arranges the measurement object WK to be measured on the stage 140 and adjusts the focus, visual field position, brightness, and the like with the illumination condition adjustment unit while viewing the optical image displayed on the display unit 400. Here, ring illumination is used as the illumination light output unit 130. However, the illumination light output unit 130 is not limited to the ring illumination, and for example, the illumination light output unit 130 may irradiate uniform illumination from the light projecting unit 110 constituting the light projecting system illumination unit.

次に、照明光をリング照明から投光部110に切り替えて、投光系照明光の明るさを調整する。投光部110による照明光は斜めから当たるため、測定対象物WKの形状による影が発生する。また、測定対象物WKの表面状態によっては、照明光を多少傾斜させたほうが良好な見え方になる場合もある。照明光を傾斜させるには、例えばステージ140を傾斜可能なチルトステージを用いたり、投光部110に傾斜機構を設ける。また照明光の影や表面状態の影響を抑えるために、必要に応じて測定対象物WKの位置や姿勢を再調整する。   Next, the illumination light is switched from the ring illumination to the light projecting unit 110 to adjust the brightness of the light projecting illumination light. Since the illumination light from the light projecting unit 110 strikes from an oblique direction, a shadow due to the shape of the measurement target WK is generated. Further, depending on the surface state of the measurement object WK, it may be better to see the illumination light slightly inclined. In order to tilt the illumination light, for example, a tilt stage capable of tilting the stage 140 is used, or a tilt mechanism is provided in the light projecting unit 110. Further, in order to suppress the influence of the shadow of the illumination light and the surface state, the position and orientation of the measurement object WK are readjusted as necessary.

このような投光部110での調整工程において、測定対象物WKを移動させた場合は、再びリング照明に切り替えて、リング照明光での測定対象物WKの見え方の確認や、リング照明光の明るさの再調整などを行う。なお、この作業は、不要であれば省略することもできる。   In such an adjustment process in the light projecting unit 110, when the measurement object WK is moved, the measurement object WK is switched again to the ring illumination to confirm the appearance of the measurement object WK with the ring illumination light, or the ring illumination light. Readjust the brightness of the. This operation can be omitted if unnecessary.

測定対象物WKの姿勢、位置、焦点、及び計測用の照明条件が確定したら、制御手段200から、測定開始の指令を測定制御部150に送信する。制御手段200は、上述の通り形状測定プログラムをインストールしたコンピュータで構成される。この指令を受けて、測定部は投光部110内のパターン生成ユニットと撮像手段100を同期制御し、複数のパターンを投影しながら、測定対象物WKの複数の画像を撮像手段100で取得し、制御基板310にて適切な処理を施した後、制御手段200に送信する。
(高さ画像の生成)
When the posture, position, focus, and measurement illumination condition of the measurement object WK are determined, a measurement start command is transmitted from the control unit 200 to the measurement control unit 150. The control means 200 is configured by a computer in which the shape measurement program is installed as described above. Upon receiving this command, the measurement unit synchronously controls the pattern generation unit in the light projecting unit 110 and the imaging unit 100, and acquires a plurality of images of the measurement target WK with the imaging unit 100 while projecting a plurality of patterns. Then, after appropriate processing is performed on the control board 310, it is transmitted to the control means 200.
(Generation of height image)

制御手段200が受け取った画像データは、形状測定プログラム内の計測アルゴリズムで適切に画像処理され解析されて、立体形状データが生成される。具体的には、高さ画像生成部212bにより、高さ情報を有する高さ画像が生成される。
(テクスチャ画像の生成)
The image data received by the control means 200 is appropriately image-processed and analyzed by a measurement algorithm in the shape measurement program, and solid shape data is generated. Specifically, a height image having height information is generated by the height image generation unit 212b.
(Generation of texture images)

一方で、測定対象物WKに照明光を照射し、測定対象物WKの表面状態を示す画像であるテクスチャ画像を撮像手段100で取得する。例えば、測定対象物WKにリング照明を照射したり、あるいは投光部110から、すべての画素をONにした投光パターン(全白)を照射する等して、均一な照明光で光学画像を撮像し、テクスチャ画像とする。   On the other hand, the measurement object WK is irradiated with illumination light, and a texture image that is an image showing the surface state of the measurement object WK is acquired by the imaging unit 100. For example, by irradiating the measurement object WK with ring illumination or irradiating a light projection pattern (all white) with all pixels turned on from the light projecting unit 110, an optical image is obtained with uniform illumination light. Take an image to make a texture image.

またテスクチャ画像は、一枚のみならず、複数枚撮像してもよい。この際、複数のテクスチャ画像を合成してHDR画像や深度合成画像を生成することもできる。HDR(ハイダイナミックレンジ)画像は、複数枚のテクスチャ画像をカメラの露光時間を変えて撮像した後、これらをハイダイナミックレンジ(HDR)合成して生成される画像である。また深度合成画像は、測定対象物WKの測定対象部分の高低差が被写界深度を超える場合、高さ方向を異ならせて個々に撮像した観察画像中から、焦点が合った部分だけを抜き出して合成した画像である。
(合成画像の生成)
Further, not only one texture image but also a plurality of texture images may be captured. At this time, an HDR image or a depth composite image can be generated by combining a plurality of texture images. An HDR (high dynamic range) image is an image generated by capturing a plurality of texture images while changing the exposure time of the camera, and then combining these images with a high dynamic range (HDR). In addition, when the height difference of the measurement target part of the measurement target WK exceeds the depth of field, the depth composite image extracts only the in-focus part from the observation images taken individually with different height directions. This is an image synthesized.
(Generate composite image)

得られたテクスチャ画像も、制御手段200に転送される。制御手段200は、テクスチャ画像と高さ画像を合成して合成画像を生成する。例えば、形状測定プログラムにて立体形状データである高さ画像にテクスチャ画像をマッピングして、三次元画像合成部で合成画像データを生成する。合成画像は、表示部400に表示される。この状態で、合成画像に対して所望の計測、解析を行うことができる。
(形状測定方法)
The obtained texture image is also transferred to the control means 200. The control unit 200 generates a composite image by combining the texture image and the height image. For example, a texture image is mapped to a height image that is three-dimensional shape data by a shape measurement program, and composite image data is generated by a three-dimensional image composition unit. The composite image is displayed on the display unit 400. In this state, desired measurement and analysis can be performed on the composite image.
(Shape measurement method)

以上説明した合成画像を生成して形状測定を行う手順を、図10のフローチャートに基づいて説明する。まずステップS1001において、測定対象物WKをステージ140に置く。   The procedure for generating the synthesized image and measuring the shape will be described based on the flowchart of FIG. First, in step S1001, the measurement object WK is placed on the stage 140.

次にステップS1002において、リング照明を使用して、測定対象物WKの位置、姿勢、焦点、明るさを調整する。   Next, in step S1002, the position, posture, focus, and brightness of the measurement object WK are adjusted using ring illumination.

次にステップS1003において、投光系に切り替えて、投光系照明の明るさ、測定対象物WKの位置や姿勢を調整する。   Next, in step S1003, switching to the light projecting system is performed to adjust the brightness of the light projecting system illumination and the position and orientation of the measurement target WK.

次にステップS1004において、リング照明に再び切り替え、さらに投光系に切り替えて、見え方を確認する。   Next, in step S1004, switching to ring illumination is performed again, and further switching to a light projecting system is performed to confirm the appearance.

次にステップS1005において、見え方に問題はないか確認する。問題があればステップS1002に戻って、上記の処理を繰り返す。一方問題がなければ、ステップS1006に進み、計測開始ボタンを押す。   Next, in step S1005, it is confirmed whether there is a problem in appearance. If there is a problem, the process returns to step S1002 to repeat the above processing. On the other hand, if there is no problem, the process proceeds to step S1006 and the measurement start button is pressed.

次にステップS1007において、投光系から縞パターンを投影、スキャンし、これと同期してカメラで測定対象物WKの複数枚の縞画像を取得する。ここで左右投光、HDR、その他の性能改善のため、本ステップを規数回繰り返してもよい。例えば露光時間を変えて複数回パターン光を投影することで、ハレーションの影響を軽減できる。   Next, in step S1007, a fringe pattern is projected and scanned from the light projecting system, and a plurality of fringe images of the measurement object WK are acquired by the camera in synchronization therewith. Here, this step may be repeated a predetermined number of times in order to improve left and right light projection, HDR, and other performances. For example, the influence of halation can be reduced by projecting pattern light a plurality of times while changing the exposure time.

次にステップS1008において、リング照明を点灯し、測定対象物WKのテクスチャ面像を取得する。   Next, in step S1008, the ring illumination is turned on, and a texture plane image of the measurement object WK is acquired.

次にステップS1009において、縞画像セットを計測アルゴリズムで処理し、立体形状データを生成する。   Next, in step S1009, the fringe image set is processed by a measurement algorithm to generate solid shape data.

次にステップS1010において、立体形状データにデクスチャ画像をマッピングする。   Next, in step S1010, the texture image is mapped to the solid shape data.

次にステップS1011において、結果を表示させる。そしてステップS1012において、目的の箇所のデータが正しく取得できたか否かを判定し、否の場合はステップS103に戻って上記の処理を繰り返す。一方、取得できている場合はステップS1013に進み、計測用ソフトなどを使用して、各種計測、解析を実行する。   In step S1011, the result is displayed. In step S1012, it is determined whether or not the data of the target location has been acquired correctly. If not, the process returns to step S103 and the above processing is repeated. On the other hand, if it can be obtained, the process proceeds to step S1013, and various measurements and analyzes are executed using measurement software or the like.

以上のようにして、形状測定装置を用いて合成画像を生成して、形状測定を行うことができる。なお図10のステップS1001とステップS1002は、順序を入れ替えても良い。その場合はまず計測設定(ステップS1002)にて測定対象物WKの姿勢、位置、焦点合わせを行い、テクスチャ画像取得(ステップS1001)では測定対象物WKの姿勢、位置、焦点を変更しないようにして、リング照明の明るさやテクスチャ種類の選択などのみを行うようにする。
(テクスチャ画像を取得する手順)
As described above, a shape measurement can be performed by generating a composite image using the shape measurement apparatus. Note that the order of step S1001 and step S1002 in FIG. 10 may be interchanged. In that case, first, the posture, position, and focus of the measurement object WK are adjusted in the measurement settings (step S1002), and the posture, position, and focus of the measurement object WK are not changed in the texture image acquisition (step S1001). Only the brightness of the ring illumination and the texture type are selected.
(Procedure for obtaining a texture image)

次にテクスチャ画像を取得する手順を、図11のフローチャートに基づいて説明する。この手順は、図10のステップS1002の工程を詳細に説明したものに相当する。まずステップS1101において、リング照明に切り替える。   Next, a procedure for acquiring a texture image will be described based on the flowchart of FIG. This procedure corresponds to the detailed description of the step S1002 of FIG. First, in step S1101, switching to ring illumination is performed.

次にステップS1102において、リング照明の明るさを調整する。そしてステップS1103において、明るさが適切かどうかを判定し、適切でない場合は ステップS1102に戻って処理を繰り返す。一方、明るさが適切な場合はステップS1104に進み、Zステージ142を移動させて、測定対象物WKの焦点位置を合わせる。さらにステップS1105において、焦点位置が合っているかどうかを判定し、合っていない場合はステップS1104に戻って処理を繰り返す。一方、焦点位置が合っている場合は、ステップS1106に進み、XY・θ・チルトステージを移動させて、測定対象物WKの位置、姿勢を合わせる。なお、これらのステップS1102〜ステップS1106は、順序を適宜入れ替えてもよい。   Next, in step S1102, the brightness of the ring illumination is adjusted. In step S1103, it is determined whether or not the brightness is appropriate. If it is not appropriate, the process returns to step S1102 to repeat the process. On the other hand, if the brightness is appropriate, the process proceeds to step S1104, the Z stage 142 is moved, and the focus position of the measurement object WK is adjusted. In step S1105, it is determined whether or not the focus position is correct. If not, the process returns to step S1104 to repeat the process. On the other hand, if the focus position is correct, the process advances to step S1106 to move the XY / θ / tilt stage to match the position and orientation of the measurement target WK. Note that the order of these steps S1102 to S1106 may be changed as appropriate.

次にステップS1107において、見たい部位が視野内収まっているかを判定し、収まっていない場合はステップS1106に戻って処理を繰り返す。一方、収まっている場合はステップS1108において、倍率を変更してサイズを調整する。   Next, in step S1107, it is determined whether the part to be seen is within the field of view. If not, the process returns to step S1106 to repeat the process. On the other hand, if it is within the range, in step S1108, the magnification is changed and the size is adjusted.

次にステップS1109において、倍率が適切か否かを判定し、否の場合はステップS1108に戻って処理を繰り返す。一方、倍率が適切な場合はステップS1110に進み、テクスチャ画像の種類を選択するか否かを判定する。否の場合はステップS1111に進んで通常画像を選択し、この処理を終了する。   Next, in step S1109, it is determined whether or not the magnification is appropriate. If not, the process returns to step S1108 and the process is repeated. On the other hand, if the magnification is appropriate, the process advances to step S1110 to determine whether or not to select a texture image type. If not, the process proceeds to step S1111 to select a normal image, and this process ends.

一方、テクスチャ画像の種類を選択する場合は、ステップS1112に進み、深度合成を行うか否かを判定し、行う場合はステップS1113に進み、深度合成の設定を実行する。一方、行わない場合はステップS1114に直接ジャンプする。   On the other hand, when selecting the type of texture image, the process proceeds to step S1112 to determine whether or not to perform depth synthesis. If so, the process proceeds to step S1113 to execute setting of depth synthesis. On the other hand, if not, the process jumps directly to step S1114.

次にステップS1114において、HDRを行うか否かを判定し、行う場合はステップS1115に進み、HDRの設定を実行する。一方、行わない場合はステップS1116に直接ジャンプする。   Next, in step S1114, it is determined whether or not HDR is to be performed. If so, the process proceeds to step S1115 to execute HDR setting. On the other hand, if not, the process jumps directly to step S1116.

次にステップS1116において、テクスチャ画像の確認を行うか否かを判定し、行う倍はステップS1117に進み、テクスチャ画像のプレビューを表示させる。一方、行わない場合はこの処理を終了する。   Next, in step S1116, it is determined whether or not the texture image is to be confirmed. If doubled, the process proceeds to step S1117, where a preview of the texture image is displayed. On the other hand, if not, this process ends.

次にステップS1118において、プレビュー表示されたテクスチャ画像の結果に満足したか否かを判定し、否の場合はステップS1112に戻って処理を繰り返す。一方、満足した場合は、この処理を終了する。以上のようにして、テクスチャ画像を取得することができる。
(測定設定の設定を行う手順)
Next, in step S1118, it is determined whether or not the result of the texture image displayed as a preview is satisfied. If not, the process returns to step S1112 to repeat the process. On the other hand, if satisfied, this process is terminated. As described above, a texture image can be acquired.
(Procedure for setting measurement settings)

立体形状データを生成するための測定設定は、投光部のパターン光の投光条件や、受光部の受光条件や撮像条件、照明部の照明条件等を含んでいる。これらの測定設定は、図1等の測定設定部255で設定される。ここで測定設定の設定を行う手順を、図12のフローチャートに基づいて説明する。この手順は、図10のステップS1003の工程を詳細に説明したものに相当する。   The measurement setting for generating the three-dimensional shape data includes a light projection condition of the pattern light of the light projecting unit, a light receiving condition and an imaging condition of the light receiving unit, an illumination condition of the illumination unit, and the like. These measurement settings are set by the measurement setting unit 255 shown in FIG. Here, the procedure for setting the measurement settings will be described based on the flowchart of FIG. This procedure corresponds to the detailed description of the step S1003 of FIG.

まずステップS1201において、計測用投光系(図4において左側投光系)に切り替える。次にステップS1202において、明るさを仮に調整する。   First, in step S1201, the measurement light projection system is switched to the left light projection system in FIG. Next, in step S1202, the brightness is temporarily adjusted.

そしてステップS1203において、計測箇所に照明が当たっているか否かを判定し、否の場合はステップS1204において、θ・チルトステージを動かして、測定対象物WKの位置、姿勢を調整する。一方、計測箇所に照明が当たっている場合は、ステップS1206に直接ジャンプする。   In step S1203, it is determined whether or not the measurement location is illuminated. If not, in step S1204, the θ / tilt stage is moved to adjust the position and orientation of the measurement target WK. On the other hand, if the measurement location is illuminated, the process jumps directly to step S1206.

次にステップS1205において、照明が当たったか否かを判定し、ステップS1204に戻って処理を繰り返す。一方、照明が当たっている場合はステップS1206において、計測箇所の明るさが適切か否かを判定する。否の場合は、ステップS1207において明るさを調整する。一方、照明が当たっている場合は、ステップS1209に直接ジャンプする。   Next, in step S1205, it is determined whether or not illumination has been applied, and the process returns to step S1204 to repeat the process. On the other hand, if it is illuminated, it is determined in step S1206 whether the brightness of the measurement location is appropriate. If not, the brightness is adjusted in step S1207. On the other hand, if it is illuminated, the process jumps directly to step S1209.

次にステップS1208において、明るさが合っているかを判定し、否の場合はステップS1207に戻って処理を繰り返す。一方、明るさが合っている場合はステップS1209において、計測箇所に焦点が合っているかを判定する。否の場合はステップS1210において、ステージ140を動かして、計測箇所に焦点を合わせる。一方、明るさが合っている場合は、ステップS1212にジャンプする。   Next, in step S1208, it is determined whether the brightness is correct. If not, the process returns to step S1207 to repeat the process. On the other hand, if the brightness is correct, it is determined in step S1209 whether the measurement location is in focus. If not, in step S1210, the stage 140 is moved to focus on the measurement location. On the other hand, if the brightness is correct, the process jumps to step S1212.

次にステップS1211において、焦点が合っているか否かを判定し、否の場合はステップS1210に戻って処理を繰り返す。一方、焦点が合っている場合はステップS1212に進み、総合判断を行う。ここでは、計測箇所の明るさ、姿勢、焦点が適切か否かを判定し、適切でない場合はステップS1213において、適切でないパラメータを確認し、適切な手順に戻る。戻る先は、適切でないパラメータに応じて、ステップS1204、ステップS1207、ステップS1210の何れかとなる。   Next, in step S1211, it is determined whether or not the subject is in focus. If not, the process returns to step S1210 to repeat the process. On the other hand, if the image is in focus, the process proceeds to step S1212 to make a comprehensive determination. Here, it is determined whether or not the brightness, posture, and focus of the measurement location are appropriate. If they are not appropriate, parameters that are not appropriate are confirmed in step S1213, and the procedure returns to an appropriate procedure. The return destination is one of step S1204, step S1207, and step S1210 depending on an inappropriate parameter.

一方、総合判断において適切と判定された場合は、ステップS1214に進み、計測用投光系(図4において右側投光系)に切り替える。次にステップS1215において、明るさを調整し、さらにステップS1216において、明るさが合ったか否かを判定する。合っていない場合はステップS1215に戻って処理を繰り返す。一方、明るさが合っている場合はこの処理を終了する。   On the other hand, if it is determined as appropriate in the comprehensive determination, the process advances to step S1214 to switch to the measurement light projecting system (the right light projecting system in FIG. 4). Next, in step S1215, the brightness is adjusted. In step S1216, it is determined whether the brightness is correct. If not, the process returns to step S1215 to repeat the process. On the other hand, if the brightness is correct, this process ends.

なお、これらの手順において位置調整、姿勢調整、焦点調整、明るさ調整の順序は、適宜入れ替えることができる。   In these procedures, the order of position adjustment, posture adjustment, focus adjustment, and brightness adjustment can be changed as appropriate.

このようにして、測定設定を設定することができる。また測定設定は、ユーザが測定設定部255から自動で行う他、形状測定装置側で自動で行わせることもできる。
(深度方向の測定範囲拡張機能)
In this way, measurement settings can be set. The measurement setting can be automatically performed by the user from the measurement setting unit 255 or automatically by the shape measuring apparatus.
(Measurement range expansion function in the depth direction)

本実施形態においては、非接触測定方式として、三角測距方式に基づくパターン投影法を採用している。この方式では、1回の深度測定範囲が広い三角測距方式をベースにしながら、測定対象物もしくは形状測定装置の位置を物理的もしくは光学的に移動させて測定を繰り返し、測定結果を合成していくことで、1回の測定で実現できる深度測定範囲を、移動した分だけ拡張することが可能となる。この結果、高速に、かつ三角測距方式よりも広い範囲を測定可能となり、より広い視野を高い分解能で計測可能な形状測定装置や形状測定方法を実現できる。そして、深度方向の測定範囲を各視野において拡張することが可能となる。   In this embodiment, a pattern projection method based on a triangulation method is employed as a non-contact measurement method. This method is based on the triangular distance measurement method with a wide depth measurement range, and the measurement object is repeatedly moved by physically or optically moving the position of the measurement object or shape measuring device, and the measurement results are synthesized. Thus, the depth measurement range that can be realized by one measurement can be expanded by the amount of movement. As a result, it is possible to measure a wider range than the triangulation method at high speed, and to realize a shape measuring device and a shape measuring method capable of measuring a wider field of view with high resolution. And it becomes possible to extend the measurement range of a depth direction in each visual field.

実施形態1に係る形状測定装置は、図8、図9等に示すように、非接触で測定対象物の表面形状を測定可能であり、縞投影法を用いた三角測距方式で1回の測定で受光光学系視野内の各画素における高さ情報を取得することができる。また形状測定装置は、測定部と相対的に移動可能なステージ140を有しており、ステージ高さ読取軸と観察光軸とが共通の軸を有している。   As shown in FIGS. 8 and 9 and the like, the shape measuring apparatus according to the first embodiment can measure the surface shape of the measurement object in a non-contact manner, and can be performed once by a triangulation method using a fringe projection method. The height information at each pixel in the light receiving optical system field of view can be acquired by measurement. Further, the shape measuring apparatus has a stage 140 that can move relative to the measuring unit, and the stage height reading axis and the observation optical axis have a common axis.

この形状測定装置は、1つの上ヘッド101の内部に2つの倍率で観察可能な二分岐受光光学系を有している。これにより、同軸視野で倍率を切り替えた測定が可能となる。低倍率、高倍率の2倍率は同一の光軸を有している。この光軸と受光光学系の最良フォーカス面(合焦面)との交点を中心に、左右対称な方向に傾斜したパターン投光光軸を有する。このパターン投光光軸方向から、それぞれパターン投影を行い、複数の画像を受光光学系で撮像・解析して、高さ情報を算出する。
(測定範囲)
This shape measuring apparatus has a two-branch light receiving optical system that can be observed at two magnifications inside one upper head 101. As a result, it is possible to perform measurement with the magnification switched in the coaxial visual field. Two magnifications, a low magnification and a high magnification, have the same optical axis. A pattern projecting optical axis is tilted in a bilaterally symmetrical direction around the intersection of this optical axis and the best focus plane (focusing plane) of the light receiving optical system. Pattern projection is performed from each direction of the pattern projecting optical axis, and a plurality of images are captured and analyzed by the light receiving optical system to calculate height information.
(Range of measurement)

形状測定装置の合焦面と測定範囲は、図7に示すように、上ヘッド101は真上から真下を見下ろす方向に撮影視野を有している。上ヘッド101の下部に配置されたXYZステージ上の測定対象物を、真上から測定する形態となっている。ユーザは測定対象物をXYZステージの天面に配置し、XYステージ141を動かすことで視野を、Zステージ142を動かすことでフォーカスを調整することができる。あるいは、受光光学系側を移動させることでも、測定対象物と受光光学系との相対距離(ワーキングディスタンス)を変化させてフォーカスを調整することができる。なお、ここで言うフォーカスとは、受光光学系の合焦を意味する。この形状測定装置では、図7に示すように、高さ方向の深度測定範囲はこの合焦面を中心に上下に対象な一定の幅を持っている。ただ、対称であることは必須でない。   As shown in FIG. 7, the in-focus surface and the measurement range of the shape measuring apparatus have an imaging field in which the upper head 101 looks down from directly above. The measurement object on the XYZ stage disposed at the lower part of the upper head 101 is measured from directly above. The user can adjust the focus by moving the XY stage 141 and moving the Z stage 142 by placing the object to be measured on the top surface of the XYZ stage. Alternatively, the focus can be adjusted by changing the relative distance (working distance) between the measurement object and the light receiving optical system by moving the light receiving optical system side. Note that the focus here means focusing of the light receiving optical system. In this shape measuring apparatus, as shown in FIG. 7, the depth measurement range in the height direction has a certain width that is a target up and down around the in-focus plane. However, it is not essential to be symmetric.

XYZステージは、Zステージ142が受光光軸と略一致する方向に配置されている。これによりZステージ142の移動のみで、光軸方向の測定対象物高さ(もしくは相対的な上ヘッド101と測定対象物の光軸方向の位置関係)を変更できる。また、Zステージ142の内部には、Zステージ142の移動距離を検出可能なスケールユニット160が配置されている。スケールユニット160は、図8、図9等に示す通り、上ヘッド101の視野直下に配置されている。このようにスケールユニット160が視野直下に配置されていることで、深度測定範囲と測定対象物の位置関係を最小の誤差で検出可能となる。一般に、検出を行いたい座標点に対して、検出を行うセンサの位置すなわち測定軸が、測定対象物の測定位置からオフセットしている場合は、アッベの原理に基づいて計測誤差が発生し得る。図13Aで示すように測定したい位置と並列状に測定軸を配置する場合に、この状態が発生する。その一方でアッベの原理によれば、図13Bで示すように測定軸と測定対象物の測定位置とが同一平面の延長線上にあるときは、このような測定誤差を極減できる。
(深度拡張機能)
The XYZ stage is arranged in a direction in which the Z stage 142 substantially coincides with the light receiving optical axis. As a result, the height of the measurement object in the optical axis direction (or the relative positional relationship between the upper head 101 and the measurement object in the optical axis direction) can be changed only by moving the Z stage 142. A scale unit 160 capable of detecting the moving distance of the Z stage 142 is disposed inside the Z stage 142. The scale unit 160 is disposed immediately below the field of view of the upper head 101 as shown in FIGS. Since the scale unit 160 is arranged directly under the visual field in this way, the positional relationship between the depth measurement range and the measurement object can be detected with a minimum error. In general, when the position of the sensor to be detected, that is, the measurement axis is offset from the measurement position of the measurement object with respect to the coordinate point to be detected, a measurement error may occur based on Abbe's principle. This state occurs when the measurement axis is arranged in parallel with the position to be measured as shown in FIG. 13A. On the other hand, according to Abbe's principle, when the measurement axis and the measurement position of the measurement object are on the same plane extension as shown in FIG.
(Depth extension function)

深度測定範囲を高さ方向に拡張するため、光軸方向駆動部146でもってステージ140と受光部120との相対距離を光軸方向に移動させる。受光部120は、所定の焦点深度を有しており、焦点深度により定まる一定範囲の高さ(深度測定範囲)でしかパターン画像を撮像できない。そこで、光軸方向駆動部146でもって深度測定範囲をシフトさせることで、測定可能な深度測定範囲を拡張できる。すなわち、同じ視野(受光部120の光軸方向と直交するステージ平面内)で生成した高さ画像を、対応するXY座標の画素毎に高さ方向に連結することで、深度測定範囲の制約を超える高さの合成高さ画像を得ることが可能となる。   In order to extend the depth measurement range in the height direction, the optical axis direction driving unit 146 moves the relative distance between the stage 140 and the light receiving unit 120 in the optical axis direction. The light receiving unit 120 has a predetermined depth of focus, and can capture a pattern image only at a certain height (depth measurement range) determined by the depth of focus. Therefore, the measurable depth measurement range can be expanded by shifting the depth measurement range with the optical axis direction drive unit 146. That is, the height image generated in the same visual field (in the stage plane orthogonal to the optical axis direction of the light receiving unit 120) is connected in the height direction for each pixel of the corresponding XY coordinate, thereby limiting the depth measurement range. It is possible to obtain a composite height image that exceeds the height.

このような深度拡張機能に際しては、同じ視野すなわちXY平面の範囲内で生成された高さ画像同士を連結することが必要となる。また、同じ条件で生成した高さ画像同士を連結する必要がある。具体的には、図7に示すような左右の投光部110からパターン光を投光する場合は、両側から投光して生成した高さ画像の場合は、両側投光の高さ画像同士を連結して合成高さ画像を生成する。またいずれか一方の投光部110を用いる片側投光で生成された高さ画像の場合は、同じく片側投光の高さ画像同士を連結する。この際、右側投光なら右側投光の高さ画像同士を、左側投光なら左側投光の高さ画像同士を、それぞれ連結する。   In such a depth extension function, it is necessary to connect height images generated in the same field of view, that is, in the range of the XY plane. Moreover, it is necessary to connect height images generated under the same conditions. Specifically, when projecting pattern light from the left and right light projecting units 110 as shown in FIG. 7, in the case of a height image generated by projecting from both sides, the height images of both side projecting Are combined to generate a composite height image. Moreover, in the case of the height image produced | generated by the one side light projection which uses any one light projection part 110, the height image of one side light projection is connected similarly. At this time, the right-side projection height images are connected to each other in the case of right-side projection, and the left-side projection height images are connected to each other in the case of left-side projection.

図7等の例では、Zステージの移動を伴いながら複数の測定を実行し、その測定結果を、測定を実行した各Zステージ高さを元に結合していくことで深度測定範囲を拡張できる。このような、Zステージ高さを固定した1回の測定を「ワンショット測定」と呼び、複数のZステージ高さで測定した結果を結合した測定を「深度拡張測定」と呼ぶ。   In the example of FIG. 7 and the like, the depth measurement range can be expanded by executing a plurality of measurements while moving the Z stage and combining the measurement results based on the heights of the Z stages at which the measurements were performed. . Such a single measurement with the Z stage height fixed is called “one-shot measurement”, and a measurement obtained by combining the results of measurement at a plurality of Z stage heights is called “depth extension measurement”.

ここで、深度測定範囲の高さ方向拡張の概念を、図14A〜図14Cを用いて説明する。図14A〜図14Cは、高さA、高さB、高さCのそれぞれにおいて、左投光範囲と右投光範囲で規定される深度測定範囲を、破線の枠状で示している。   Here, the concept of extending the depth measurement range in the height direction will be described with reference to FIGS. 14A to 14C. 14A to 14C show the depth measurement ranges defined by the left projection range and the right projection range in the height A, the height B, and the height C, respectively, in a broken-line frame shape.

形状測定装置の有する深度測定範囲HIA(図14Aの点線枠で示す範囲)よりも高い構造を有する測定対象物WK2を測定する場合、Zステージ142を高さ方向に移動(高さA→B→C)することで、測定対象物WK2の各面を深度測定範囲に収めることが可能となる。(図14A〜図14Cの太線)   When measuring the measurement object WK2 having a structure higher than the depth measurement range HIA (the range indicated by the dotted frame in FIG. 14A) of the shape measuring apparatus, the Z stage 142 is moved in the height direction (height A → B → C), it becomes possible to fit each surface of the measurement object WK2 within the depth measurement range. (Thick lines in FIGS. 14A to 14C)

このときに観察される光学画像を、図15A〜図15Cに、また縞投影法で取得される縞画像を、図15D〜図15Fに、それぞれ示す。図15A〜図15Cにおいて、焦点の合った領域を模式的に斜線で示している。   The optical images observed at this time are shown in FIGS. 15A to 15C, and the fringe images obtained by the fringe projection method are shown in FIGS. 15D to 15F, respectively. In FIG. 15A to FIG. 15C, the focused area is schematically shown by hatching.

図15A、図15Dでは、高さAで測定対象物の最低面に焦点が合っており、測定対象物の最下部の形状を測定することができる。また図15B、図15Eに示すようにZステージ142を少し下げた高さBでは、高さAでは深度測定範囲外(縞画像上で縞のぼけが大きい箇所、赤点線領域)だった箇所に焦点が合い、この面を中心に一定の幅に収まっている領域の形状を測定可能となる。さらにZステージ142を下げた高さCでは、図15C、図15Fに示すように測定対象物の最高点に存在する形状(赤点線)に焦点があり、この面を中心に一定の幅に収まっている領域の形状を測定可能となる。   In FIGS. 15A and 15D, the lowest surface of the measurement object is focused at the height A, and the shape of the lowermost part of the measurement object can be measured. Also, as shown in FIGS. 15B and 15E, at the height B where the Z stage 142 is slightly lowered, the height A is outside the depth measurement range (a portion where the blurring of the fringe image is large, a red dotted line region). It is possible to measure the shape of a region that is in focus and within a certain width around this surface. Further, at the height C where the Z stage 142 is lowered, as shown in FIGS. 15C and 15F, the shape (red dotted line) existing at the highest point of the object to be measured has a focus, and the width is within a certain width centered on this surface. It becomes possible to measure the shape of the area.

この3つの高さにおいて、Zステージ142の高さは、スケールユニット160によって検出されており、ワンショット毎のステージ高さ座標を取得することが可能である。スケールユニット160は、ステージ140と受光部120の光軸方向との相対的な距離を示すスケール値を出力する。   At these three heights, the height of the Z stage 142 is detected by the scale unit 160, and the stage height coordinate for each shot can be acquired. The scale unit 160 outputs a scale value indicating a relative distance between the stage 140 and the optical axis direction of the light receiving unit 120.

ここで、3回の測定で得られたワンショット毎の測定結果を連結する手順を、図16A〜図16Dの模式図に基づいて説明する。図16A〜図16Dに示すように、ワンショット毎の測定で一定の高さ範囲(それぞれ図16Aは点線枠、図16Bは破線枠、図16Cは一点鎖線枠)の測定データが得られる。この際、ステージ140の相対的な移動量、もしくは絶対的なステージ高さを測定時に検出する。この検出された座標を測定データ原点の値としてオフセットさせることで、各ショットの相対関係が定義されることとなる。この結果を足し合わせることで、通常のワンショット深度測定範囲を拡張した連結測定データが得られる。   Here, the procedure for connecting the measurement results for each one shot obtained by three measurements will be described based on the schematic diagrams of FIGS. 16A to 16D. As shown in FIGS. 16A to 16D, measurement data in a certain height range (a dotted line frame in FIG. 16A, a broken line frame in FIG. 16B, and a one-dot chain line frame in FIG. 16C) is obtained by measurement for each one shot. At this time, the relative movement amount of the stage 140 or the absolute stage height is detected at the time of measurement. By offsetting the detected coordinates as the value of the measurement data origin, the relative relationship of each shot is defined. By adding these results, it is possible to obtain linked measurement data in which the normal one-shot depth measurement range is expanded.

このように、スケールユニット160で各高さ画像が取得された時のスケール値を記憶し、合成時には各高さ画像の画素値をスケール値に基づいてオフセットして合成する。具体的には、合成処理部216は、各高さ画像が生成された際のスケールユニット160のスケール値を記憶しておき、高さ画像を合成する際には、各高さ画像の画素値をスケール値に基づいてオフセットして合成する。   In this way, the scale value when each height image is acquired by the scale unit 160 is stored, and at the time of synthesis, the pixel value of each height image is offset and synthesized based on the scale value. Specifically, the composition processing unit 216 stores the scale value of the scale unit 160 when each height image is generated, and when composing the height image, the pixel value of each height image is stored. Are combined with an offset based on the scale value.

以上のようにして、縞投影によって一回の撮像で測定可能なワンショット測定を、繰り返し行って高さ方向を連結することで、深度方向に拡張した測定が可能となる。なお、ワンショット深度測定範囲の連結に際しては、必ずしも連続させる必要はなく、深度方向に離間させた離散的なワンショット測定であってもよい。例えば、ユーザが手動で深度拡張を行う場合は、測定に必要な領域のみの立体形状データを取得すれば足り、測定対象物の高さ方向のすべての情報を必要としない場合もある。
(マスク領域)
As described above, the one-shot measurement that can be measured by one imaging by the fringe projection is repeatedly performed, and the height direction is connected, so that the measurement expanded in the depth direction is possible. It should be noted that the connection of the one-shot depth measurement ranges is not necessarily continuous, and may be discrete one-shot measurements separated in the depth direction. For example, when the user manually extends the depth, it is sufficient to acquire the three-dimensional shape data only for the area necessary for the measurement, and there is a case where all the information in the height direction of the measurement object is not required.
(Mask area)

また深度方向に自動拡張する場合においても、深度拡張したい範囲をユーザが設定することもできる。例えば深度拡張処理部215に、光軸方向駆動部146を制御して受光部120の焦点位置を変更する範囲を設定するための深度範囲設定部253を備え、深度範囲設定部253でユーザが深度拡張に際して不要な範囲としてマスク領域を設定してもよい。このように深度拡張測定は、ワンショット測定の連続的な連結のみならず、離間させた連結も含む。   Further, even in the case of automatically extending in the depth direction, the user can set a range in which depth extension is desired. For example, the depth extension processing unit 215 includes a depth range setting unit 253 for controlling the optical axis direction driving unit 146 to set a range in which the focal position of the light receiving unit 120 is changed. A mask area may be set as an unnecessary range for expansion. Thus, the depth extension measurement includes not only the continuous connection of the one-shot measurement but also the separated connection.

上述した通り、測定対象物の測定と共に、Zステージ142の高さを検出することで、Zステージ移動量に対する実際の移動量の誤差を考慮しなくて済むようになる。ここで仮にZステージの高さ検出を行わない場合を考えると、この場合はZステージの移動パルス(移動指示量)に基づいて各ワンショットの原点指定をすることになるが、ステージ移動誤差がそのまま連結測定誤差になる。これに加えて、形状測定装置の構成によっては、図13Aで示したとおり、移動駆動軸と実際の測定対象物積載位置とのずれが原因で、アッベの原理に基づく誤差も発生し得る。これに対して、図13Bに示すように、Zステージの高さを検出すると共に、ステージ140の高さを検出する測定軸を光軸に近付けることで、誤差を低減して高精度な高さ検出が実現される。また、このことで高さ方向の合成に際しても、精度を向上させることが可能となる。   As described above, by detecting the height of the Z stage 142 together with the measurement of the measurement object, it is not necessary to consider the error of the actual movement amount with respect to the Z stage movement amount. Considering the case where the height of the Z stage is not detected here, in this case, the origin of each one shot is designated based on the Z stage movement pulse (movement instruction amount). It becomes a link measurement error as it is. In addition to this, depending on the configuration of the shape measuring apparatus, as shown in FIG. 13A, an error based on the Abbe principle may also occur due to a shift between the moving drive shaft and the actual measurement object loading position. On the other hand, as shown in FIG. 13B, the height of the Z stage is detected, and the measurement axis for detecting the height of the stage 140 is brought close to the optical axis, thereby reducing the error and increasing the height with high accuracy. Detection is realized. In addition, this makes it possible to improve the accuracy when combining in the height direction.

ステージ140を深度方向に拡張して測定するにあたっては、測定対象物や受光部120の位置を物理的又は光学的に移動させた移動量を正確に検出することが求められる。この移動量の正確な検出において、測定器の持つ撮影視野と直動移動の検出位置は、アッベの原理に基づくと、一致していることが望ましい。一方で、長いストロークのステージの移動を検出する場合、その検出機構も長尺となる傾向にある。そのため、ステージの直下にセンサを配置する場合、移動ストロークに合わせてより長いセンサユニットを配置することとなり、筐体全体の全長を大きくせざるを得ない事情がある。   When the stage 140 is expanded and measured in the depth direction, it is required to accurately detect the movement amount obtained by physically or optically moving the position of the measurement object or the light receiving unit 120. In the accurate detection of the movement amount, it is desirable that the photographing field of view of the measuring instrument and the detection position of the linear movement coincide with each other based on Abbe's principle. On the other hand, when detecting the movement of a stage with a long stroke, the detection mechanism tends to be long. For this reason, when the sensor is arranged directly under the stage, a longer sensor unit is arranged in accordance with the moving stroke, and there is a situation in which the entire length of the entire casing must be increased.

さらには、一般にセンサ移動部に比べ、直動機構そのものは長い構造を必要とする。なぜなら、移動するステージの剛性を高めるため、移動量に対してさらにベース筐体の幅が加算されるからである。またガイドのオーバーハングによる寸法増加も避けられない。結果的に、ステージ全体の高さが増していくこととなり、ステージの天面が設置底面よりも高くなり、ユーザの利便性を低下させる、振動による測定対象物の振幅が増加傾向にある、といったデメリットが増えていく。このような事情を鑑みて、本実施形態ではステージ140の高さを検出するスケールユニット160を視野直下に配して、ステージ駆動軸の配置自由度を高めている。   Furthermore, in general, the linear motion mechanism itself requires a longer structure than the sensor moving part. This is because the width of the base casing is added to the amount of movement in order to increase the rigidity of the moving stage. In addition, an increase in size due to an overhang of the guide is inevitable. As a result, the height of the entire stage will increase, the top of the stage will be higher than the bottom of the installation, reducing the convenience for the user, and the amplitude of the measurement object due to vibration tends to increase. Disadvantages increase. In view of such circumstances, in the present embodiment, a scale unit 160 that detects the height of the stage 140 is arranged directly under the field of view, thereby increasing the degree of freedom of arrangement of the stage drive shaft.

図16A〜図16Dに示す例では、測定対象物WK2として比較的単純な段差を有する場合を示した。測定対象物によっては、二段階のZステージ高さ(例えば図15Aの高さAと図15Bの高さB)で測定対象物の高さ方向全体を測定領域に収めることが可能となる。このような、各高さにおける複数のワンショットデータにおいて、共通する高さ情報の合成について説明する。
(共通高さ情報の合成ロジック)
In the example illustrated in FIGS. 16A to 16D, the measurement object WK <b> 2 has a relatively simple step. Depending on the measurement object, the entire height direction of the measurement object can be accommodated in the measurement region at two stages of Z stage height (for example, height A in FIG. 15A and height B in FIG. 15B). The synthesis of common height information in such a plurality of one-shot data at each height will be described.
(Common height information synthesis logic)

共通する高さ情報の合成方法は、重み付き平均を計算する方法、又は高さ情報の信頼性から片方のみ採用する方法がある。それぞれの高さ情報がほぼ同じ高さを示している場合は、より合焦面に近い位置で得られた高さ情報の方が、誤差が少ないと考えられる。このことから、合焦面からの距離に応じた重み付き平均により計算を行う。   As a method for synthesizing common height information, there are a method of calculating a weighted average, or a method of adopting only one from the viewpoint of reliability of height information. When the height information indicates almost the same height, it is considered that the height information obtained at a position closer to the in-focus plane has less error. Therefore, the calculation is performed by the weighted average according to the distance from the in-focus plane.

一方、それぞれの高さ情報が大きく異なる場合は、測定対象物内部での光の多重反射等の影響により、いずれかの高さ情報がノイズである可能性が高い。そのため、この場合は、画像のぼけ具合、もしくは照明の有無での輝度のコントラストなどから、いずれの高さを採用するか判定するための信頼度を求め、信頼度の高い方を採用する。
(信頼性の低いデータ)
On the other hand, when the height information differs greatly, there is a high possibility that any height information is noise due to the influence of multiple reflection of light inside the measurement object. Therefore, in this case, the reliability for determining which height to use is determined from the degree of blurring of the image or the contrast of the luminance with or without illumination, and the higher reliability is adopted.
(Unreliable data)

高さ画像に含まれるデータの内、信頼性の高い画素については、表示部400上に表示させたり、測定に使用する。一方で、信頼性の低いデータについては、誤差を含んでいることが懸念されるため、表示部400上に表示させず、また測定等にも使用しない。   Among the data included in the height image, pixels with high reliability are displayed on the display unit 400 or used for measurement. On the other hand, since there is a concern that data with low reliability includes an error, it is not displayed on the display unit 400 and is not used for measurement or the like.

一方で、信頼性の低いデータであっても、深度拡張に際して、立体形状データが存在しているか否かの判定には用いることができる。深度方向に拡張して高さ画像を取得するかどうかは、その高さ方向に測定対象物が継続して存在するかどうかが判定できれば足り、高い精度は要求されない。そこで本実施形態においては、通常の測定や高さ画像の構築には用いられない、信頼性の低いデータであっても、深度拡張の要否の判定にはこれを用いることが可能となる。   On the other hand, even low-reliability data can be used to determine whether or not three-dimensional shape data exists during depth extension. Whether or not the height image is acquired by extending in the depth direction is sufficient if it can be determined whether or not the measurement object is continuously present in the height direction, and high accuracy is not required. Therefore, in the present embodiment, even low-reliability data that is not used for normal measurement or height image construction can be used for determining whether or not depth extension is necessary.

一例として、ある測定対象物について、形状測定装置の仕様上の制約で一定高さまでの深度測定範囲で生成された高さ画像を図17A〜図17Bに示す。この図において図17Aは、深度測定範囲内において信頼性の低い画素については、非表示としている。このように、表示部400において高さ画像を表示させる際には、信頼性の高い画素は表示させ、信頼性の低い画素は表示させないことが一般的である。一方で、図17Aの高さ画像において、信頼性の低い画素も表示させた例を図17Bに示す。この図において、破線で囲んだ領域で示す円柱状の上端面の画素については、精度が悪いため測定対象物の寸法計測等に用いるデータとしては不適であるものの、この測定対象物は円柱の上端面よりも上方に連続して存在しているであろうことは推測できる。したがって深度拡張測定を実行する際は、上方にさらに深度測定範囲を設定することで、より広範な範囲での高さ画像を生成できる。同様に、他の形状の測定対象物の高さ画像を図18A〜図18Bに示す。この図において図18Aは、信頼性の低い画素を非表示とした高さ画像を、図18Bは信頼性の低い画素も含めて表示させた高さ画像を、それぞれ示している。同様に図18Bにおいて破線で囲む領域を用いることで、これよりもさらに上方に連続して測定対象物が存在していることが推測でき、深度拡張測定に際して深度を拡張する方向をこの立体形状データから判定することが可能となる。
(立体形状データの端部の画素)
As an example, FIGS. 17A to 17B show height images generated in a depth measurement range up to a certain height due to restrictions on the specifications of the shape measuring device for a certain measurement object. In FIG. 17A, pixels with low reliability within the depth measurement range are not displayed. As described above, when a height image is displayed on the display unit 400, it is general that pixels with high reliability are displayed and pixels with low reliability are not displayed. On the other hand, FIG. 17B shows an example in which pixels with low reliability are displayed in the height image of FIG. 17A. In this figure, the pixel on the upper end surface of the columnar shape indicated by the area surrounded by the broken line is inaccurate and is not suitable as data used for measuring the dimension of the measurement object. It can be inferred that it will exist continuously above the end face. Therefore, when performing the depth extension measurement, a depth image can be generated in a wider range by further setting the depth measurement range above. Similarly, height images of measurement objects having other shapes are shown in FIGS. 18A to 18B. In this figure, FIG. 18A shows a height image in which pixels with low reliability are not displayed, and FIG. 18B shows a height image that is displayed including pixels with low reliability. Similarly, by using the area surrounded by the broken line in FIG. 18B, it can be estimated that there is a measurement object continuously further upward than this, and the direction in which the depth is expanded in the depth extension measurement is indicated by this solid shape data. It becomes possible to judge from.
(Pixel at the end of 3D shape data)

このように、高さ画像の端部に位置する立体形状データでもって、深度拡張測定を行うか否かを判定することができる。なお、本発明は深度拡張測定に際して、立体形状データの端部の画素に基づいて判定を行う方法に限らず、深度測定範囲の中間のデータに基づいて判定してもよい。例えば端部から所定距離離れた位置の画素が立体形状データを有するか否かに基づいて判定したり、あるいは深度測定範囲のいずれかの画素が立体形状データを有しておれば、深度拡張測定を実行するように構成することもできる。例えば、最終的な立体形状データが得られていない画素の中で、パターンが投影されていることが判定できる程度の輝度値が得られている画素がいずれかに存在する場合に、未測定画素が存在すると判定処理部で判定して、深度拡張測定を実行するように構成してもよい。この場合、ノイズや誤検出を避けるため、立体形状データを有する画素の数や領域、体積が一定以上である場合とするなど、しきい値を設定することが好ましい。
(表示モード切替部)
In this way, it is possible to determine whether or not to perform depth extension measurement using the solid shape data located at the end of the height image. Note that the present invention is not limited to the method of performing the depth extension measurement based on the pixels at the end of the three-dimensional shape data, and may perform the determination based on data in the middle of the depth measurement range. For example, it is determined based on whether or not a pixel at a predetermined distance from the edge has solid shape data, or if any pixel in the depth measurement range has solid shape data, depth extension measurement is performed. Can also be configured to execute. For example, an unmeasured pixel when there is a pixel whose luminance value is such that it can be determined that a pattern is projected among pixels for which final three-dimensional shape data has not been obtained It may be determined that the determination processing unit determines that there is a depth extension measurement. In this case, in order to avoid noise and erroneous detection, it is preferable to set a threshold value, such as a case where the number, area, and volume of the pixels having the three-dimensional shape data are equal to or greater than a certain level.
(Display mode switching part)

このように本実施形態に係る形状測定プログラムにおいては、信頼性の低い画素についても、表示部400上に表示させることが可能となる。例えば表示モード切替部でもって、信頼性の低い画素データを非表示とする通常表示モードと、信頼性の低い画素データについても表示させる可視化モードを切り替え可能とすることができる。上述した図17、図18の例では、図17A、図18Aは通常表示モード、図17B、図18Bは可視化モードを、それぞれ示している。
(立体形状データに基づく深度拡張測定の要否判定)
As described above, in the shape measurement program according to the present embodiment, it is possible to display pixels with low reliability on the display unit 400. For example, the display mode switching unit can switch between a normal display mode in which pixel data with low reliability is not displayed and a visualization mode in which pixel data with low reliability is also displayed. In the example of FIGS. 17 and 18 described above, FIGS. 17A and 18A show the normal display mode, and FIGS. 17B and 18B show the visualization mode, respectively.
(Necessity determination of depth extension measurement based on 3D shape data)

以上の例では、高さ画像を構成する画素データ、すなわち高さ情報を演算したデータに基づいて、深度拡張測定の要否を判定する例を説明した。ただ本発明は、深度拡張測定の要否判定を、高さ画像に限定せず、高さ情報を演算する前の元データや生データに基づいて、これらの要否判定を行うように構成してもよい。このような例を図19や図20に基づいて説明する。図19は、測定対象物に縞パターンを投影した縞画像の例を示している。この図において、破線で囲んだ領域は、深度測定範囲外にあるため、縞パターンのコントラストが低い。ただ、このような深度測定範囲外であっても、縞パターンが投影されているため、他の縞パターンと比べて精度は落ちるものの、深度拡張測定の要否判定には利用可能である。すなわち図19の例では、測定対象物が深度測定範囲よりも高い位置に形状を有している(ここでは円筒状に突出している)ことが把握できるので、この方向に深度拡張測定を行うことが有効であることが、当該深度測定範囲の外側の縞パターンによって判定できる。   In the above example, the example in which the necessity of the depth extension measurement is determined based on the pixel data constituting the height image, that is, the data obtained by calculating the height information has been described. However, the present invention is configured not to limit the necessity of depth extension measurement to a height image, but to perform the necessity determination based on original data or raw data before calculating height information. May be. Such an example will be described with reference to FIGS. FIG. 19 shows an example of a fringe image obtained by projecting a fringe pattern onto the measurement object. In this figure, since the area surrounded by the broken line is outside the depth measurement range, the contrast of the stripe pattern is low. However, since the fringe pattern is projected even outside the depth measurement range, the accuracy is lower than that of other fringe patterns, but it can be used to determine whether or not the depth extension measurement is necessary. That is, in the example of FIG. 19, since it can be grasped that the measurement object has a shape at a position higher than the depth measurement range (here, it protrudes in a cylindrical shape), the depth extension measurement is performed in this direction. Can be determined by the fringe pattern outside the depth measurement range.

さらに、深度拡張測定を行うに際して、上方向に拡張するか、下方向拡張するかの判定も、このような立体形状データに基づいて行うことができる。例えば図20に示す測定対象物の例では、図において上側と下側に、深度測定範囲外の部分が存在している。この内、太線の破線で囲んだ上側の領域の方が、細線の破線で囲んだ下側の領域よりも輝度が高い。一般には、深度測定範囲外のデータについて、カメラや照明に近い側が明るく、遠い側がくらい傾向にある。よって、投影パターンの明るさやコントラストに基づいて、深度測定範囲外のデータが、該高さ範囲の高い方の外側に存在しているのか、低い側の外側に存在しているのかを判別できる。よって、いずれの方向に深度拡張測定を行えば、この部分の高さ画像を取得できるのかを推定することが可能となる。
(移動ピッチ)
Furthermore, when performing the depth extension measurement, it is possible to determine whether to extend upward or downward based on such solid shape data. For example, in the example of the measurement object shown in FIG. 20, there are portions outside the depth measurement range on the upper side and the lower side in the figure. Of these, the upper region surrounded by the thick broken line has higher luminance than the lower region surrounded by the thin broken line. In general, for data outside the depth measurement range, the side closer to the camera or the illumination is brighter and the side farther away is more prone. Therefore, based on the brightness and contrast of the projection pattern, it is possible to determine whether data outside the depth measurement range exists outside the higher side of the height range or outside the lower side. Therefore, it is possible to estimate in which direction the depth extension measurement is performed to obtain the height image of this portion.
(Moving pitch)

高さ画像を連続するように連結する場合において、Zステージ142を移動させる位置は、高さ画像の連結時に高さ方向の隙間が生じないように、各Zステージ位置の差が、深度測定範囲の高さ以下になるようにする必要がある。合成時に高さが滑らかにつながるようにするため、図16Dに示すように、深度測定範囲が一部オーバーラップするよう、深度測定範囲の高さより若干短い方が望ましい。ただし、オーバーラップ領域が大きすぎると、連結に必要な合計枚数が大きくなり、測定時間とのトレードオフが生じる。このため、深度測定範囲の1%〜33%程度をオーバーラップさせることが好ましく、また5%〜25%がより好ましく、10%〜20%がさらに好ましい。
(テクスチャ画像の移動ピッチ)
In the case of connecting the height images so as to be continuous, the position where the Z stage 142 is moved is different from each other in the depth measurement range so that a gap in the height direction does not occur when the height images are connected. It is necessary to make it below the height of. In order to smoothly connect the heights at the time of synthesis, as shown in FIG. 16D, it is desirable that the depth measurement ranges are slightly shorter than the depth measurement ranges so that the depth measurement ranges partially overlap. However, if the overlap area is too large, the total number of sheets required for connection increases, and a trade-off with measurement time occurs. For this reason, it is preferable to overlap about 1% to 33% of the depth measurement range, more preferably 5% to 25%, and still more preferably 10% to 20%.
(Movement pitch of texture image)

合成画像の生成に際して、高さ画像を複数枚撮像するためにZステージを深度方向に移動させる移動ピッチと、テクスチャ画像を撮像する移動ピッチとは、一致させてもよいが、必ずしも一致させる必要はなく、これらを独立して設定することもできる。特に高さ画像については、縞画像等のパターン画像の焦点が必ずしも合っていなくても、コントラスト差などが確認できれば高さ情報の計測は可能となる。一方でテクスチャ画像については、焦点が合っていないと見栄えの影響が大きい。このため、テクスチャ画像の移動ピッチを、高さ画像の移動ピッチよりも細かくすることが、いいかえるとテクスチャ画像の枚数を多くすることが好ましい。細かな移動ピッチで撮影された複数のテクスチャ画像を深度合成することにより、ほぼ全体でピントの合った鮮明な深度合成画像が得られる。この深度合成画像を、高さ画像を合成して得られた合成高さ画像にマッピングすることにより、鮮明なテクスチャ情報と、深度が深い高さ情報を有する立体形状データを取得することができる。   When generating a composite image, the movement pitch for moving the Z stage in the depth direction in order to capture a plurality of height images and the movement pitch for capturing a texture image may be the same, but it is not always necessary to match them. They can also be set independently. In particular, for a height image, height information can be measured if a contrast difference or the like can be confirmed even if a pattern image such as a fringe image is not always in focus. On the other hand, the texture image has a great influence on the appearance unless it is in focus. For this reason, it is preferable to make the movement pitch of the texture image finer than the movement pitch of the height image, in other words, to increase the number of texture images. By synthesizing a plurality of texture images photographed at a fine movement pitch, a clear depth synthesized image that is almost in focus can be obtained. By mapping this depth synthesized image to a synthesized height image obtained by synthesizing the height image, it is possible to obtain solid shape data having clear texture information and deep depth information.

一方、高さ画像を複数枚撮像するために、ステージを深度方向に移動させる都度、テクスチャ画像も一緒に撮像し、撮像したテクスチャ画像を深度合成し、深度合成したテクスチャ画像を、高さ画像を合成して得られた合成高さ画像にマッピングするようにしてもよい。この場合、深度合成画像の鮮明度は落ちるものの、高さ画像を撮像するためのステージ移動以外に、深度合成画像を得るためのステージ移動が不要となるので、処理に時間がかからないメリットがある。   On the other hand, each time the stage is moved in the depth direction in order to capture multiple height images, the texture images are also captured together, the captured texture images are combined in depth, and the combined texture images are converted into height images. You may make it map on the synthetic | combination height image obtained by the synthesis | combination. In this case, although the sharpness of the depth composite image is lowered, there is an advantage that the processing does not take time because the stage movement for obtaining the depth composite image is not required other than the stage movement for capturing the height image.

ここで、連結時の画像の粗さ (相対値)と移動ピッチの関係を図21のグラフに示す。図21において、横軸は深度測定範囲高さに対する移動ピッチを、縦軸は平面を斜めに連結したときの面粗さを、それぞれ示している。この図に示すように、移動ピッチを大きくしていくにつれて、粗さが大きくなることが判る。   Here, the relationship between the roughness (relative value) of the image at the time of connection and the movement pitch is shown in the graph of FIG. In FIG. 21, the horizontal axis indicates the movement pitch with respect to the depth measurement range height, and the vertical axis indicates the surface roughness when the planes are connected obliquely. As shown in this figure, it can be seen that the roughness increases as the moving pitch is increased.

なお以上の例においては、Zステージを移動させる移動ピッチを一定量としたが、本発明はこの構成に限らず、例えばユーザが指定する任意の移動量とすることもできる。
(高さ画像の連結領域)
In the above example, the movement pitch for moving the Z stage is a fixed amount, but the present invention is not limited to this configuration, and may be an arbitrary movement amount specified by the user, for example.
(Connection area of height image)

このように複数の高さ画像を連結する際、高さ画像同士で高さ方向に重複している領域の扱いが問題となる。すなわち、連結対象の2つの高さ画像で、重複する部分の高さ情報として、合成高さ画像ではいずれを用いるべきかを決める必要がある。このため合成処理部216は、重複する部分の扱いを予め定めている。例えば図16Aで得られた高さ画像HIAを、図16Bで得られた高さ画像HIBと連結する場合、図16Dの合成高さ画像CHIにおいて、高さ画像HIAの上方と高さ画像HIBの下方とが重複領域OL1において重複している。同様に高さ画像HIBを画像HICと連結する場合、高さ画像HIBの上方と高さ画像HICの下方とが重複領域OL1において重複している。このような場合に合成処理部216は、信頼性指標に基づいて重複領域を処理する。
(信頼性指標)
In this way, when connecting a plurality of height images, there is a problem in handling of regions overlapping in the height direction between the height images. In other words, it is necessary to determine which should be used in the combined height image as the height information of the overlapping portions in the two height images to be connected. For this reason, the composition processing unit 216 predetermines how to handle overlapping portions. For example, when the height image HIA obtained in FIG. 16A is connected to the height image HIB obtained in FIG. 16B, in the composite height image CHI in FIG. 16D, the height image HIA and the height image HIB The lower portion overlaps in the overlap region OL1. Similarly, when the height image HIB is connected to the image HIC, the upper portion of the height image HIB and the lower portion of the height image HIC overlap in the overlap region OL1. In such a case, the composition processing unit 216 processes the overlapping region based on the reliability index.
(Reliability index)

ここで信頼性指標とは、深度測定範囲が重複する重複領域において、各高さ画像が対応するステージ平面内の画素の有する高さ情報が、真値すなわち真の高さにどれだけ近いかを示す指標である。高さ情報を高さ画像を構成する画素の画素値とする場合は、画素値の信頼性を示す指標といえる。   Here, the reliability index indicates how close the height information of the pixels in the stage plane corresponding to each height image is to the true value, that is, the true height in the overlapping region where the depth measurement ranges overlap. It is an indicator to show. When the height information is used as the pixel value of the pixels constituting the height image, it can be said that the index indicates the reliability of the pixel value.

このように、複数の高さ画像を深度方向に連結するに際して、単純な加算平均などを用いずに信頼性指標を用いることで、重複する領域における高さ情報の信頼性を高めた合成高さ画像を得ることができる。   In this way, when connecting multiple height images in the depth direction, a composite height that improves the reliability of height information in overlapping areas by using a reliability index without using a simple addition average etc. An image can be obtained.

具体的な信頼性指標としては、受光部120の焦点位置からの距離が近い方を採用する。高さ画像をパターン投影法で作成する場合は、焦点位置でなくともパターン画像(例えば縞画像)が得られ、高さ情報の演算が可能であるものの、焦点位置に近い程パターン画像が鮮明となって、高さ情報の精度が高い傾向にある。そこで、焦点距離を信頼性指標として用い、その高さ画像を生成した際の焦点位置と、注目画素との距離が近いほど、得られた高さ情報の信頼性も高いと判断できる。   As a specific reliability index, the one having a shorter distance from the focal position of the light receiving unit 120 is employed. When creating a height image by the pattern projection method, a pattern image (for example, a fringe image) can be obtained even if it is not the focal position, and although the height information can be calculated, the pattern image becomes clearer as it is closer to the focal position. Therefore, the accuracy of the height information tends to be high. Therefore, using the focal length as a reliability index, it can be determined that the reliability of the obtained height information is higher as the distance between the focal position when the height image is generated and the target pixel is closer.

あるいは、信頼性指標として周囲画素とのコントラストを用いてもよい。具体的には、ある高さ画像の画素の信頼性指標として、この高さ画像を生成する元となったパターン画像における対応する画素と、この画素の周囲に位置する画素とのコントラストとする。周囲の画素とのコントラストが高い程、境界が鮮明なパターン光となって高さ情報を精度よく演算できる。あるいはまた、元のパターン画像の輝度値等を信頼性指標として用いてもよい。   Alternatively, contrast with surrounding pixels may be used as a reliability index. Specifically, as a reliability index of a pixel of a certain height image, a contrast between a corresponding pixel in the pattern image from which this height image is generated and a pixel located around this pixel is used. The higher the contrast with surrounding pixels, the clearer the boundary, the higher the height information can be calculated. Alternatively, the luminance value or the like of the original pattern image may be used as a reliability index.

このようにして得られた信頼性指標に基づいて、信頼性指標が高い方の画素を、合成高さ画像の画素として採用することができる。   Based on the reliability index obtained in this way, the pixel with the higher reliability index can be adopted as the pixel of the composite height image.

なお、そもそも高さ情報が得られていない画素の場合は、無効として、高さ情報の得られている方の画素を用いる。両方の画素で高さ情報が得られていない場合は、合成高さ画像においても高さ情報は無効(null)となる。例えば深度測定範囲が重複する領域において、高さ画像の対応するXY座標の画素値について、一方の高さ画像の画素が有効で、他方の高さ画像の画素が無効な場合は、有効な画素の画素値を用いる。これにより、複数の高さ画像を深度方向に連結するに際して、重複する領域における高さ情報について、欠損した画素を補間した合成高さ画像を得ることができる。   In the case of a pixel for which height information is not obtained, the pixel for which height information is obtained is used as invalid. When the height information is not obtained for both pixels, the height information is null even in the composite height image. For example, in the region where the depth measurement ranges overlap, if the pixel value of one height image is valid and the pixel of the other height image is invalid for the corresponding XY coordinate pixel value of the height image, the valid pixel Are used. Thereby, when connecting a plurality of height images in the depth direction, it is possible to obtain a composite height image obtained by interpolating missing pixels with respect to height information in overlapping regions.

一方、信頼性指標の高い方を採用して低い方を破棄するのみならず、重み付けを行うこともできる。例えば信頼性指標の高い方の画素値の比重を高く、低い方の画素値の比重を低くするように重み付けを行うことで、より正確な高さ情報を得ることが期待できる。   On the other hand, not only can the higher reliability index be adopted and the lower one discarded, but weighting can also be performed. For example, it is expected that more accurate height information can be obtained by performing weighting so that the specific gravity of the pixel value having a higher reliability index is high and the specific gravity of the lower pixel value is low.

あるいは、信頼性指標を用いた重み付け加算平均に基づいて、合成高さ画像の高さ情報を演算してもよい。
(差分)
Alternatively, the height information of the composite height image may be calculated based on the weighted average using the reliability index.
(Difference)

また、部分的に重なり合う2枚の高さ画像から、所定以上の差分がある画素を抽出することもできる。具体的には、深度測定範囲が重複する領域において、合成処理部216が差分として画素を抽出し、この内で信頼性指標が高い画素値を採用するよう構成できる。この場合、合成処理部216に、高さ画像同士で所定以上の差分がある画素を抽出する差分画素抽出手段を設けてもよい。   It is also possible to extract pixels having a difference greater than or equal to a predetermined value from two height images that partially overlap. Specifically, in a region where the depth measurement ranges overlap, the composition processing unit 216 can extract pixels as differences, and among them, a pixel value having a high reliability index can be adopted. In this case, the synthesis processing unit 216 may be provided with a difference pixel extraction unit that extracts pixels having a difference of a predetermined value or more between height images.

さらに、深度測定範囲が部分的に重複する高さ画像の合成に際して、高さ情報を選択あるいは演算する条件を、データの差分量に応じて変更することもできる。例えば、データの差分が所定以上の時は信頼性指標の高い方の画素を採用し、所定値以下の場合には、信頼性指標を用いた重み付け加算平均に基づいて、合成高さ画像の高さ情報を演算してもよい。
(連結測定の範囲の設定)
Further, when a height image in which the depth measurement ranges partially overlap, the condition for selecting or calculating the height information can be changed according to the difference amount of the data. For example, when the data difference is greater than or equal to a predetermined value, the pixel with the higher reliability index is used, and when the difference is less than or equal to the predetermined value, the height of the composite height image is calculated based on the weighted average using the reliability index. The information may be calculated.
(Set the range of consolidated measurement)

上述した連結測定を実施する場合、深度測定範囲を決定する方法が幾つか考えられる。例えば、(1)Zステージの上限、下限座標をユーザに入力させ、一定の移動ピッチで上下限を含む範囲を測定、連結させる方法;(2)現在のZステージ高さから上下方向に何段階取得するかをユーザに決定させ、一定の移動ピッチで複数段階の測定を実施、連結する方法等が考えられる。   When performing the above-mentioned connection measurement, several methods for determining the depth measurement range are conceivable. For example, (1) A method in which the upper and lower limit coordinates of the Z stage are input by the user, and a range including the upper and lower limits is measured and connected at a constant movement pitch; (2) How many steps in the vertical direction from the current Z stage height There may be a method of allowing the user to determine whether to acquire and performing and linking a plurality of steps at a constant movement pitch.

しかしながら、このような深度測定範囲決定方法では、いずれも測定の前処理として、深度測定範囲を決定する手順が必要となる。この手順は、手間がかかるのみならず、複数の視野において異なる高さ範囲を指定する場合には、その都度設定が必要となって、非常に操作が煩雑となる問題があった。そこで本実施形態においては、連結測定の範囲を自動で決定可能としている。
(深度測定範囲の設定)
However, in any of these depth measurement range determination methods, a procedure for determining the depth measurement range is required as preprocessing for measurement. This procedure is not only labor-intensive, but also requires a setting each time a different height range is specified in a plurality of fields of view, resulting in a very complicated operation. Therefore, in the present embodiment, the range of connection measurement can be automatically determined.
(Depth measurement range setting)

連結深度測定範囲を自動で決定するために、本実施形態1では深度探索範囲を定義する。まず図22で示す形状測定装置においては、受光光学系の左右対称な角度から、平行光束として投光光線が測定対象物WKに向かって照射される。ここで、形状測定装置が精度を保証して計測可能な範囲が、深度測定範囲である。深度測定範囲においては、左右からの投光による測定結果を平均又は合成した計測を実施することで、測定の安定化、高精度化が期待できるため、左右からの投光光束の「共通領域」として定義される。   In order to automatically determine the connected depth measurement range, the first embodiment defines a depth search range. First, in the shape measuring apparatus shown in FIG. 22, the projection light beam is irradiated toward the measuring object WK as a parallel light beam from a symmetrical angle of the light receiving optical system. Here, the range in which the shape measuring device can measure with a guaranteed accuracy is the depth measurement range. In the depth measurement range, the measurement results obtained by averaging or synthesizing the measurement results from the left and right light projections can be expected to stabilize the measurement and increase the accuracy. Is defined as

一方で、左右それぞれから独立して照射される光束のそれぞれにおいては、高精度に設定した深度測定範囲よりも広い高さ範囲で投光光束が照射されている。そこで、撮影視野に収まり、かつこれら左右それぞれの投光光束の和集合領域を深度探索範囲として定義する。これにより、測定には用いることができなくても、測定対象物上の深度測定範囲外の形状における、概略の高さ情報を取得することが可能となる。
(三角測距方式の組み合わせ)
On the other hand, in each of the light beams irradiated independently from the left and right, the projected light beam is irradiated in a height range wider than the depth measurement range set with high accuracy. Therefore, the union area of the left and right projected light beams that fall within the field of view is defined as the depth search range. Thereby, even if it cannot be used for measurement, it is possible to obtain approximate height information in a shape outside the depth measurement range on the measurement object.
(Combination of triangulation method)

本実施形態に係る形状測定装置においては、より高精度な測定を実施するために、空間コード法とマルチスリット法、又は空間コード法と正弦波位相シフト法を組み合わせて測定を行っている。しかしながら、深度測定範囲を超えた領域では、光学系の持つ被写界深度の関係で、投影した縞パターンがぼけてしまい、十分な解像度・精度の高さ測定が不可能となる。一方で、空間コード法の比較的低分解能な測定を担う縞パターンは、図19に示したように、縞そのものの太さが光学系の被写界深度に対して十分太いため、深度測定範囲を超えた領域であっても、大まかな縞形状を保持していることが多い。図19において円筒状の天面に照射された縞パターンは、深度探索範囲上に位置するため縞がぼけているものの、大まかな縞形状は維持されている。この特性を利用すれば、深度探索範囲内かつ深度測定範囲外の、おおまかな高さ情報を得ることが可能となる。   In the shape measuring apparatus according to the present embodiment, measurement is performed by combining the space code method and the multi-slit method, or the space code method and the sine wave phase shift method in order to perform measurement with higher accuracy. However, in the region beyond the depth measurement range, the projected fringe pattern is blurred due to the depth of field of the optical system, making it impossible to measure the height with sufficient resolution and accuracy. On the other hand, as shown in FIG. 19, the fringe pattern responsible for the relatively low resolution measurement of the spatial coding method has a depth measurement range because the thickness of the fringe itself is sufficiently thick with respect to the depth of field of the optical system. In many cases, a rough striped shape is maintained even in a region beyond the range. In FIG. 19, the fringe pattern irradiated on the cylindrical top surface is located on the depth search range, so that the fringes are blurred, but the rough fringe shape is maintained. By utilizing this characteristic, it is possible to obtain rough height information within the depth search range and outside the depth measurement range.

なお、本実施例では、空間コード法とマルチスリット法、又は空間コード法と正弦波位相シフト法を組み合わせて測定を行ったが、空間コード法を用いなくても周期が異なる2以上のパターンをそれぞれ位相シフトして投影することにより、空間コード法との組み合わせ測定と同様の効果を得ることもできる。例えば、周期が粗い第一パターンを投影し、位相シフトすることにより測定対象物WKの低分解能な測定を行い、次いで周期が短い第二パターンを投影し、位相シフトすることにより測定対象物WKの高分解能な測定を行い、これらを組み合わせることで絶対値を有する精度の高い測定が可能である。この場合は低分解能な測定の結果を、上記空間コード法の測定結果と同様に取扱うことができる。
(深度拡張モード選択部254)
In this example, the spatial code method and the multi-slit method, or the spatial code method and the sine wave phase shift method were combined, but two or more patterns having different periods were used without using the spatial code method. By projecting each phase shifted, it is possible to obtain the same effect as the combination measurement with the spatial code method. For example, a first pattern with a coarse period is projected and phase-shifted to measure the measurement target WK with a low resolution, and then a second pattern with a short period is projected and phase-shifted to measure the measurement target WK. By performing high-resolution measurement and combining these, it is possible to perform highly accurate measurement having an absolute value. In this case, the low-resolution measurement result can be handled in the same manner as the measurement result of the spatial code method.
(Depth extension mode selection unit 254)

上述の通り本実施形態に係る形状測定装置においては、Zステージ高さを固定した1回の測定を行うワンショット測定機能と、複数のZステージ高さで測定した結果を結合する深度拡張測定機能を備えている。ここで、深度拡張測定機能として、自動で深度拡張を行う自動深度拡張機能と、手動で深度拡張を行う手動深度拡張測定機能のいずれかを行うことができる。あるいは、これらを切り替え可能とすることもできる。深度拡張測定機能の自動と手動を切り替えるには、深度拡張モード選択部254でもって行わせる。
(実施例1:累積画像に基づく自動深度拡張)
As described above, in the shape measuring apparatus according to the present embodiment, the one-shot measurement function that performs a single measurement with the Z stage height fixed, and the depth extension measurement function that combines the results measured at a plurality of Z stage heights. It has. Here, as the depth extension measurement function, either an automatic depth extension function that automatically performs depth extension or a manual depth extension measurement function that performs depth extension manually can be performed. Alternatively, these can be switched. In order to switch between automatic and manual of the depth extension measurement function, the depth extension mode selection unit 254 is used.
(Example 1: Automatic depth extension based on cumulative image)

ここで、実施例1に係る自動深度拡張について説明する。深度探索範囲内かつ深度測定範囲外のおおまかな高さ情報から、それらの高さを深度測定範囲内で測定するZステージ位置を求め、その位置に移動して測定を行うことで、自動的に連結測定の範囲を拡張できる。ここでは図23に示すように、視野を構成する画素の内で、立体形状データを取得した画素(測定画素)を累積していく。図23の例では、深度測定範囲HT1で撮像した画像IG1では、矩形状の周囲の領域では高さが取得できているものの、中央の楕円の領域では高さが取得できておらず、高さ情報が欠損した画素を持つ画像となっている。そして、深度測定範囲をHT1からHT2に変更して画像IG2を撮像すると、画像IG1では高さ未測定であった画素の一部で高さが得られている。同様にして深度測定範囲HT3で画像IG3を、深度測定範囲HT4で画像IG4を、それぞれ撮像すると、それぞれ欠損してた画素で高さが取得されている。このようにして、深度測定範囲毎に高さが得られた画素を、図24A〜図24Dに示すように累積していく。例えば図24Aでは、画像IG1を、また図24Bではこの画像IG1に、画像IG2で高さ情報の得られた画素を蓄積した蓄積画像を示している。これによって図24の画像IG1と比べ、高さ情報の欠損している未測定画素が低減していることが判る。さらに図24Cでは、画像IG3で高さ情報の得られた画素を蓄積した蓄積画像を示しており、図24Bよりも未測定画素の領域がさらに低減している。そして図24Dでは、画像IG4で得られた画素を累積して、すべての領域の画素で高さ情報が得られている。このように、取得済み画素を累積した累積画像に基づいて未測定の画素(未測定画素)の有無を判定し、未測定画素が存在する場合は自動で立体形状データの取得を継続していく。そして、視野を構成する画素が測定画素で順次満たされていき、未測定画素がなくなった時点で処理を終了する。
(立体形状データ)
Here, automatic depth extension according to the first embodiment will be described. From the approximate height information within the depth search range and outside the depth measurement range, find the Z stage position for measuring those heights within the depth measurement range, and move to that position to perform the measurement automatically. Extend the range of consolidated measurements. Here, as shown in FIG. 23, the pixels (measurement pixels) from which the three-dimensional shape data is acquired are accumulated among the pixels constituting the visual field. In the example of FIG. 23, in the image IG1 imaged in the depth measurement range HT1, the height can be acquired in the rectangular peripheral area, but the height cannot be acquired in the central elliptical area, and the height is high. The image has pixels with missing information. Then, when the depth measurement range is changed from HT1 to HT2 and the image IG2 is captured, the height is obtained in a part of the pixels whose height has not been measured in the image IG1. Similarly, when an image IG3 is imaged in the depth measurement range HT3 and an image IG4 is imaged in the depth measurement range HT4, the height is acquired with the missing pixels. In this way, the pixels whose height is obtained for each depth measurement range are accumulated as shown in FIGS. 24A to 24D. For example, FIG. 24A shows an image IG1, and FIG. 24B shows an accumulated image obtained by accumulating pixels in which the height information is obtained in the image IG2. Accordingly, it can be seen that the unmeasured pixels lacking the height information are reduced as compared with the image IG1 in FIG. Further, FIG. 24C shows an accumulated image obtained by accumulating pixels whose height information is obtained in the image IG3, and the area of unmeasured pixels is further reduced as compared with FIG. 24B. In FIG. 24D, the pixels obtained in the image IG4 are accumulated, and the height information is obtained from the pixels in all regions. In this way, the presence or absence of an unmeasured pixel (unmeasured pixel) is determined based on the accumulated image obtained by accumulating the acquired pixels, and if there is an unmeasured pixel, the acquisition of the three-dimensional shape data is continued automatically. . Then, the pixels constituting the visual field are sequentially filled with the measurement pixels, and the process is terminated when there are no unmeasured pixels.
(3D shape data)

ここで立体形状データとは、測定対象物の形状をパターン投影法で測定するためのデータであり、必ずしも高さ情報を含むことを要しない。すなわち、高さ情報を未測定のデータであっても、高さ情報を演算可能なデータを含む場合は立体形状データと呼ぶ。
(自動深度拡張の手順)
Here, the three-dimensional shape data is data for measuring the shape of the measurement object by the pattern projection method, and does not necessarily include height information. That is, even if the height information is unmeasured data, the data including the data that can calculate the height information is called solid shape data.
(Automatic depth extension procedure)

このような自動連結の手順を、図25に示す。まずステップS2501において、測定を行う。次にステップS2502において、深度探索範囲内に対応する高さを有する領域があるか否かを判定し、ある場合はステップS2503に進み、Zステージ142を、深度探索範囲内に対応する高さを有する領域が測定可能なZステージ位置に移動させる。この際、既に測定したZステージ位置は除く。また、候補となるZステージ位置が複数ある場合は、最も近い位置に移動させる。そしてステップS2501に戻って、測定などの処理を繰り返す。一方、ステップS2502において、深度探索範囲内領域がないと判定された場合は、ステップS2504に進み、測定を終了する。   Such an automatic connection procedure is shown in FIG. First, in step S2501, measurement is performed. In step S2502, it is determined whether or not there is a region having a corresponding height in the depth search range. If there is a region, the process proceeds to step S2503, and the Z stage 142 is set to a height corresponding to the depth search range. The Z-stage position is moved to the measurable area. At this time, the already measured Z stage position is excluded. If there are a plurality of candidate Z stage positions, they are moved to the closest position. Then, the process returns to step S2501, and processing such as measurement is repeated. On the other hand, if it is determined in step S2502 that there is no region within the depth search range, the process proceeds to step S2504, and the measurement ends.

このように、Zステージ142の各位置での測定で、深度探索範囲内で深度測定範囲外の高さ情報を記憶しておく。これにより、移動すべきZステージ位置が上下両側に存在していても、上下両方向に拡張していくことが可能になる。また、一度測定したZステージ位置には移動しないようにすることで、測定が無限ループとなる事態を回避できる。   As described above, the height information outside the depth measurement range is stored in the depth search range in the measurement at each position of the Z stage 142. As a result, even if the Z stage position to be moved exists on both the upper and lower sides, the Z stage can be expanded in both the upper and lower directions. Moreover, the situation where the measurement becomes an infinite loop can be avoided by not moving to the Z stage position once measured.

このような手順により、測定対象物のすべての高さを網羅した連結測定が可能になる。また、Zステージ142の移動が必要なくなった時点で測定が終了するため、連結測定の合計時間は、常に最小となる。   By such a procedure, it is possible to perform a linked measurement that covers all the heights of the measurement object. In addition, since the measurement ends when the movement of the Z stage 142 is no longer necessary, the total time of the linked measurement is always minimized.

また、自動深度拡張に際して、Zステージ142の上限の高さを設定することもできる。Zステージ142の上限高さは、自動深度拡張時のZステージ位置の最高値として形状測定装置側で規定値とする他、ステージ140上に載置した測定対象物の高さに応じて、若干のマージンを加味して自動設定させたり、あるいは規定値や自動設定された値をユーザが調整可能としたり、任意の値を指定可能としてもよい。これにより、自動深度拡張時にZステージが上昇しすぎて、ステージ上の測定対象物がレンズに衝突する事態を回避できる。
(光学系に関する変形例)
In addition, the upper limit height of the Z stage 142 can be set for automatic depth expansion. The upper limit height of the Z stage 142 is set to a prescribed value on the shape measuring device side as the maximum value of the Z stage position at the time of automatic depth extension, and is slightly different depending on the height of the measurement object placed on the stage 140 It is also possible to allow automatic setting taking into account the margin, or to allow the user to adjust the specified value or the automatically set value, or to specify an arbitrary value. As a result, it is possible to avoid a situation in which the Z stage rises too much during automatic depth extension and the measurement object on the stage collides with the lens.
(Modifications related to optical system)

以上の実施形態1に係る形状測定装置では、撮像部を構成する受光部120を単眼のカメラとし、また測定対象物の上方に投光部110を2つ設けて、左右二方向から投光させる構成について説明したが、本発明は光学系の構成をこれに限定するものでなく、他の光学系を採用することもできる。例えば、受光部として単眼のカメラを用いて、投光部を一方向のみからの投光とすることもできる。あるいは、受光部として単眼カメラに代えて複眼カメラを用いて、一方向から投光させてもよい。
(測定原理に関する変形例)
In the shape measuring apparatus according to the first embodiment described above, the light receiving unit 120 constituting the imaging unit is a monocular camera, and the two light projecting units 110 are provided above the measurement object, and light is projected from two directions. Although the configuration has been described, the present invention is not limited to the configuration of the optical system, and other optical systems may be employed. For example, a monocular camera can be used as the light receiving unit, and the light projecting unit can project light from only one direction. Or you may make it project from one direction using a compound eye camera instead of a monocular camera as a light-receiving part.
(Variation regarding measurement principle)

また、上述した実施形態1に係る形状測定装置では、測定対象物の三次元形状を測定する測定原理として、グレイコードとマルチスリット投影の三角測距法を採用したが、本発明は測定対象物の三次元形状を測定する測定原理をこれに限定するものでなく、他の方式も適宜利用できる。例えば、正弦波投光による三角測距法や、ランダムパターン投光による三角測距法、ライン光投影とスキャンによる三角測距法等の方法が利用できる。
(測定対象物の移動機構に関する変形例)
In the shape measuring apparatus according to the first embodiment described above, the triangulation method of gray code and multi-slit projection is adopted as the measurement principle for measuring the three-dimensional shape of the measurement object. The measurement principle for measuring the three-dimensional shape is not limited to this, and other methods can be used as appropriate. For example, a triangulation method using sinusoidal light projection, a triangulation method using random pattern projection, a triangulation method using line light projection and scanning, and the like can be used.
(Modifications related to the movement mechanism of the measurement object)

さらに、上述した実施形態1に係る形状測定装置では、Zステージ142を移動させる機構としてZステージ142を直接移動させる構成を採用しているが、本発明は測定対象物の移動機構をこれに限定するものでなく、他の構成も適宜利用できる。例えば、X,Y,Zの各軸について並進、回転の6つの自由度を持つ移動ステージを用いたり、あるいは手動による自動移動としてもよい。
(測定対象物のワーキングディスタンス調整機構に関する変形例)
Furthermore, in the shape measuring apparatus according to the first embodiment described above, a configuration in which the Z stage 142 is directly moved is adopted as a mechanism for moving the Z stage 142, but the present invention limits the moving mechanism of the measurement object to this. However, other configurations can be used as appropriate. For example, a moving stage having six degrees of freedom of translation and rotation may be used for each of the X, Y, and Z axes, or manual automatic movement may be used.
(Modified example of the working distance adjustment mechanism of the measurement object)

さらに、上述した実施形態1に係る形状測定装置では、Zステージ142を移動させて測定対象物と受光部120とのワーキングディスタンスを調整する構成を採用しているが、本発明はワーキングディスタンスの調整機構をこれに限定するものでなく、他の構成も適宜利用できる。例えば、受光部側を移動させてもよい。
(実施例2:単一高さ画像の端部に基づく自動深度拡張)
Furthermore, in the shape measuring apparatus according to the first embodiment described above, a configuration is adopted in which the working distance between the measurement object and the light receiving unit 120 is adjusted by moving the Z stage 142, but the present invention adjusts the working distance. The mechanism is not limited to this, and other configurations can be used as appropriate. For example, the light receiving unit side may be moved.
(Example 2: Automatic depth extension based on edge of single height image)

以上の例では、取得済み画素を累積した累積画像に基づいて深度拡張の要否を判定する自動深度拡張の手順を説明した。ただ本発明は、必ずしも画像の高さ方向への深度拡張及び自動連結に際して、過去の画素を累積することを要しない。例えば、単一の高さ画像から深度拡張の要否を判定することもできる。このような例を実施例2として、以下説明する。ここでは図26に示すように、ある深度測定範囲内で高さ画像を取得する。そして、得られた一枚の高さ画像において、深度測定範囲の端部、すなわちこの深度測定範囲の上限又は下限の何れかに立体形状データを有するか否かを判定する。例えば高さ画像の一方の端部に立体形状データを有する場合は、深度測定範囲の外側に測定対象物が延びている可能性が高いと推定し、さらに深度測定範囲を変えて高さ計測を行う。そして変更後の深度測定範囲においても、同様に端部に立体形状データを有するか否かを判定して、同様に立体形状データを有する場合はさらに深度測定範囲を変えて処理を継続する。一方で、端部に立体形状データが存在しない場合は、この方向への処理を終え、他方の端部に立体形状データが存在するか否かを判定し、同様の処理を行う。そして、両方の端部で立体形状データが存在しない場合は、処理を終了する。なお、上記は一例であり、例えば両方の端部に立体形状データが存在する場合は、一方の端部に深度測定範囲を拡張した後、他方の端部に深度測定範囲を拡張するようにしてもよい。ただしこの方法では、Zステージを一方の端部の方向に拡張した後、元の位置に戻って他方の端部の方向に拡張することとなり、Zステージの移動量が大きくなる可能性がある。そこで上述の通り、上下何れかの方向に一旦拡張を継続し、その後、他方の方向に拡張するようにすることが好ましい。
(実施例3:単一高さ画像の範囲内に基づく自動深度拡張)
In the above example, the automatic depth extension procedure for determining whether or not the depth extension is necessary based on the accumulated image obtained by accumulating the acquired pixels has been described. However, according to the present invention, it is not always necessary to accumulate past pixels for depth extension in the height direction of an image and automatic connection. For example, whether or not depth extension is necessary can be determined from a single height image. Such an example will be described below as a second embodiment. Here, as shown in FIG. 26, a height image is acquired within a certain depth measurement range. Then, in the obtained single height image, it is determined whether or not the end portion of the depth measurement range, that is, the upper or lower limit of the depth measurement range has the three-dimensional shape data. For example, if there is solid shape data at one end of the height image, it is estimated that there is a high possibility that the measurement object extends outside the depth measurement range, and height measurement is performed by changing the depth measurement range. Do. In the depth measurement range after the change, it is similarly determined whether or not the end portion has the solid shape data. If the solid shape data is similarly included, the depth measurement range is further changed and the process is continued. On the other hand, when the solid shape data does not exist at the end, the process in this direction is finished, it is determined whether or not the solid shape data exists at the other end, and the same processing is performed. If there is no 3D shape data at both ends, the process is terminated. The above is an example. For example, when three-dimensional shape data exists at both ends, the depth measurement range is extended to one end, and then the depth measurement range is extended to the other end. Also good. However, in this method, after the Z stage is expanded in the direction of one end, the Z stage is returned to the original position and expanded in the direction of the other end, which may increase the amount of movement of the Z stage. Therefore, as described above, it is preferable to continue the expansion in one of the upper and lower directions and then expand in the other direction.
(Example 3: Automatic depth expansion based on the range of a single height image)

さらに本発明は、上述した単一の高さ画像の端部に立体形状データが存在するか否かでもって深度測定範囲の拡張の有無を判定する方法に限られず、深度測定範囲内で立体形状データが測定できた画素が存在すれば、深度測定範囲を拡張するようにしてもよい。すなわち、ある深度測定範囲で取得した高さ画像において、深度測定範囲内のいずれか一でも立体形状データが測定できた画素が存在すれば、測定対象物が存在していると推定して、その方向への深度拡張を継続する。この方法であれば、単に高さ画像が立体形状データを含むことのみで判定を行えるため、判定処理を簡単に行える利点が得られる。
(自動深度拡張測定機能を有する形状測定プログラム)
Further, the present invention is not limited to the above-described method for determining whether or not the depth measurement range is extended depending on whether or not the solid shape data exists at the end of the single height image. If there is a pixel whose data can be measured, the depth measurement range may be extended. That is, in the height image acquired in a certain depth measurement range, if there is a pixel whose solid shape data can be measured in any one of the depth measurement ranges, it is estimated that the measurement object exists, Continue to extend the depth in the direction. If this method is used, the determination can be made simply by including the three-dimensional shape data in the height image, so that the determination process can be easily performed.
(Shape measurement program with automatic depth extension measurement function)

ここで、自動深度拡張測定機能を形状測定プログラムのユーザインターフェース画面の例を図27〜図31に示す。これらの図に示す形状測定プログラムも、画像表示領域410と操作領域420を備える。画像表示領域410は、測定対象物のテクスチャ画像や高さ画像を表示させるための領域である。操作領域420は、主に各種の操作をユーザが指示したり、ユーザに対して操作内容の説明や誘導を行うための領域である。図27等の画面では、左側から画面の大半に画像表示領域410を配置し、右側に操作領域420を配置している。さらに画像表示領域410の上には、撮像条件の設定を行う撮像設定部の一形態として、画像表示領域410で表示される画像に対して、倍率表示や焦点調整等を行うための撮像設定領域510が配置されている。なおこれらの配置は一例であって、各部材の配置や大きさ等は適宜変更できる。
(観察モード切替部)
Here, FIGS. 27 to 31 show examples of user interface screens of the shape measurement program for the automatic depth extension measurement function. The shape measurement program shown in these drawings also includes an image display area 410 and an operation area 420. The image display area 410 is an area for displaying a texture image and a height image of the measurement object. The operation area 420 is an area for the user to mainly instruct various operations and to explain and guide the operation content to the user. In the screen of FIG. 27 and the like, the image display area 410 is arranged on the most part of the screen from the left side, and the operation area 420 is arranged on the right side. Further, on the image display area 410, as one form of an imaging setting unit for setting imaging conditions, an imaging setting area for performing magnification display, focus adjustment, and the like on an image displayed in the image display area 410 510 is arranged. In addition, these arrangement | positioning is an example and the arrangement | positioning, magnitude | size, etc. of each member can be changed suitably.
(Observation mode switching part)

形状測定プログラムから、高さ画像に基づく観察と、テクスチャ画像に基づく観察を行うことができる。観察の切り替えは、観察モード切替部から行う。図27の例では、観察モード切替部の一形態として、操作領域420に「3D測定」タブ531と「画像観察」タブ532が設けられており、何れかのタブを選択することで観察モードの切り替えが可能となる。「3D測定」タブ531を選択すると、高さ画像の生成及び生成された高さ画像に基づく計測などの観察が可能となる。一方、「画像観察」タブ532を選択すると、テクスチャ画像に基づく計測等の観察が可能となる。
(フルオート観察モード)
From the shape measurement program, observation based on the height image and observation based on the texture image can be performed. The observation is switched from the observation mode switching unit. In the example of FIG. 27, as one mode of the observation mode switching unit, a “3D measurement” tab 531 and an “image observation” tab 532 are provided in the operation area 420, and the observation mode is selected by selecting one of the tabs. Switching is possible. When the “3D measurement” tab 531 is selected, generation of a height image and observation such as measurement based on the generated height image can be performed. On the other hand, when the “image observation” tab 532 is selected, observation such as measurement based on the texture image becomes possible.
(Full auto observation mode)

ここで、形状測定プログラムで自動深度拡張測定機能を実行するには、図27の画面から「フルオート」ボタン533を押下する。これにより、フルオート観察モードすなわち自動深度拡張測定モードが選択される。フルオート観察モードでは自動で深度方向への拡張が行われて、画像表示領域410に表示される測定対象物の合成高さ画像が取得される。
(マニュアル観察モード)
Here, to execute the automatic depth extension measurement function by the shape measurement program, the “full auto” button 533 is pressed from the screen of FIG. Thereby, the full auto observation mode, that is, the automatic depth extension measurement mode is selected. In the full auto observation mode, expansion in the depth direction is automatically performed, and a composite height image of the measurement object displayed in the image display area 410 is acquired.
(Manual observation mode)

一方、形状測定プログラムで手動深度拡張測定機能を実行するには、図27の画面から「マニュアル」ボタン535を押下する。これにより、マニュアル観察モードが選択されて、手動で深度方向への拡張が可能となる。マニュアル観察モードの例を図28に示す。この例に示すマニュアル観察画面540では、操作領域420に「Z測定範囲」指定欄541、「測定モード」選択欄542、「測定方向」指定欄543、「測定明るさ」設定欄544、「テクスチャ撮影」選択欄545が設けられている。
(「Z測定範囲」指定欄541)
On the other hand, in order to execute the manual depth extension measurement function by the shape measurement program, the “manual” button 535 is pressed from the screen of FIG. Thereby, the manual observation mode is selected, and extension in the depth direction can be manually performed. An example of the manual observation mode is shown in FIG. In the manual observation screen 540 shown in this example, the operation area 420 includes a “Z measurement range” designation field 541, a “measurement mode” selection field 542, a “measurement direction” designation field 543, a “measurement brightness” setting field 544, and a “texture”. A “shoot” selection field 545 is provided.
("Z measurement range" designation field 541)

「Z測定範囲」指定欄541は、深度拡張測定モードを選択する深度拡張モード選択部254の一形態をなす。この例では、図28に示すように「Z測定範囲」指定欄541において、ユーザがドロップボックスから「自動」、「測定」、「手動」のいずれかを選択できる。この内「自動」を選択すると、自動で深度拡張測定を実行する自動深度拡張モードとなる。また「手動」を選択すると、ユーザが手動で深度拡張測定を実行する手動深度拡張モードとなる。一方、「測定」を選択すると、所定の深度範囲の測定を行う。いいかえると、深度範囲を拡張せず、形状測定装置で測定可能な所定の高さ範囲で高さ画像を生成する。上述した、Zステージ高さを固定した1回の測定を行うワンショット測定機能に相当する。   The “Z measurement range” designation field 541 forms one form of the depth extension mode selection unit 254 that selects the depth extension measurement mode. In this example, as shown in FIG. 28, in the “Z measurement range” designation field 541, the user can select any one of “automatic”, “measurement”, and “manual” from the drop box. When “automatic” is selected, an automatic depth extension mode for automatically executing depth extension measurement is set. When “manual” is selected, the user enters a manual depth extension mode in which the user manually performs depth extension measurement. On the other hand, when “measurement” is selected, measurement in a predetermined depth range is performed. In other words, a height image is generated within a predetermined height range that can be measured by the shape measuring device without expanding the depth range. This corresponds to the above-described one-shot measurement function that performs one measurement with the Z stage height fixed.

「測定モード」選択欄542は、測定モードを選択する測定モード選択部257の一態様である。測定モードとは、高さ画像の生成に際して撮像される縞画像の撮像条件を調整することで、観察の用途に応じた測定を行えるようにするものであり、予め複数の測定モードが準備されており、ユーザは観察の目的等に応じて所望の測定モードを選択する。「測定モード」選択欄542では、複数の測定モードの中からいずれかを指定する。ここでは、図29に示すようにドロップボックスから「オート」、「スタンダード」、「反射/潜り込み光除去モード」、「高精細(粗さ)」のいずれかを選択できる。   The “measurement mode” selection column 542 is an aspect of the measurement mode selection unit 257 that selects the measurement mode. The measurement mode is to adjust the imaging conditions of the fringe image captured when generating the height image, so that measurement according to the purpose of observation can be performed, and a plurality of measurement modes are prepared in advance. The user selects a desired measurement mode according to the purpose of observation. In the “measurement mode” selection field 542, one of a plurality of measurement modes is designated. Here, as shown in FIG. 29, one of “Auto”, “Standard”, “Reflection / Studding light removal mode”, and “High definition (roughness)” can be selected from the drop box.

「オート」を選択すると、複数の測定モードの内から、自動で適切な測定モードが選択されるオード測定モードが選択される。   When “Auto” is selected, an odd measurement mode in which an appropriate measurement mode is automatically selected from a plurality of measurement modes is selected.

「スタンダード」を選択すると、標準的な測定モードであるスタンダード測定モードが選択される。   When “Standard” is selected, the standard measurement mode, which is a standard measurement mode, is selected.

「反射/潜り込み除去」を選択すると、投光の反射や潜り込み光の除去に適した反射/潜り込み光除去モードが選択される。この測定モードはファイン測定モード等とも呼ばれ、測定光の投影パターンをスタンダード測定モードよりも細かくしており、潜り込み光や多重反射、乱反射等の間接光成分を排除する測定モードである。この測定モードは、測定対象物が白濁樹脂のような半透明体や、ネジのような凹凸金属体の場合に効果が高い。測定に要する時間は、スタンダード測定モードよりも長くなる。   When “reflection / recessed light removal” is selected, a reflection / recessed light removal mode suitable for reflection of light projection and removal of light leakage is selected. This measurement mode is also called a fine measurement mode, which is a measurement mode in which the projection pattern of measurement light is made finer than the standard measurement mode, and indirect light components such as diverging light, multiple reflection, and irregular reflection are eliminated. This measurement mode is highly effective when the object to be measured is a translucent body such as a cloudy resin or an uneven metal body such as a screw. The time required for measurement is longer than that in the standard measurement mode.

「高精細(粗さ)」を選択すると、測定対象物の表面の粗さの測定といった、より高精細な高さ画像を生成する高精細モードが選択される。   When “high definition (roughness)” is selected, a high definition mode for generating a higher definition height image such as measurement of the roughness of the surface of the measurement object is selected.

また、他の測定モードを追加してもよい。例えばハレーション除去測定モードは、投影パターンはスタンダードと同じであるが、露光時間又は測定光の投影光量を変化させることで、ダイナミックレンジを拡大して測定する測定モードである。これによって明暗差の激しい対象物で黒潰れや白とびを抑制できる効果が得られる。例えば、金属体に黒樹脂が埋まっているような対象物で効果的となる。測定に要する時間は、スタンダード測定モードよりも長くなる。さらにスーパーファイン測定モードは、上述した反射/潜り込み光除去モードとハレーション除去測定モードの組み合わせであり、最も精度を向上できるが、その分測定に要する時間は最も長くなる。   Other measurement modes may be added. For example, the halation removal measurement mode is a measurement mode in which the projection pattern is the same as the standard, but the dynamic range is expanded and measured by changing the exposure time or the projection light quantity of the measurement light. As a result, it is possible to obtain an effect of suppressing black crushing and overexposure with an object having a sharp contrast. For example, it is effective for an object in which a black resin is buried in a metal body. The time required for measurement is longer than that in the standard measurement mode. Furthermore, the super fine measurement mode is a combination of the above-described reflection / intrusion light removal mode and the halation removal measurement mode, and can improve the accuracy most, but the time required for the measurement is the longest.

「測定方向」指定欄543では、投光部110を指定する。ここでは、図4で示す第一投光部110A、第二投光部110Bのいずれか又は両方を選択できる。図30に示す例では、「測定方向」指定欄543に設けられたドロップボックスから、「左側のみ」、「右側のみ」、「両方」のいずれかを選択できる。   In the “measurement direction” designation field 543, the light projecting unit 110 is designated. Here, either or both of the first light projecting unit 110A and the second light projecting unit 110B shown in FIG. 4 can be selected. In the example shown in FIG. 30, one of “left side only”, “right side only”, and “both” can be selected from a drop box provided in the “measurement direction” designation field 543.

「左側のみ」を選択すると、図4の第一投光部110Aが選択されて左側からの投光のみが得られる。「右側のみ」を選択すると、図4の第二投光部110Bが選択されて右側からのみ投光される。「両方」を選択すると、図4の第一投光部110A及び第二投光部110Bが選択されて、両側から投光される。   When “left side only” is selected, the first light projecting unit 110A in FIG. 4 is selected, and only light projection from the left side is obtained. When “right side only” is selected, the second light projecting unit 110B of FIG. 4 is selected and light is projected only from the right side. When “both” is selected, the first light projecting unit 110A and the second light projecting unit 110B in FIG. 4 are selected and light is projected from both sides.

「測定明るさ」設定欄544では、画像表示領域410で表示される画像の明るさを調整する。テクスチャ画像の明るさは、例えば撮像部である受光部120の露光時間やシャッタースピードを調整することで可能となる。また「測定明るさ」設定欄544では、テクスチャ画像の明るさの調整を自動で行うオート明るさ調整と、手動で調整するマニュアル明るさ調整を、ラジオボタンで切り替え可能としている。例えば、図31に示すように「オート」を選択すると、現在画像表示領域410で表示されている画像に応じて、自動で適切な明るさに調整される。また「マニュアル」を選択すると、ユーザが手動で画像の明るさを調整できる。ここでは、スライダでもってテクスチャ画像の明るさを調整するよう構成している。また画像表示領域410で表示される画像の明るさが、「測定明るさ」設定欄544で調整した後の明るさに、リアルタイムに反映される。
(テクスチャ画像選択手段460)
In the “measured brightness” setting field 544, the brightness of the image displayed in the image display area 410 is adjusted. The brightness of the texture image can be achieved, for example, by adjusting the exposure time and shutter speed of the light receiving unit 120 that is an imaging unit. In the “measured brightness” setting field 544, automatic brightness adjustment for automatically adjusting the brightness of the texture image and manual brightness adjustment for manual adjustment can be switched with a radio button. For example, as shown in FIG. 31, when “Auto” is selected, the brightness is automatically adjusted to an appropriate brightness according to the image currently displayed in the image display area 410. If “Manual” is selected, the user can manually adjust the brightness of the image. Here, the brightness of the texture image is adjusted with a slider. Further, the brightness of the image displayed in the image display area 410 is reflected in real time on the brightness after the adjustment in the “measurement brightness” setting field 544.
(Texture image selection means 460)

テクスチャ画像選択手段460の一形態である「テクスチャ撮影」選択欄545では、撮影するテクスチャ画像を選択する。ここでは、「ノーマル」と「HDR」をラジオボタンで選択可能としている。「ノーマル」を選択すると、通常のテクスチャ画像を撮影するよう設定される。一方、「HDR」を選択すると、HDR画像を撮影するよう選択される。また、その他のテクスチャ画像を選択可能としてもよい。例えば深度合成画像を選択可能としてもよい。
(実施例3:手動深度拡張)
In the “texture photographing” selection column 545 which is one form of the texture image selection means 460, a texture image to be photographed is selected. Here, “normal” and “HDR” can be selected by radio buttons. When “Normal” is selected, a setting is made to capture a normal texture image. On the other hand, when “HDR” is selected, an HDR image is selected. Also, other texture images may be selectable. For example, a depth composite image may be selectable.
(Example 3: Manual depth extension)

以上の例では、自動で深度拡張と連結測定時を行う例について説明した。ただ本発明は、深度拡張を自動で行う構成に限られず、これを手動で行うこともできる。この手動深度拡張機能を用いて手動で深度拡張を行って、高さの異なる複数の高さ画像から、合成高さ画像を生成する手順を、図32のフローチャート及び図33A〜図33Gに基づいて説明する。まずステップS3201において、合成高さ画像を取得したい測定対象物の光学画像を表示させる。ここではユーザに、測定対象物をZステージ142上に載置させて、光学画像を取得して、表示部400上に表示させる。一例として、測定対象物を表示させた光学画像Aを、図33Aに示す。このとき、焦点位置の調整はユーザが行ってもよいし、自動で行ってもよい。あるいは焦点位置の調整を行わなくてもよい。自動で焦点位置を調整する方法として、例えば光学画像上の所望の位置でマウスをクリックすると、指定された位置に焦点が合うようにオートフォーカスさせることが挙げられる。   In the above example, the example in which the depth extension and the connection measurement are automatically performed has been described. However, the present invention is not limited to a configuration in which depth extension is performed automatically, and this can also be performed manually. Based on the flowchart of FIG. 32 and FIGS. 33A to 33G, a procedure for generating a composite height image from a plurality of height images having different heights by manually performing depth extension using this manual depth extension function. explain. First, in step S3201, an optical image of a measurement object for which a composite height image is to be acquired is displayed. Here, the user places the measurement object on the Z stage 142, acquires an optical image, and displays it on the display unit 400. As an example, FIG. 33A shows an optical image A on which a measurement object is displayed. At this time, the focus position may be adjusted by the user or automatically. Alternatively, the focus position need not be adjusted. As a method of automatically adjusting the focal position, for example, when the mouse is clicked at a desired position on the optical image, autofocusing is performed so that the designated position is focused.

次にステップS3202において、高さ画像を取得したい位置を高さ指定位置として指定する。ここではユーザが表示部400上に表示された光学画像上において、高さ画像を取得したい高さ指定位置を、操作部で指定する。このとき、光学画像は二次元画像であるから、高さ指定位置の指定はXY平面上での指定となる。例えば表示部400上で所望の位置をクリックすると、このXY位置が有するZ座標位置が高さ指定位置として記録される。また、高さ指定位置を基準として、自動でオートフォーカスを実行させてもよい。これにより、高さ指定位置の光学画像をより鮮明に表示させることができる。   In step S3202, the position where the height image is to be acquired is designated as the height designation position. Here, on the optical image displayed on the display unit 400, the user designates a height designation position where a height image is to be obtained by the operation unit. At this time, since the optical image is a two-dimensional image, the height designation position is designated on the XY plane. For example, when a desired position is clicked on the display unit 400, the Z coordinate position of the XY position is recorded as the height designation position. In addition, autofocus may be automatically executed based on the height designation position. Thereby, the optical image at the height designated position can be displayed more clearly.

次にステップS3203において、指定された高さ指定位置において高さ画像を生成する。例えばユーザが形状測定プログラムのユーザインターフェース画面上から、高さ画像生成ボタンを押下する。これにより、形状測定装置は指定された高さ指定位置(XY座標)における高さ情報(Z座標)を取得すると共に、この高さに基づいて所定の深度測定範囲で高さ画像を生成する。一例として、図33Aの光学画像A上で指定された高さ指定位置で得られた高さ画像Dを、図33Dに示す。なお高さ画像Dは、必ずしも表示部上に表示させる必要はなく、非表示としてもよい。ユーザ側に中間の高さ画像の生成作業を意識させることなく、バックグラウンドで処理させることができる。ただ、高さ画像Dを表示させてユーザに確認させるようにしてもよい。また、生成された高さ画像Dは、後述する合成高さ画像の生成処理に用いるために、一時的に保存される。   In step S3203, a height image is generated at the designated height designation position. For example, the user presses a height image generation button on the user interface screen of the shape measurement program. Thereby, the shape measuring apparatus acquires height information (Z coordinate) at the designated height designation position (XY coordinate), and generates a height image in a predetermined depth measurement range based on this height. As an example, FIG. 33D shows a height image D obtained at the height designation position designated on the optical image A in FIG. 33A. Note that the height image D is not necessarily displayed on the display unit, and may be hidden. The processing can be performed in the background without making the user aware of the intermediate height image generation operation. However, the height image D may be displayed for the user to confirm. Further, the generated height image D is temporarily stored for use in a composite height image generation process to be described later.

なお、ステップS3202において高さ指定位置の指定を受け付けると、自動でステップS3203の高さ画像の生成を実行させてもよい。これにより、ユーザ側の操作の手間を省力化できる。例えば、光学画像上で任意の位置をシングルクリックするとオートフォーカスが働き、ダブルクリックすると高さ画像の取得処理が実行されるようにする。これにより、ユーザは少ない操作で焦点位置の調整と高さ指定位置の指定、及び高さ画像の生成処理を行うことが可能となる。   Note that when the designation of the height designation position is accepted in step S3202, the generation of the height image in step S3203 may be automatically executed. Thereby, labor of the operation on the user side can be saved. For example, when an arbitrary position on the optical image is single-clicked, autofocus works, and when double-clicked, the height image acquisition process is executed. Thereby, the user can adjust the focus position, specify the height designation position, and generate the height image with a few operations.

次にステップS3204において、他の高さ指定位置を指定するかどうかを判定する。すなわち、異なる高さで生成された高さ画像を合成するために、必要な数の高さ画像が得られたか否かを判定する。ここではユーザが別の高さ指定位置の指定するか、あるいは高さ指定位置の指定を終えて合成高さ画像の生成に進むかの指示を、形状測定装置側で受け付ける。   Next, in step S3204, it is determined whether or not another height designation position is designated. That is, it is determined whether or not a necessary number of height images have been obtained in order to synthesize height images generated at different heights. Here, the shape measuring apparatus side receives an instruction whether the user designates another height designation position or finishes the designation of the height designation position and proceeds to the generation of the composite height image.

ユーザが高さ画像を追加したい場合、すなわち他の高さ指定位置をさらに指定したい場合は、ステップS3202に戻り、別の高さ指定位置を指定する。このとき、既に高さ指定位置を指定した光学画像と同じ画像上で高さ指定位置を指定する。いいかえると、光学画像の視野の変更を行わない。合成高さ画像の生成のためには、同じ姿勢の測定対象物に対して、異なる高さの高さ画像を取得する必要があるからである。もし光学画像の視野を変更したい場合は、ステップS3201に戻って光学画像の表示からやり直す。   If the user wants to add a height image, that is, if he / she wants to further specify another height designation position, the process returns to step S3202, and another height designation position is designated. At this time, the height designation position is designated on the same image as the optical image for which the height designation position has already been designated. In other words, the field of view of the optical image is not changed. This is because, in order to generate a composite height image, it is necessary to acquire height images of different heights from the measurement object having the same posture. If it is desired to change the field of view of the optical image, the process returns to step S3201 and starts again from the display of the optical image.

また、別の高さ指定位置の指定に際しては、既に指定した高さ指定位置の高さとは異なる高さを光学画像上で指定する必要がある。このため、光学画像の焦点位置を変更することが好ましい。この際、焦点位置の調整をユーザが手動で行う他、自動で焦点位置を調整するようにしてもよい。例えば上述の通り、ユーザが光学画像上で所望の位置をクリックすると、指定された位置でオートフォーカスが実行される方法が利用できる。一例として、図33Aと同じ測定対象物に対して、図33Aで指定した高さ指定位置よりも高い位置を高さ指定位置として指定する光学画像Bの例を、図33Bに示す。また図33Bよりも高い焦点位置に調整した光学画像Cを図33Cに示す。さらに図33Bで指定された高さ指定位置で生成された高さ画像Eを図33Eに、図33Cで指定された高さ指定位置で生成された高さ画像Fを図33Fに、それぞれ示す。   In addition, when another height designation position is designated, it is necessary to designate a height different from the height designation position already designated on the optical image. For this reason, it is preferable to change the focal position of the optical image. At this time, the user may manually adjust the focal position, or may automatically adjust the focal position. For example, as described above, when the user clicks a desired position on the optical image, a method in which autofocus is executed at a designated position can be used. As an example, FIG. 33B shows an example of an optical image B in which a position higher than the height designation position designated in FIG. 33A is designated as the height designation position for the same measurement object as in FIG. 33A. Further, FIG. 33C shows an optical image C adjusted to a higher focal position than that in FIG. 33B. Further, FIG. 33E shows the height image E generated at the height specified position specified in FIG. 33B, and FIG. 33F shows the height image F generated at the height specified position specified in FIG. 33C.

このようにユーザは、測定対象物の高さ範囲をすべて含むように、異なる高さ範囲で高さ画像を複数枚取得する必要がある。好ましくは、測定対象物の異なる高さの内で、低い位置から高い位置に、あるいは高い位置から低い位置に、順に高さ指定位置を順次指定していくことが好ましい。このような複数の異なる高さ指定位置を適切に指定できるよう、例えば指定済みの高さ指定位置の高さ情報を表示部400上の指定済み高さ指定位置表示欄に表示させ、高さ指定位置を追加する度に高さ情報の一覧を更新するようにしてもよい。   Thus, the user needs to acquire a plurality of height images in different height ranges so as to include the entire height range of the measurement object. Preferably, it is preferable to sequentially designate height designation positions in order from a low position to a high position or from a high position to a low position among different heights of the measurement object. For example, height information of a designated height designation position is displayed in a designated height designation position display field on the display unit 400 so that a plurality of different height designation positions can be appropriately designated. The height information list may be updated each time a position is added.

このようにして、追加の高さ指定位置が指定されると、同様にステップS3203に進んで指定された高さ指定位置で高さ画像を生成し、一時保存する。そしてステップS3204において、同様に追加の高さ指定位置の要否を判定する。   When an additional height designation position is designated in this way, the process similarly proceeds to step S3203 to generate a height image at the designated height designation position and temporarily store it. In step S3204, it is similarly determined whether or not an additional height designation position is necessary.

このようにして必要な高さ画像がすべて得られたとユーザが判断すると、ステップS3205に進み、合成高さ画像の生成を指示する。ここでは形状測定装置が、得られた複数枚の高さ画像を深度方向に合成して、より広い深度範囲を有する合成高さ画像を合成処理部216でもって生成する。一例として、図33Dの高さ画像Dと、図33Eの高さ画像Eと、図33Fの高さ画像Fとを合成した合成高さ画像Gを、図33Gに示す。このようにして、複数の高さ画像が合成されて、形状測定装置で物理的に測定可能な高さ範囲よりも広い高さ範囲の高さ画像を得ることが可能となる。   If the user determines that all necessary height images have been obtained in this way, the process advances to step S3205 to instruct generation of a composite height image. Here, the shape measurement apparatus combines the obtained plurality of height images in the depth direction, and generates a combined height image having a wider depth range by the combining processing unit 216. As an example, FIG. 33G shows a combined height image G obtained by combining the height image D of FIG. 33D, the height image E of FIG. 33E, and the height image F of FIG. 33F. In this way, a plurality of height images are combined, and a height image in a height range wider than the height range physically measurable by the shape measuring apparatus can be obtained.

また以上の手動深度拡張の手順は、形状測定装置でユーザに対して行うべき手順を案内するようにガイダンス機能を持たせても良い。例えば形状測定プログラムでもって、手動深度拡張を実行させると、ユーザに対して行うべき動作を表示部上に表示させて、行うべき手順を誘導することができる。この方法であれば、形状測定装置の操作に詳しくないユーザであっても、行うべき操作を提示して誘導することで、容易に合成高さ画像を生成することが可能となる。
(Z連結手動設定)
The above manual depth extension procedure may be provided with a guidance function so as to guide the procedure to be performed to the user by the shape measuring apparatus. For example, when the manual depth extension is executed by the shape measurement program, the operation to be performed can be displayed on the display unit to guide the procedure to be performed. With this method, even a user who is not familiar with the operation of the shape measuring apparatus can easily generate a composite height image by presenting and guiding the operation to be performed.
(Z linkage manual setting)

以上の手動深度拡張機能を実行する手順を、図34〜図41のユーザインターフェース画面に従って説明する。まず、図34に示すように「3D測定」タブ531を選択し、「マニュアル」ボタン535を押下して3D測定画面のマニュアル観察画面540を表示させた状態で、「Z測定範囲」指定欄541から「手動」を選択して手動深度拡張モードに切り替えて、画像表示領域410にテクスチャ画像を表示させる(図32のステップS3201)。   The procedure for executing the above manual depth extension function will be described with reference to the user interface screens shown in FIGS. First, as shown in FIG. 34, the “3D measurement” tab 531 is selected, and the “manual” button 535 is pressed to display the manual observation screen 540 of the 3D measurement screen. “Manual” is selected to switch to the manual depth extension mode, and a texture image is displayed in the image display area 410 (step S3201 in FIG. 32).

この状態で、テクスチャ画像の焦点位置を調整して、高さ画像を取得したい高さ指定位置を指定する(図32のステップS3202)。高さ指定位置は、撮像設定領域510の焦点位置表示欄516bに数値で表示される。   In this state, the focus position of the texture image is adjusted, and the height designation position where the height image is to be acquired is designated (step S3202 in FIG. 32). The height designation position is displayed numerically in the focus position display field 516b of the imaging setting area 510.

そして、指定された高さ指定位置を基準にして、高さ画像を生成する(図32のステップS3203)。ここでは、図34の右下に設けられた「測定」ボタン546を押下することで、高さ画像の生成を実行させる。
(3Dプレビュー画面550)
Then, a height image is generated with reference to the designated height designation position (step S3203 in FIG. 32). Here, the “measurement” button 546 provided in the lower right of FIG. 34 is pressed to generate a height image.
(3D preview screen 550)

生成された高さ画像は、図35に示すように3Dプレビュー画面550に表示される。ここでは、指定された高さ指定位置から、形状測定装置で測定可能な範囲の高さ画像が表示されている。いいかえると、形状測定装置のハードウェア的な仕様によって、測定対象物の形状によっては、高さ方向の全体をカバーする高さ画像を生成することはできない。図35の例では、測定対象物の一部の高さ画像HI1が表示される。ユーザは、画像表示領域410に表示された高さ画像HI1を見て、所望の高さ画像が取得されていれば、画面右下に設けられた「登録」ボタン551を押下して、この高さ画像HI1を保存する。ここでは図1の高さ画像記憶部241に保存される。
(テクスチャ画像の取得)
The generated height image is displayed on the 3D preview screen 550 as shown in FIG. Here, a height image in a range that can be measured by the shape measuring apparatus from the designated height designation position is displayed. In other words, depending on the hardware specifications of the shape measuring device, a height image that covers the entire height direction cannot be generated depending on the shape of the measurement object. In the example of FIG. 35, a height image HI1 of a part of the measurement object is displayed. The user looks at the height image HI1 displayed in the image display area 410, and if the desired height image is acquired, the user presses the “Register” button 551 provided at the lower right of the screen to The image HI1 is saved. Here, the image is stored in the height image storage unit 241 of FIG.
(Acquisition of texture image)

図35の3Dプレビュー画面550では、高さ画像HI1としてテクスチャ画像を貼り付けた合成画像が表示されている(なお本明細書においては、説明のため3Dプレビュー画面550で表示されている、高さ画像にテクスチャ画像を合成した合成画像を、単に高さ画像と呼ぶことがある)。テクスチャ画像は、例えば「測定」ボタン546を押下することで取得される。すなわちユーザが「測定」ボタン546を押下するだけで、高さ画像に加えて、テクスチャ画像も撮像されて保存される。テクスチャ画像の撮像時には、図1の照明光出力部130から照明光が照射される。また「登録」ボタン551が押下されると、高さ画像の保存と共に、テクスチャ画像も保存される。撮像されたテクスチャ画像は、テクスチャ画像記憶部242に保存される。   In the 3D preview screen 550 of FIG. 35, a composite image with a texture image pasted is displayed as the height image HI1 (in this specification, the height displayed on the 3D preview screen 550 for the sake of explanation). A composite image obtained by combining a texture image with an image may be simply called a height image). The texture image is acquired by pressing a “measurement” button 546, for example. That is, the texture image is captured and stored in addition to the height image simply by pressing the “Measure” button 546 by the user. When capturing a texture image, illumination light is emitted from the illumination light output unit 130 of FIG. When the “Register” button 551 is pressed, the texture image is saved together with the height image. The captured texture image is stored in the texture image storage unit 242.

なお、保存前の高さ画像やテクスチャ画像、あるいはこれらの合成画像は、3Dプレビュー画面550で表示させてユーザに確認することが目的である。いいかえると、高精細な画像でなくとも、目視による確認ができれば足りる。このため3Dプレビュー画面550で表示させる段階では、通常の高さ画像やテクスチャ画像、あるいはこれらの合成画像を生成するよりも、簡易的な条件で生成した簡易高さ画像、簡易テクスチャ画像、簡易合成画像とすることもできる。そしてユーザの確認を経て保存する際に、改めて通常の条件で高さ画像、テクスチャ画像、合成画像を生成し、これらを適宜保存するように構成してもよい。このようにすることで、処理の簡素化、効率化が図られる。   The purpose is to display the height image and the texture image before saving, or a composite image thereof on the 3D preview screen 550 and confirm it to the user. In other words, even if it is not a high-definition image, it is sufficient if it can be confirmed visually. Therefore, at the stage of displaying on the 3D preview screen 550, a simple height image, a simple texture image, and a simple composition generated under simple conditions rather than generating a normal height image, a texture image, or a composite image thereof. It can also be an image. Then, when storing after confirmation by the user, a height image, a texture image, and a composite image may be generated again under normal conditions, and these may be stored as appropriate. By doing in this way, simplification and efficiency improvement of a process are achieved.

また3Dプレビュー画面550においては、上述の通り操作領域420に各種の設定部を配置しており、画像表示領域410で表示される画像に対する操作を行える。例えば、上段の「3D」ボタン553、「テクスチャ」ボタン554、「高さ」ボタン555を切り替えることで、合成画像、テクスチャ画像、高さ画像の表示を切り替えることが可能となる。ここで「高さ」ボタン555を押下して高さ画像を選択すると、高さに応じて色分けされた高さ画像が表示される。例えば等高線状に、高さの低い領域を青色、高い領域を赤色とし、その中間領域を青→緑→黄→橙→赤等と連続的に変化させるように着色して、視覚的に高さを認識しやすくできる。また画像表示領域410の隅部には、高さと着色の関係を示すスケールを表示させることができる。   In the 3D preview screen 550, various setting units are arranged in the operation area 420 as described above, and an operation on an image displayed in the image display area 410 can be performed. For example, by switching the upper “3D” button 553, the “texture” button 554, and the “height” button 555, it is possible to switch the display of the composite image, the texture image, and the height image. Here, when a height image is selected by pressing a “height” button 555, a height image color-coded according to the height is displayed. For example, in a contour line, the low area is blue, the high area is red, and the middle area is colored so as to change continuously from blue → green → yellow → orange → red, etc. Can be easily recognized. A scale indicating the relationship between height and coloring can be displayed at the corner of the image display area 410.

さらに3Dプレビュー画面550の操作領域420には、高さ倍率調整欄556、テクスチャ調整欄557、欠測点表示選択欄558、目盛り表示選択欄559、3次元計測選択ボタン560などが配置されている。高さ倍率調整欄556では、高さ方向の拡大率をスライダで調整できる。テクスチャ調整欄557では、合成画像に重ねて表示されるテクスチャ画像の透過率を設定できる。欠測点表示選択欄558では、高さ画像を構成する画素の内で高さ情報が得られていない欠測点をハイライトして表示させる欠測点表示機能のON/OFFを選択する。目盛り表示選択欄559では、座標軸に沿って目盛りを表示させる目盛り表示機能のON/OFFを選択できる。3次元計測選択ボタン560では、三次元計測機能のON/OFFを選択できる。また、擬似的な照明光で陰影を強調したり、画像表示領域410に表示される高さ画像の精細さを調整する品質調整機能などを付加してもよい。   Further, in the operation area 420 of the 3D preview screen 550, a height magnification adjustment field 556, a texture adjustment field 557, a missing point display selection field 558, a scale display selection field 559, a 3D measurement selection button 560, and the like are arranged. . In the height magnification adjustment field 556, the magnification in the height direction can be adjusted with a slider. In the texture adjustment field 557, the transmittance of the texture image displayed to be superimposed on the composite image can be set. In the missing point display selection column 558, ON / OFF of the missing point display function for highlighting and displaying the missing point for which height information is not obtained among the pixels constituting the height image is selected. In the scale display selection field 559, ON / OFF of the scale display function for displaying the scale along the coordinate axis can be selected. With the 3D measurement selection button 560, ON / OFF of the 3D measurement function can be selected. Further, a shadow adjustment may be emphasized with pseudo illumination light, or a quality adjustment function for adjusting the fineness of the height image displayed in the image display area 410 may be added.

以上のようにして、形状測定装置側で高さ画像の生成に必要な作業を効率良く行うことができる。またテクスチャ画像の撮像や保存といった作業は、ユーザ側の指示がなくとも適切なタイミングで自動で行わせることで、使い勝手のよい環境が実現される。   As described above, the work necessary for generating the height image can be efficiently performed on the shape measuring apparatus side. Also, an environment that is easy to use is realized by automatically performing operations such as capturing and storing texture images at an appropriate timing without any instruction from the user.

次に、3D測定画面に戻って他の高さ指定位置を指定する(図32のステップS3204)。ここでは、焦点位置を高い位置に設定して図36に示す状態とする(図32のステップS3202)。図36においては、焦点位置表示欄516bにおける焦点位置の値が大きくなっている。この状態で同様に高さ画像を生成し(図32のステップS3203)、図37に示すように3Dプレビュー画面570に表示させる。図37で示す高さ画像HI2の例では、図35の高さ画像HI1とは異なる高さ範囲の高さ画像が得られている。
(合成高さ画像生成機能)
Next, returning to the 3D measurement screen, another height designation position is designated (step S3204 in FIG. 32). Here, the focal position is set to a high position to obtain the state shown in FIG. 36 (step S3202 in FIG. 32). In FIG. 36, the value of the focal position in the focal position display field 516b is large. In this state, a height image is similarly generated (step S3203 in FIG. 32) and displayed on the 3D preview screen 570 as shown in FIG. In the example of the height image HI2 shown in FIG. 37, a height image in a height range different from the height image HI1 of FIG. 35 is obtained.
(Composite height image generation function)

ここで、3Dプレビュー画面570においては、取得した高さ画像に、保存済みの異なる高さ画像を合成する合成高さ画像生成機能を実行することができる。図37の例では、画像表示領域410の左上に設けられた高さ画像切替部571である「シングル」ボタン572、「Z連結」ボタン573でもって、単独の高さ画像の表示と、合成高さ画像の表示とを切り替え可能としている。図37では「シングル」ボタン572が選択されて、現在生成された高さ画像を表示している。この状態で「Z連結」ボタン573を押下すると、図38の3Dプレビュー画面580に切り替えられ、図35の高さ画像HI1と図37の高さ画像HI2を合成した合成高さ画像CHI2が、画像表示領域410に表示される。この結果、形状測定装置の仕様上の高さ範囲の制約を超えて、より広い高さ範囲の高さ画像を得ることが可能となる。   Here, on the 3D preview screen 570, it is possible to execute a combined height image generation function for combining the acquired height images with different stored height images. In the example of FIG. 37, a single height image can be displayed and a combined height can be displayed with a “single” button 572 and a “Z connection” button 573 that are height image switching units 571 provided at the upper left of the image display area 410. The image display can be switched. In FIG. 37, the “single” button 572 is selected, and the currently generated height image is displayed. When the “Z connection” button 573 is pressed in this state, the screen is switched to the 3D preview screen 580 shown in FIG. 38, and the combined height image CHI2 obtained by combining the height image HI1 shown in FIG. 35 and the height image HI2 shown in FIG. It is displayed in the display area 410. As a result, it is possible to obtain a height image in a wider height range that exceeds the limitation of the height range in the specifications of the shape measuring apparatus.

図38の合成高さ画像CHI2を、図35の高さ画像HI1と比較すると、図35の高さ画像HI1では得られていなかった、測定対象物の左下の円柱状の上面が、図37の高さ画像HI2を加えることによって補完されていることが判る。これによってユーザは、得られた高さ画像を蓄積することで、所望の領域の高さ情報が得られているかどうかを3Dプレビュー画面580上から視覚的に確認できる。そして高さ情報が不足している領域、例えば図38の右上の円形状に欠けた領域の高さ情報を得ようと思えば、3D測定画面に戻ってこの領域の高さ指定位置を指定し、高さ画像を得ることができる。このように3Dプレビュー画面580では、取得済みの高さ画像と合成して得られる合成高さ画像に表示内容を更新することができる。   When the composite height image CHI2 in FIG. 38 is compared with the height image HI1 in FIG. 35, the cylindrical upper surface at the lower left of the measurement object that was not obtained in the height image HI1 in FIG. It can be seen that this is complemented by adding the height image HI2. Thus, the user can visually confirm whether or not the height information of the desired region is obtained from the 3D preview screen 580 by accumulating the obtained height images. Then, if you want to obtain height information for an area that lacks height information, for example, the area lacking the circular shape in the upper right of FIG. 38, go back to the 3D measurement screen and specify the height designation position for this area. A height image can be obtained. As described above, on the 3D preview screen 580, the display content can be updated to a combined height image obtained by combining with the acquired height image.

また次の高さ画像を生成する高さを検討するに際して、上述の通り、現在生成しようとしている高さ画像のみを表示させる高さ画像単独表示(「シングル」表示)と、既に生成された高さ画像を合成した合成高さ画像表示(「Z連結」表示)とを、高さ画像切替部571から「シングル」ボタン572、「Z連結」ボタン573で切り替えて3Dプレビュー画面550上で表示させることができる。これに加えて、必要に応じて、高さ画像単独表示と合成高さ画像表示とを一画面で並べて表示させるようにしてもよい。例えば図39に示す3Dプレビュー画面590では、画像表示領域410を二分割して、左側を高さ画像単独表示領域591とし、右側に合成高さ画像表示領域592としている。このように一画面上で現在生成中の高さ画像と、これを加えた合成高さ画像とを並べて表示させることで、所望の合成高さ画像が得られるかどうかをユーザは視覚的に確認でき、高さ画像を生成する高さ指定位置の指定が正しく行われているかどうかを判断し易くなる。   When considering the height for generating the next height image, as described above, the height image alone display (“single” display) that displays only the height image that is currently being generated, and the already generated height image are displayed. The combined height image display (“Z connection” display) obtained by combining the height images is switched by the “single” button 572 and the “Z connection” button 573 from the height image switching unit 571 and displayed on the 3D preview screen 550. be able to. In addition to this, the height image single display and the composite height image display may be displayed side by side on a single screen as necessary. For example, in the 3D preview screen 590 shown in FIG. 39, the image display area 410 is divided into two, the left side is a height image single display area 591, and the right side is a composite height image display area 592. In this way, the user visually confirms whether or not the desired composite height image can be obtained by displaying the height image currently being generated on one screen and the composite height image obtained by adding it side by side. This makes it easy to determine whether or not the height designation position for generating the height image is correctly designated.

このようにして、3Dプレビュー画面上で高さ画像として必要な部位を視覚的に確認しながら、高さ画像を追加していくことが可能となる。   In this manner, it is possible to add a height image while visually confirming a necessary portion as a height image on the 3D preview screen.

またこの方法であれば、ユーザが高さ情報を求めたい高さに焦点を合わせた状態で、この高さを高さ指定位置として指定することにより、指定された高さを基準にして高さ画像を生成できる。この結果、精度の高い高さ情報を有する高さ画像を生成できる。特に高さ画像を生成する際に撮像する縞画像等の立体形状データについて、この立体形状データを撮像した高さを基準に高さ情報を演算するという原理上、高さ指定位置の近傍ほど高さ情報の精度が高くなる傾向がある。そこで、ユーザが欲しい高さを直接指定させ、この高さを基準に高さ画像を生成し、さらにこれを複数合成することで、ユーザが必要な高さ情報を精度よく取得でき、測定においても有効利用できるという利点が得られる。いいかえると、単純に深度方向に深度測定範囲を変えて順次高さ画像を取得して連結する構成と比べ、必要な部位の高さ情報をより正確に得られるという利点が得られる。   Also, with this method, the user can focus on the height for which height information is desired and specify this height as the height designation position, so that the height is based on the specified height. An image can be generated. As a result, a height image having highly accurate height information can be generated. In particular, for the three-dimensional shape data such as a striped image captured when generating a height image, the height information is calculated based on the height at which the three-dimensional shape data is imaged. The accuracy of information tends to be high. Therefore, the user can directly specify the desired height, generate a height image based on this height, and then synthesize multiple images to obtain the required height information with high accuracy. The advantage that it can be used effectively is obtained. In other words, an advantage is obtained in that the height information of the necessary part can be obtained more accurately as compared with the configuration in which the depth measurement range is simply changed in the depth direction and the height images are sequentially acquired and connected.

このようにして、深度拡張により高さ画像の深度方向の制約を解除した観察や測定が実現される。
(合成高さ画像生成機能の実行不可能時の警告)
In this way, observation and measurement in which the restriction in the depth direction of the height image is removed by depth extension is realized.
(Warning when the composite height image generation function cannot be executed)

なお、合成高さ画像生成機能は、異なる高さ指定位置の高さ画像が既に保存されている場合に実行可能となる。例えば上述した図35の3Dプレビュー画面550では、高さ画像が未だ一枚も保存されていないので、合成高さ画像生成機能を実行できない。よってこの画面では「シングル」ボタン572、「Z連結」ボタン573等の高さ画像切替部571を表示させていない。これによって、ユーザは誤って合成高さ画像生成機能を実行することがない。一方、図37の3Dプレビュー画面570では、既に高さ画像が保存されているため、高さ画像切替部571が表示されている。これによりユーザが、合成高さ画像生成機能を実行できない状態で、誤って高さ画像切替部を操作しようとする誤操作を回避でき、使い易さが高められる。また、合成高さ画像生成機能の禁止は、上述した高さ画像切替部の表示、非表示の切り替えに限られず、他の構成、例えば高さ画像切替部をグレーアウトさせて選択不能とするなど、種々の態様が適宜利用できる。   Note that the composite height image generation function can be executed when height images at different height designation positions are already stored. For example, in the 3D preview screen 550 of FIG. 35 described above, since no height image has been saved yet, the composite height image generation function cannot be executed. Therefore, the height image switching unit 571 such as the “single” button 572 and the “Z connection” button 573 is not displayed on this screen. This prevents the user from executing the composite height image generation function by mistake. On the other hand, in the 3D preview screen 570 of FIG. 37, since the height image is already stored, the height image switching unit 571 is displayed. Accordingly, it is possible to avoid an erroneous operation in which the user erroneously tries to operate the height image switching unit in a state where the composite height image generation function cannot be executed, and the usability is enhanced. Further, the prohibition of the composite height image generation function is not limited to display / non-display switching of the height image switching unit described above, but other configurations, for example, the height image switching unit is grayed out and cannot be selected, etc. Various modes can be used as appropriate.

このようにして、異なる高さ画像を確認した上で、これを保存する場合は、同様に「登録」ボタン551を押下して、処理を継続し、図40の合成高さ画像CHI3が得られる。   In this way, when the different height images are confirmed and saved, the “registration” button 551 is similarly pressed to continue the processing, and the composite height image CHI3 of FIG. 40 is obtained. .

なお合成高さ画像は、必ずしも高さ方向に連続している必要はなく、離散的であってもよい。図40の合成高さ画像CHI3を、異なる方向から見た3Dプレビュー画面550の例を図41に示す。この例では、測定対象物の円筒状の部分の中間の高さ画像が得られていない。測定対象物の内で、計測したい部位が含まれておれば、観察や測定の目的は達成できる。このように合成高さ画像は、必ずしも深度方向に連続していることを要さず、離散しているものも含まれる。   Note that the composite height image does not necessarily have to be continuous in the height direction, and may be discrete. FIG. 41 shows an example of a 3D preview screen 550 when the composite height image CHI3 of FIG. 40 is viewed from different directions. In this example, an intermediate height image of the cylindrical portion of the measurement object is not obtained. If the part to be measured is included in the measurement object, the purpose of observation and measurement can be achieved. As described above, the composite height image does not necessarily need to be continuous in the depth direction, and includes a discrete image.

また合成高さ画像の生成や保存は、各高さ画像と個別に行ってもよいし、同時に行ってもよい。例えば、図40の合成高さ画像を表示させた状態で、「登録」ボタン551を押下すると、図40の合成高さ画像CHI3を保存すると共に、他の高さ画像も合わせて保存してもよいし、あるいは高さ画像を図35、図37で個別に保存する一方で、これらの高さ指定位置やその他の高さ情報から、図40の合成高さ画像を構築できるように相対関係のみを保存し、図40の合成高さ画像を呼び出す際には、図35、図37の各高さ画像データと共に、これらの相対関係情報から、合成高さ画像を表示させるように構成してもよい。   The generation and storage of the composite height image may be performed individually with each height image or may be performed simultaneously. For example, when the “Register” button 551 is pressed while the composite height image of FIG. 40 is displayed, the composite height image CHI3 of FIG. 40 is saved and other height images may be saved together. Alternatively, while the height images are individually stored in FIGS. 35 and 37, only the relative relationship is provided so that the composite height image of FIG. 40 can be constructed from these height designation positions and other height information. , And when the composite height image of FIG. 40 is called, the composite height image may be displayed based on the relative image information of each of the height image data of FIGS. Good.

このようにして、手動で深度拡張を行う手動深度拡張機能を実行できる。   In this way, it is possible to execute a manual depth extension function for manually performing depth extension.

以上のようにして形状測定装置は、高さ情報を有する高さ画像を生成することができる。このようにして得られた測定対象物の三次元の形状に対して、形状測定装置を用いて測定を行うことができる。例えば指定した寸法や高さの測定や、これらの平均値や最大値、最小値、面積、体積の算出等が行える。   As described above, the shape measuring apparatus can generate a height image having height information. Measurement can be performed on the three-dimensional shape of the measurement object obtained in this way using a shape measuring device. For example, it is possible to measure a specified dimension and height, and calculate an average value, maximum value, minimum value, area, and volume of these.

また、ステージ上に載置した測定対象物を同じ姿勢のまま、測定設定として記憶し、連続測定に用いることもできる。例えば、基準品の測定対象物について、これらの値を測定し、測定設定として保存部に保存した後、比較品の測定対象物をステージ上に逐次載せ替えて、基準品の値との比較を行うこともできる。このような比較測定の場合、比較品の測定対象物の値を測定するには、基準品と同じ姿勢で測定する必要がある。すなわち、基準品の測定対象物の高さ画像を取得した際の姿勢と同じ姿勢で、ステージ上に載置する必要がある。このためユーザに対して、ステージ上に測定対象物を置く位置を示すガイドを表示させたり、治具を用いて物理的にガイドする等の方法を用いることが好ましい。   Further, the measurement object placed on the stage can be stored in the same posture as measurement settings and used for continuous measurement. For example, after measuring these values for the measurement object of the reference product and storing it as a measurement setting in the storage unit, the measurement object of the comparison product is sequentially placed on the stage and compared with the value of the reference product. It can also be done. In the case of such comparative measurement, in order to measure the value of the measurement object of the comparative product, it is necessary to perform measurement in the same posture as the reference product. That is, it is necessary to place it on the stage in the same posture as when the height image of the measurement object of the reference product is acquired. For this reason, it is preferable to use a method such as displaying a guide indicating the position where the measurement object is placed on the stage or physically guiding the user using a jig.

また、ステージ140をZステージ142のみならず、XYステージ141も電動で駆動するようにした場合は、ステージ側を移動、回転させて、このステージ上の測定対象物の姿勢を、基準品の測定対象物の姿勢と同じ状態に調整することもできる。この場合、例えば比較品の測定対象物のテクスチャ画像や輪郭画像、高さ画像等を取得し、基準品の測定対象物でパターンマッチングを行い、対応する位置及び姿勢(回転角度など)を求め、得られた位置及び姿勢に比較品の測定対象物を配置するようにXYステージ141をステージ駆動部で移動させる。この方法であれば、ステージ140上に比較品の測定対象物を置く作業を簡素化できる。
(自動画像XY連結機能)
Further, when the stage 140 is driven not only by the Z stage 142 but also by the XY stage 141, the stage side is moved and rotated so that the posture of the measurement object on the stage is measured with the reference product. It can also be adjusted to the same state as the posture of the object. In this case, for example, a texture image, a contour image, a height image, etc. of the measurement object of the comparison product are obtained, pattern matching is performed with the measurement object of the reference product, and a corresponding position and orientation (such as a rotation angle) are obtained, The XY stage 141 is moved by the stage drive unit so as to place the comparative measurement object at the obtained position and orientation. With this method, it is possible to simplify the work of placing a comparative measurement object on the stage 140.
(Automatic image XY connection function)

また本実施形態に係る形状測定装置によれば、高さ画像等の立体形状データをXY方向に連結する画像連結に際して、各立体形状データを生成する際の測定設定を個別に調整すると共に、この調整作業を自動化することもできる。例えば、受光部の光軸方向と直交する平面であるXY平面において画像を連結するXY連結に際して、図42に示すように低倍率で撮像した画像、あるいはナビゲーション用の連結マップ画像を広域画像として、この広域画像を複数の部分領域に分割し、各部分領域で生成した立体形状データである高さ画像をXY方向に連結して合成高さ画像を生成する場合を考える。このようなXY平面での画像連結処理において、各部分領域で順に高さ画像を生成するに際して、測定を行う測定設定を設定する必要がある。ここで、測定設定を各部分領域で共通にしてしまうと、十分な精度の高さ画像が得られないことがある。例えば測定対象物が部分的に異なる材質で構成された場合は、投光したパターン光が金属のような光沢面で多重反射されたり、半透明の樹脂の部分ではパターン光が潜り込みを生じる等して、通常の測定では正しい高さ画像が得られないことがある。この場合には、多重反射や光の潜り込みに適した測定設定にて高さ画像を測定する必要があるところ、このような測定では撮像を複数回行う必要があるなど、高さ画像の生成に時間がかかる。このため、すべての部分領域で同じ測定設定として高さ画像を生成すると、トータルでかかる時間が長くなってしまう。同様に測定対象物中に凹凸の起伏が大きい領域と平坦な領域が混在する場合は、凹凸の高低差がある領域ではZステージを深度方向に駆動させて異なる高さでの撮像を繰り返す必要があるところ、平坦な領域で同様に高さの異なる撮像を繰り返すと、無駄な動作が増える上時間がかかる。また、このような様々な部分領域に対してユーザが手動で適切な測定設定を個別に設定することも考えられるが、この作業は非常に手間がかかるという問題があった。   Further, according to the shape measuring apparatus according to the present embodiment, when connecting the three-dimensional shape data such as the height image in the X and Y directions, the measurement setting for generating each three-dimensional shape data is individually adjusted, and this Adjustment work can also be automated. For example, when connecting XY images in an XY plane that is a plane orthogonal to the optical axis direction of the light receiving unit, an image captured at a low magnification as shown in FIG. 42 or a connection map image for navigation as a wide-area image, Consider a case where this wide-area image is divided into a plurality of partial areas, and a height image, which is solid shape data generated in each partial area, is connected in the XY direction to generate a combined height image. In such an image linking process on the XY plane, it is necessary to set measurement settings for measurement when generating height images in order in each partial region. Here, if the measurement setting is made common to each partial area, an image with sufficient accuracy may not be obtained. For example, if the object to be measured is made of a partially different material, the projected pattern light may be multiple-reflected by a glossy surface such as metal, or the pattern light may sink into the translucent resin part. Therefore, a correct height image may not be obtained by normal measurement. In this case, it is necessary to measure the height image with measurement settings suitable for multiple reflections and light penetration, but such measurement requires multiple imaging to generate a height image. take time. For this reason, if the height image is generated with the same measurement setting in all the partial areas, the time required in total is increased. Similarly, in the case where a region having a large unevenness and a flat region are mixed in the measurement object, it is necessary to repeat the imaging at different heights by driving the Z stage in the depth direction in the region having the unevenness of the unevenness. In some cases, if imaging with different heights is repeated in a flat region, useless operations increase in time. In addition, although it is conceivable that the user manually sets appropriate measurement settings individually for such various partial areas, there is a problem that this work is very time-consuming.

さらに一方では、部分領域毎に測定後の立体形状データをユーザに表示させて、ユーザがその部分領域の形状測定をやり直したい場合には、測定設定を変更した上で再度測定を行い、所望の測定結果が得られると、この新たに得られた立体形状データに置き換える方法も考えられる。しかしこの場合であっても、ユーザが測定結果を一々確認して、再測定の必要性を判断しなければならず、手間がかかっていた。また、測定設定をどのように変更すれば所望の測定結果が得られるかについても、容易には判断できないことがあり、更に作業を複雑にしていた。   On the other hand, if the user wants to display the 3D shape data after measurement for each partial area and the user wants to redo the shape measurement of that partial area, change the measurement settings and perform the measurement again. When the measurement result is obtained, a method of replacing the newly obtained solid shape data may be considered. However, even in this case, the user has to check the measurement results one by one and determine the necessity of remeasurement, which is troublesome. Also, it may not be easy to determine how the measurement setting is changed to obtain a desired measurement result, which further complicates the work.

そこで本実施形態においては、このような高さ画像等の立体形状データをXY連結して合成立体形状データを生成するに際しての測定設定の調整作業を自動化させることで、容易に視野の広い立体形状データを取得することを可能としている。すなわち、複数の部分領域に対して、設定条件を個別に自動調整可能としてユーザの負担を軽減している。特に、一旦取得した受光データや立体形状データに基づいて、部分領域測定設定を適切な条件に調整すると共に、必要に応じて調整後の各部分領域の測定設定でもって再度立体形状データを生成して、より高品質あるいは高精度な立体形状データを得ることができる。また部分領域毎に調整した各部分領域の測定設定を保存することで、同様の測定対象物の検査を行う際にはこれを読み出して測定設定とすることにより、測定設定の自動調整の工程を省略して処理の簡素化を図ることもできる。
(測定設定自動調整部217)
Therefore, in the present embodiment, the three-dimensional shape with a wide field of view can be easily obtained by automating the measurement setting adjustment operation when generating the three-dimensional shape data by XY-linking the three-dimensional shape data such as the height image. It is possible to obtain data. In other words, the setting conditions can be automatically adjusted individually for a plurality of partial areas, thereby reducing the burden on the user. In particular, the partial area measurement settings are adjusted to appropriate conditions based on the received light data and 3D shape data once acquired, and 3D shape data is generated again with the measurement settings of each adjusted partial area as necessary. Thus, higher-quality or higher-precision solid shape data can be obtained. Also, by saving the measurement settings of each partial area adjusted for each partial area, when performing the same measurement object inspection, this is read out and set as the measurement setting, thereby automatically measuring the measurement settings. It can be omitted to simplify the process.
(Measurement setting automatic adjustment unit 217)

このような測定設定の自動調整は、図1等で示す測定設定自動調整部217で行う。画像XY連結に際して、測定設定自動調整部217は、部分領域測定設定の調整を全自動で行う他、ユーザが測定設定部255で設定した測定設定を、測定設定自動調整部217で自動で調整したり、あるいは逆に、測定設定自動調整部217で自動で調整した測定設定を、ユーザが測定設定部255で調整するようにしてもよい。また自動設定に際しても、形状測定装置側で初期値として設定した測定設定を、測定設定自動調整部217で調整して調整測定設定とすることもできる。このように測定設定自動調整部217は、高さ画像等の立体形状データを生成するための測定設定を完全自動で調整する他、ユーザによる設定を組み合わせた半自動としてもよい。なお測定設定部255は、初期の測定設定をユーザが手動で設定するための部材である。ただ測定設定部255を、形状測定装置側で予め準備した測定設定の初期設定値を入力する部材としてもよい。そして各部分領域の測定設定は、ユーザが指定した部分領域測定設定、あるいは機器側で用意された初期設定値を、測定設定自動調整部217により自動調整された条件である。
(反射光、潜り込み光除去モード)
Such automatic adjustment of the measurement setting is performed by the measurement setting automatic adjustment unit 217 shown in FIG. When connecting the images XY, the measurement setting automatic adjustment unit 217 performs adjustment of the partial region measurement settings fully automatically, and the measurement setting automatic adjustment unit 217 automatically adjusts the measurement settings set by the user using the measurement setting unit 255. Or, conversely, the measurement setting automatically adjusted by the measurement setting automatic adjustment unit 217 may be adjusted by the measurement setting unit 255 by the user. In the automatic setting, the measurement setting set as the initial value on the shape measuring apparatus side can be adjusted by the measurement setting automatic adjustment unit 217 to obtain the adjustment measurement setting. As described above, the measurement setting automatic adjustment unit 217 may adjust the measurement setting for generating the three-dimensional shape data such as the height image completely automatically, or may be semi-automatic that combines the setting by the user. The measurement setting unit 255 is a member for the user to manually set initial measurement settings. However, the measurement setting unit 255 may be a member that inputs an initial setting value of a measurement setting prepared in advance on the shape measuring apparatus side. The measurement setting of each partial area is a condition in which the partial setting measurement specified by the user or the initial setting value prepared on the device side is automatically adjusted by the measurement setting automatic adjustment unit 217.
(Reflected light, submerged light removal mode)

ここで、反射光や潜り込み光の存在する場合に、これら除去する測定設定で測定を行う測定モードについて説明する。例えば図43に示すように、半透明の樹脂製の拡散板を備える測定対象物に対して、一般的な測定設定で測定を行った場合、すなわちパターン光を投光して縞画像から生成された高さ画像の例を、図44Aに示す。この図に示すように、通常のスキャンモードでは潜り込み光の影響により、半透明な拡散板部分はうまく測定できず、高さ画像のデータが欠損した状態となる。これに対して、測定モードを反射/潜り込み光除去モードとして測定した高さ画像の例を、図44Bに示す。上述のとおり反射/潜り込み光除去モードにおいては、測定光の投影パターンを通常よりも細かくすることで、間接光成分を低減する。潜り込み光除去モードで測定した結果、図に示すように、半透明な拡散板部分も相当部分で測定ができていることが判る。   Here, a description will be given of a measurement mode in which measurement is performed with measurement settings for removing reflected light and submerged light. For example, as shown in FIG. 43, when a measurement object having a translucent resin diffusion plate is measured with a general measurement setting, that is, generated from a fringe image by projecting pattern light. An example of the height image is shown in FIG. 44A. As shown in this figure, in the normal scan mode, the translucent diffuser plate portion cannot be measured well due to the influence of the diverging light, and the height image data is lost. On the other hand, FIG. 44B shows an example of a height image measured with the measurement mode set as the reflection / dive light removal mode. As described above, in the reflection / dive light removal mode, the indirect light component is reduced by making the projection pattern of the measurement light finer than usual. As a result of the measurement in the submerged light removal mode, it can be seen that the translucent diffuser plate portion can also be measured in a considerable portion as shown in the figure.

ただ、このような特殊な測定モードは通常よりも処理時間が長くなってしまう。このためすべての部分領域において、あるいはすべてのXY位置において、潜り込み光除去モードで測定すると、測定時間が長大になってしまう。そこで、潜り込み光や多重反射光が多い領域についてだけ、この測定モードを使うようにすることで測定時間を短縮できる。上述の例では、一旦スタンダード測定モードで高さ画像を生成し、図44Aに示すように欠損している領域が生じた部分領域においては、部分領域測定設定を測定設定自動調整部217で再設定して、高さ画像を生成し直して差し替えることで、図44Bに示すような欠損部分の少ない高さ画像を得ることができる。   However, such a special measurement mode requires a longer processing time than usual. For this reason, if measurement is performed in the sublimation light removal mode at all partial regions or at all XY positions, the measurement time becomes long. Therefore, the measurement time can be shortened by using this measurement mode only for an area where there is a lot of diverging light or multiple reflected light. In the above example, the height image is once generated in the standard measurement mode, and the partial region measurement setting is reset by the measurement setting automatic adjustment unit 217 in the partial region where the missing region is generated as shown in FIG. 44A. Then, by regenerating and replacing the height image, it is possible to obtain a height image with few missing portions as shown in FIG. 44B.

同様に、測定対象物の高低差が大きい領域については、深度範囲を拡張して測定しつつも、高低差が小さい領域では深度範囲を限定して測定を行うことで、測定時間を圧縮して効率良く測定処理を行える。例えば図44A、図44Bの例において、すべてのXY位置で測定対象物の高さ範囲(図中において矢印で示す範囲)を測定すると時間がかかるところ、測定対象物の外殻の領域のみ(図42において連結領域の周囲に位置する部分領域)について深度拡張測定モードを行う一方で、それ以外の部分領域(図42において連結領域の内部に位置する部分領域)ではZ範囲拡張を行わないことで、測定時間を短縮できる。
(潜り込み光と空隙との判別)
Similarly, for areas where the height difference of the measurement object is large, the measurement is performed with the depth range expanded, while in the area where the height difference is small, the measurement is performed by limiting the depth range to reduce the measurement time. Measurement process can be performed efficiently. For example, in the example of FIGS. 44A and 44B, it takes time to measure the height range of the measurement object (the range indicated by the arrow in the figure) at all XY positions, but only the outer shell region of the measurement object (FIG. 44). While the depth extension measurement mode is performed for the partial area located around the connected area in 42), the Z range is not extended in the other partial areas (partial areas located inside the connected area in FIG. 42). Measurement time can be shortened.
(Distinction between dive light and air gap)

また測定設定自動調整部217は、測定モードの自動選択にあたり、高さ画像の一部に欠損部分が生じている場合に、その原因が潜り込み光によるものか、あるいはそもそも形状自体が欠損しているものなのか(空隙や穴など)を区別する。いいかえると、潜り込み光が原因と判定した場合は、部分領域測定設定を変更した再測定を行うものの、空隙と判定した場合は、再測定を行わない。このような判定方法の一例を、図45A〜図45Dに基づいて説明する。これらの図において、図45Aはある測定対象物の縞画像のイメージ図を、図45Bは図45Aの測定対象物の内、金属部分の輝度プロファイルを、図45Cは穴部分の輝度プロファイルを、図45Dは白樹脂部分の輝度プロファイルを、それぞれ示している。この内図45Bに示す金属部分については、輝度プロファイルで明確なピークが表れており、正しく高さ情報を測定できることが判る。一方、図45Cの穴部分と、図45Dの白樹脂部分は、縞画像上ではいずれも黒く、パターン光が得られていない。ただし、図45Cの穴部分では輝度プロファイルのベース部分が殆どゼロであるのに対し、図45Dの樹脂部分ではベース部分に一定の変位(輝度)が得られていることが判る。このように、図45C、図45D共、輝度プロファイル上でピークが殆ど得られていないものの、ベース部分に輝度信号が得られているか否かでもって、存在しない形状なのか、光の潜り込みによって輝度が得られていないのかを、測定設定自動調整部217でもって区別することが可能となる。   In addition, when the measurement mode automatic selection unit 217 automatically selects the measurement mode, if there is a missing portion in a part of the height image, the cause is due to the intruding light, or the shape itself is missing in the first place. Distinguish between things (voids, holes, etc.). In other words, if it is determined that it is caused by the diverging light, remeasurement is performed with the partial area measurement setting changed. An example of such a determination method will be described with reference to FIGS. 45A to 45D. In these drawings, FIG. 45A is an image diagram of a fringe image of a certain measurement object, FIG. 45B is a luminance profile of a metal part of the measurement object of FIG. 45A, FIG. 45C is a luminance profile of a hole part, and FIG. Indicates the luminance profile of the white resin portion, respectively. As for the metal portion shown in FIG. 45B, a clear peak appears in the luminance profile, and it can be seen that the height information can be measured correctly. On the other hand, the hole portion in FIG. 45C and the white resin portion in FIG. 45D are both black on the striped image, and pattern light is not obtained. However, it can be seen that the base portion of the luminance profile is almost zero in the hole portion in FIG. 45C, whereas a certain displacement (luminance) is obtained in the base portion in the resin portion in FIG. 45D. Thus, in both FIGS. 45C and 45D, although the peak is hardly obtained on the luminance profile, the luminance does not exist depending on whether or not the luminance signal is obtained in the base portion, or the luminance due to light penetration. Can be distinguished by the measurement setting automatic adjustment unit 217.

このようにしてXY連結領域が設定された状態で、立体形状データを測定する測定設定を設定する。ここでは、図28で示したように、深度方向への拡張の有無や範囲を決定する深度拡張測定モードを深度拡張モード選択部254で選択し、図29で示したように、測定モードを測定モード選択部257で選択し、図30で示したように、投光部110による測定方向を測定方向指定部で選択し、さらに図31で示したように、画像表示領域410で表示される画像の明るさを測定明るさ設定部で設定する。   In the state where the XY connection region is set in this way, measurement settings for measuring the solid shape data are set. Here, as shown in FIG. 28, a depth extension measurement mode for determining the presence / absence and range of extension in the depth direction is selected by the depth extension mode selection unit 254, and the measurement mode is measured as shown in FIG. As shown in FIG. 30, the mode selection unit 257 selects the measurement direction by the light projecting unit 110, and the measurement direction designation unit selects the measurement direction. Further, as shown in FIG. 31, the image displayed in the image display area 410 is displayed. Is set in the measurement brightness setting section.

このようにして測定設定が設定された状態で、連結測定の開始する。ここではユーザによる「測定」ボタンの押下を受け付ける。そして測定を実行し、立体形状データを生成すると共に、テクスチャ画像を撮影する。   In the state where the measurement settings are set in this way, the linked measurement is started. Here, the user presses the “Measure” button. Then, measurement is performed to generate solid shape data, and a texture image is taken.

次に深度探索範囲内領域があるか否かを判定し、ある場合は、深度探索範囲内領域を測定可能な高さ位置にZステージを移動させる。この際、既に測定した高さ位置は除く。また高さ位置が複数ある場合は、最も近い高さ位置に移動させて処理を繰り返す。   Next, it is determined whether or not there is an area within the depth search range. If there is, the Z stage is moved to a height position where the area within the depth search range can be measured. At this time, the already measured height position is excluded. If there are a plurality of height positions, the process is repeated by moving to the closest height position.

一方、深度探索範囲内領域がない場合は、連結領域内のすべての合成画像データが生成されたか否かを判定する。未だの場合、すなわち未測定の部分領域が存在する場合は、XYステージを当該部分領域に移動させた上で、処理を繰り返す。   On the other hand, if there is no depth search range area, it is determined whether or not all the combined image data in the connected area has been generated. If not yet, that is, if there is an unmeasured partial area, the process is repeated after moving the XY stage to the partial area.

そして各部分領域の測定を終えて、連結領域内のすべての合成高さ画像データが生成されたと判定された場合は、生成された合成高さ画像を表示させる。   When the measurement of each partial region is finished and it is determined that all the combined height image data in the connected region has been generated, the generated combined height image is displayed.

このようにして、合成高さ画像をXY連結した広域合成高さ画像を生成することができる。
(部分領域測定設定の自動調整)
In this way, it is possible to generate a wide area composite height image in which the composite height image is XY connected.
(Automatic adjustment of partial area measurement settings)

一方、このような広域合成高さ画像の生成に際して、各部分領域毎に部分領域測定設定を自動調整することも可能である。このような広域合成高さ画像の生成手順を、図46のフローチャートに基づいて説明する。まずステップS4601において、ステージ140上に測定対象物を載置させる。次にステップS4602において、マップ画像を作成する。さらにステップS4603において、連続領域の設定を行う。   On the other hand, when generating such a wide-area composite height image, it is also possible to automatically adjust the partial area measurement settings for each partial area. The procedure for generating such a wide-area combined height image will be described based on the flowchart of FIG. First, in step S4601, a measurement object is placed on the stage 140. Next, in step S4602, a map image is created. In step S4603, a continuous area is set.

次にステップS4604において、XYステージを所定の部分領域に移動させる。ここでは、平面方向駆動部でもってXYステージを、最初に立体形状データを生成する部分領域に移動させる。   Next, in step S4604, the XY stage is moved to a predetermined partial area. Here, the XY stage is moved to the partial area where the three-dimensional shape data is first generated by the planar direction driving unit.

次にステップS4605において、この部分領域における測定設定を設定する。ここでは、最初に立体形状データを生成する部分領域における測定設定の初期値を設定する。この測定設定は、初期設定値を予め形状測定装置側で指定したり、部分領域の光学画像から測定設定自動調整部217が自動で解析したり、あるいはユーザが手動で測定設定を設定してもよい。   In step S4605, measurement settings in this partial area are set. Here, the initial value of the measurement setting in the partial region where the solid shape data is first generated is set. This measurement setting can be performed even if the initial setting value is designated in advance on the shape measuring device, the measurement setting automatic adjustment unit 217 automatically analyzes from the optical image of the partial area, or the measurement setting is manually set by the user. Good.

次にステップS4606において、測定を実行する。ここでは立体形状データ生成部で立体形状データを生成すると共に、テクスチャ画像取得部218でテクスチャ画像を撮影する。   Next, in step S4606, measurement is performed. Here, the solid shape data is generated by the solid shape data generation unit, and the texture image is captured by the texture image acquisition unit 218.

次にステップS4607において、部分領域測定設定を自動調整する。ここでは測定設定自動調整部217が、必要に応じて部分領域測定設定を変更した部分領域の測定設定にする。そしてステップS4608において、部分領域の測定設定で再度測定する必要があるか否かを判定し、必要と判定された場合はステップS4606に戻って再度立体形状データを生成する。なお、テクスチャ画像の再撮像は不要である。ここで再測定の必要性の判断は、例えば測定設定自動調整部217が、部分領域測定設定を妥当と判断して変更しなかった場合は、再測定の必要なしとする。   In step S4607, the partial region measurement setting is automatically adjusted. Here, the measurement setting automatic adjustment unit 217 sets the partial region measurement settings to the partial region measurement settings as necessary. In step S4608, it is determined whether or not it is necessary to perform measurement again with the measurement setting of the partial region. If it is determined that measurement is necessary, the process returns to step S4606 to generate solid shape data again. Note that re-imaging of the texture image is not necessary. Here, the determination of the necessity of remeasurement is made, for example, when the measurement setting automatic adjustment unit 217 determines that the partial region measurement setting is appropriate and does not change it, and does not require remeasurement.

このようにして測定が実行された後、ステップS4609に進み、未測定の部分領域があるか否かを判定し、存在する場合はステップS4604に戻って、当該未測定の部分領域への移動や測定を同様に行う。   After the measurement is performed in this way, the process proceeds to step S4609 to determine whether or not there is an unmeasured partial area. If there is, the process returns to step S4604 to move to the unmeasured partial area. The measurement is performed in the same way.

そしてすべての部分領域の測定が終了すると、ステップS4610に進み、得られた立体形状データを合成して合成立体形状データを作成する。   When the measurement of all the partial areas is completed, the process proceeds to step S4610, and the obtained solid shape data is synthesized to create synthesized solid shape data.

このようにして、自動で部分領域測定設定を調整し、必要に応じて再測定を行って立体形状データを取得し直し、最終的に広視野の合成立体形状データを高品質で得ることができる。
(XY連結測定設定の編集)
In this way, it is possible to automatically adjust the partial region measurement settings, perform remeasurement as necessary, and re-acquire solid shape data, and finally obtain wide-field synthetic solid shape data with high quality. .
(Edit XY link measurement settings)

また連結測定の完了後に、ユーザは測定結果を確認できる。例えば、得られた広域合成高さ画像を表示部に表示させて、所望の結果が得られているかを視覚的に確認できる。また必要に応じて、各部分領域において分割測定設定を変えて測定をやり直すことができる。この際には、部分領域測定設定を再編集することができる。   Further, after completion of the connection measurement, the user can confirm the measurement result. For example, it is possible to visually confirm whether a desired result is obtained by displaying the obtained wide-area combined height image on the display unit. If necessary, measurement can be performed again by changing the division measurement setting in each partial region. In this case, the partial area measurement setting can be re-edited.

また一部の部分領域でのみ測定し直して得られた高さ画像を用いて、広域合成高さ画像を再生成できる。   In addition, a wide area composite height image can be regenerated using a height image obtained by re-measurement only in a partial area.

さらに、各部分領域における測定設定を測定設定保存部243に保存しておくことで、この測定設定を検査実行時に再利用することができる。例えば測定対象物として、基準品の測定対象物との差分を調べる良品検査を行う場合は、検査の運用時において短時間で正確な結果が得られるよう、基準品の測定対象物から各部分領域の測定設定を設定する作業には長めの時間をかけることができる。これによって検査運用時における迅速かつ精度の高い測定が実行可能となる。
(連続測定モード)
Furthermore, by storing the measurement settings in each partial area in the measurement setting storage unit 243, the measurement settings can be reused when the inspection is performed. For example, when a non-defective product inspection is performed to check the difference between the reference product and the measurement object, each partial area is measured from the measurement product of the reference product so that accurate results can be obtained in a short time during the operation of the inspection. It takes a long time to set the measurement settings. This makes it possible to perform quick and accurate measurement during inspection operation.
(Continuous measurement mode)

この場合、立体形状データ生成部は、通常測定モードと、連続測定モードとを切り替え可能とすることができる。通常測定モードは、上述した通り測定設定自動調整部217で部分領域毎に部分領域測定設定を変化させて、立体形状データを生成する測定モードである。一方連続測定モードは、測定設定保存部243に予め保存された部分領域測定設定を部分領域毎に読み出して、立体形状データを生成する測定モードである。いいかえると、連続測定モードにおいては、部分領域測定設定を自動調整することは行わず、保存済みの部分領域測定設定を読み出して使用することで、処理時間の短縮化を図ることができる。   In this case, the solid shape data generation unit can switch between the normal measurement mode and the continuous measurement mode. As described above, the normal measurement mode is a measurement mode in which the measurement setting automatic adjustment unit 217 changes the partial region measurement setting for each partial region to generate solid shape data. On the other hand, the continuous measurement mode is a measurement mode in which the partial area measurement settings stored in advance in the measurement setting storage unit 243 are read out for each partial area to generate solid shape data. In other words, in the continuous measurement mode, the partial area measurement settings are not automatically adjusted, and the processing time can be shortened by reading and using the stored partial area measurement settings.

例えば図47の側面図に示すような表面に突起を部分的に備えた測定対象物の測定を行う場合を考える。突起は色が異なり、また測定対象物の表面の一部に半透明の樹脂部部を備えている。このような測定対象物に対して、部分領域A〜Dを設定する例を考える。この場合において、各部分領域の部分領域測定設定を、図48のように予め設定して保存しておく。例えば部分領域Aと部分領域Bとでは、材質の色が異なるため、露光レベル(露光時間や測定光の強度)を異ならせることで、それぞれの縞パターンのコントラストが表現され易くしている。また部分領域Bにおいては潜り込み光が発生するため、測定モードを反射/潜り込み光除去モード(ファインモード)としている。さらに部分領域Dでは高低差が大きいため、深度拡張測定モードとするようZ測定範囲を拡大している。このように、各部分領域に適した測定設定に予め設定して保存しておき、多くの測定対象物の検査を行う連続測定モードに際しては測定設定の自動調整を省略して保存済みの測定設定を読み出して使用することにより、処理時間を短縮化させつつも精度の高い測定や検査を行うことが可能となる。
(誘導部)
For example, consider a case where a measurement object having projections partially on the surface as shown in the side view of FIG. 47 is measured. The protrusions have different colors and are provided with a translucent resin part on a part of the surface of the measurement object. Consider an example in which partial areas A to D are set for such a measurement object. In this case, partial area measurement settings for each partial area are set and stored in advance as shown in FIG. For example, since the color of the material is different between the partial area A and the partial area B, the contrast of each stripe pattern is easily expressed by varying the exposure level (exposure time and intensity of measurement light). Further, since the submerged light is generated in the partial area B, the measurement mode is set to the reflection / submerged light removal mode (fine mode). Furthermore, since the height difference is large in the partial region D, the Z measurement range is expanded so as to be in the depth extension measurement mode. In this way, measurement settings that are suitable for each partial area are set in advance and saved, and in the continuous measurement mode in which many measurement objects are inspected, automatic adjustment of the measurement settings is omitted and saved measurement settings are saved. By reading out and using, it is possible to perform highly accurate measurement and inspection while shortening the processing time.
(Guidance part)

連続測定モードにおいては、撮像手段から見て、測定対象物の位置及び姿勢が、保存済みの部分領域測定設定を設定した際の位置及び姿勢である基準姿勢と同じになるように調整する必要がある。このため基準姿勢と同じ位置及び姿勢で測定対象物を配置するようにユーザに促す誘導部を備えてもよい。誘導部は、例えば表示部上に、ユーザに対して測定対象物をステージ140に載置する際、基準姿勢と同じ位置及び姿勢で配置するように誘導メッセージを出力する。
(測定対象位置姿勢検出部)
In the continuous measurement mode, it is necessary to adjust the position and orientation of the measurement object so as to be the same as the reference orientation that is the position and orientation when the saved partial area measurement settings are set, as viewed from the imaging means. is there. For this reason, you may provide the guidance part which prompts a user to arrange | position a measuring object in the same position and attitude | position as a reference | standard attitude | position. For example, when the measurement object is placed on the stage 140 with respect to the user on the display unit, the guidance unit outputs a guidance message so as to be arranged at the same position and posture as the reference posture.
(Measurement position and orientation detection unit)

また、ステージ140上に載置された測定対象物の位置及び姿勢を検出する測定対象位置姿勢検出部を設けてもよく、測定設定保存部243に保存された部分領域の測定設定の取得時の測定対象物の位置及び姿勢に基づいて、測定対象位置姿勢検出部で検出された測定対象物の位置及び姿勢を、平面方向駆動部を駆動させて調整するよう構成してもよい。
(位置決め治具)
In addition, a measurement target position / orientation detection unit that detects the position and orientation of the measurement object placed on the stage 140 may be provided, and the measurement setting of the partial area stored in the measurement setting storage unit 243 may be obtained. Based on the position and orientation of the measurement object, the position and orientation of the measurement object detected by the measurement object position and orientation detection unit may be adjusted by driving the plane direction driving unit.
(Positioning jig)

あるいは、位置決め治具を用いて物理的に測定対象物の位置及び姿勢を規制してもよい。位置決め治具でもって、ステージ140上に載置された測定対象物の位置及び姿勢を、測定設定保存部243に保存された部分領域の測定設定の取得時の測定対象物の位置及び姿勢と一致させる。   Alternatively, the position and orientation of the measurement object may be physically restricted using a positioning jig. With the positioning jig, the position and orientation of the measurement object placed on the stage 140 coincide with the position and orientation of the measurement object at the time of obtaining the measurement setting of the partial area stored in the measurement setting storage unit 243. Let

本発明の形状測定装置、形状測定方法、形状測定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器は、三角測距の原理を利用した顕微鏡や計測器、検査装置やデジタイザに好適に利用できる。   The shape measuring device, shape measuring method, shape measuring program, computer-readable recording medium, and recorded device of the present invention can be suitably used for a microscope, measuring instrument, inspection device, and digitizer using the principle of triangulation. .

100、100C…撮像手段
101…上ヘッド
102…下ヘッド
110…投光部;110A…第一投光部;110B…第二投光部
111…測定光源
112…パターン生成部
113〜115、122、123…レンズ
116…左右投光レンズ
120…受光部
120A…低倍率用撮像素子;120B…高倍率用撮像素子
121…カメラ
121a…撮像素子
124…プリズム
125…二分岐両側テレセントリック受光レンズ
130…照明光出力部
140…ステージ
141…XYステージ
142…Zステージ
143…θステージ
144…ステージ操作部;144C…撮像系操作部
145…ステージ駆動部;145C…撮像系駆動部
146、146C…光軸方向駆動部
147…スケールカバー
148…ステージ平面方向駆動部
149…ベース筐体
150…測定制御部
151…土台部
152…ステージ支持部
160、160X…スケールユニット
161…センサ移動部
162…スケール部
163…球状体
164…板材
165…板状部材
167…保持部
200…制御手段
210…CPU
212…立体形状データ生成部
212b…高さ画像生成部
212c…形状測定処理部
213…三次元画像合成部
214…判定処理部
215…深度拡張処理部
216…合成処理部
217…測定設定自動調整部
218…テクスチャ画像取得部
219…立体形状データ連結部
220…ROM
230…作業用メモリ
240…記憶部
241…高さ画像記憶部
242…テクスチャ画像記憶部
243…測定設定保存部
250…設定部
251…位置指定部
252…終了条件設定部
253…深度範囲設定部
254…深度拡張モード選択部
255…測定設定部
256…連結領域設定部
257…測定モード選択部
300…光源部
310…制御基板
320…観察用照明光源
400…表示部
410…画像表示領域
416…第一表示領域
417…第二表示領域
420…操作領域
427…「観察画像」ボタン
428…「測定画像」ボタン
450…操作デバイス
490…観察画像撮像条件設定手段
500、500B、500C…形状測定装置
510…撮像設定領域
511…カメラ調整欄
512…カメラ選択欄
513…倍率設定欄
514…「カメラ設定」ボタン
515…フォーカス設定欄
516…フォーカス調整欄;516b…焦点位置表示欄
517…「オートフォーカス」ボタン
519…メンテナンス設定欄;519b…「測定調整」ボタン
531…「3D測定」タブ
532…「画像観察」タブ
533…「フルオート」ボタン
535…「マニュアル」ボタン
540…マニュアル観察画面
541…「Z測定範囲」指定欄
542…「測定モード」選択欄
543…「測定方向」指定欄
544…「測定明るさ」設定欄
545…「テクスチャ撮影」選択欄
546…「測定」ボタン
550…3Dプレビュー画面
551…「登録」ボタン
552…「再測定」ボタン
553…「3D」ボタン
554…「テクスチャ」ボタン
555…「高さ」ボタン
556…高さ倍率調整欄
557…テクスチャ調整欄
558…欠測点表示選択欄
559…目盛り表示選択欄
560…3次元計測選択ボタン
570…3Dプレビュー画面
571…高さ画像切替部
572…「シングル」ボタン
573…「Z連結」ボタン
580…3Dプレビュー画面
590…3Dプレビュー画面
591…高さ画像単独表示領域
592…合成高さ画像表示領域
WK、WK2…測定対象物
CHI、CHI2、CHI3…合成高さ画像
HIA、HIB、HIC、HI1、HI2…高さ画像
OL1、OL2…重複領域
HT1、HT2、HT3、HT4…深度測定範囲
IG1、IG2、IG3、IG4…画像
S1…第一測定画像;S2…第二測定画像
DESCRIPTION OF SYMBOLS 100, 100C ... Imaging means 101 ... Upper head 102 ... Lower head 110 ... Light projection part; 110A ... First light projection part; 110B ... Second light projection part 111 ... Measurement light source 112 ... Pattern generation parts 113-115, 122, 123 ... Lens 116 ... Left-and-right projection lens 120 ... Light receiving unit 120A ... Low-magnification imaging device; 120B ... High-magnification imaging device 121 ... Camera 121a ... Image sensor 124 ... Prism 125 ... Branch bilateral telecentric light-receiving lens 130 ... Illumination Output unit 140 ... Stage 141 ... XY stage 142 ... Z stage 143 ... θ stage 144 ... Stage operation unit; 144C ... Imaging system operation unit 145 ... Stage drive unit; 145C ... Imaging system drive unit 146, 146C ... Optical axis direction drive unit 147 ... Scale cover 148 ... Stage plane direction drive unit 149 ... Base housing 150 Measurement control unit 151 ... base portion 152 ... stage support part 160,160X ... scale unit 161 ... sensor moving unit 162 ... scale section 163 ... spherical body 164 ... sheet 165 ... plate-like member 167 ... holding unit 200 ... control unit 210 ... CPU
212 ... 3D shape data generation unit 212b ... Height image generation unit 212c ... Shape measurement processing unit 213 ... 3D image synthesis unit 214 ... Determination processing unit 215 ... Depth extension processing unit 216 ... Synthesis processing unit 217 ... Automatic measurement setting adjustment unit 218 ... Texture image acquisition unit 219 ... Solid shape data connection unit 220 ... ROM
230 ... Work memory 240 ... Storage unit 241 ... Height image storage unit 242 ... Texture image storage unit 243 ... Measurement setting storage unit 250 ... Setting unit 251 ... Position designation unit 252 ... End condition setting unit 253 ... Depth range setting unit 254 Depth extension mode selection unit 255 ... Measurement setting unit 256 ... Connection region setting unit 257 ... Measurement mode selection unit 300 ... Light source unit 310 ... Control board 320 ... Observation illumination light source 400 ... Display unit 410 ... Image display region 416 ... First Display area 417 ... second display area 420 ... operation area 427 ... "observation image" button 428 ... "measurement image" button 450 ... operation device 490 ... observation image imaging condition setting means 500, 500B, 500C ... shape measuring device 510 ... imaging Setting area 511 ... Camera adjustment field 512 ... Camera selection field 513 ... Magnification setting field 514 ... "Camera setting" button 15 ... Focus setting field 516 ... Focus adjustment field; 516b ... Focus position display field 517 ... "Auto focus" button 519 ... Maintenance setting field; 519b ... "Measurement adjustment" button 531 ... "3D measurement" tab 532 ... "Image observation" Tab 533 ... "Full Auto" button 535 ... "Manual" button 540 ... Manual observation screen 541 ... "Z measurement range" designation field 542 ... "Measurement mode" selection field 543 ... "Measurement direction" designation field 544 ... "Measurement brightness "Setting field 545 ..." Texture shooting "selection field 546 ..." Measurement "button 550 ... 3D preview screen 551 ..." Registration "button 552 ..." Remeasure "button 553 ..." 3D "button 554 ..." Texture "button 555 ...""Height" button 556 ... Height magnification adjustment field 557 ... Texture adjustment field 558 ... Missing point display Selection field 559 ... Scale display selection field 560 ... 3D measurement selection button 570 ... 3D preview screen 571 ... Height image switching unit 572 ... "Single" button 573 ... "Z link" button 580 ... 3D preview screen 590 ... 3D preview screen 591 ... Height image single display area 592 ... Composite height image display area WK, WK2 ... Measurement objects CHI, CHI2, CHI3 ... Composite height images HIA, HIB, HIC, HI1, HI2 ... Height images OL1, OL2 ... Overlapping regions HT1, HT2, HT3, HT4 ... Depth measurement ranges IG1, IG2, IG3, IG4 ... Image S1 ... First measurement image; S2 ... Second measurement image

Claims (15)

測定対象物を載置するステージと、
前記ステージ上に載置された測定対象物に対し、パターン光を投光する投光部と、
所定の撮影視野を有し、前記投光部から照射され、測定対象物から反射されたパターン光を受光して画像を撮像する受光部と、
前記ステージ上に載置された測定対象物の画像を表示する表示部と、
データを保存するための記憶部と、
前記ステージを前記受光部に対して光軸方向に相対的に移動させることにより、前記受光部の焦点位置を調整する光軸方向駆動部と、
前記表示部上に表示された測定対象物の画像上で、任意のXY方向の位置の指定を受け付けるXY位置指定部を備え、
前記XY位置指定部で指定された画像上のXY位置を焦点位置とするように前記光軸方向駆動部を調整する合焦処理と、
前記合焦処理で調整された深度にて、前記投光部から投光されたパターン光を前記受光部で受光した画像に基づいて形状測定を行い立体形状データを生成し前記記憶部に登録する立体形状データ生成処理と、
前記所定の撮影視野において、異なるXY位置で、それぞれ前記合焦処理と前記立体形状データ生成処理を行って前記記憶部に登録された深度範囲の異なる複数の立体形状データを合成することにより、深度を拡張した合成立体形状データを生成する合成立体形状生成処理と
を実行する制御手段と、
を備える形状測定装置。
A stage on which a measurement object is placed;
A light projecting unit that projects pattern light on the measurement object placed on the stage;
A light receiving unit that has a predetermined photographing field of view, receives a pattern light irradiated from the light projecting unit, and reflected from the measurement object, and captures an image;
A display unit for displaying an image of a measurement object placed on the stage;
A storage unit for storing data;
An optical axis direction drive unit that adjusts the focal position of the light receiving unit by moving the stage relative to the light receiving unit in the optical axis direction;
An XY position designation unit that accepts designation of a position in an arbitrary XY direction on the image of the measurement object displayed on the display unit;
A focusing process for adjusting the optical axis direction drive unit so that the XY position on the image designated by the XY position designation unit is a focal position;
At the depth adjusted by the focusing process, shape measurement is performed based on an image obtained by receiving the pattern light projected from the light projecting unit by the light receiving unit, and solid shape data is generated and registered in the storage unit. 3D shape data generation processing,
Depth by combining a plurality of three-dimensional shape data with different depth ranges registered in the storage unit by performing the focusing process and the three-dimensional shape data generation process at different XY positions in the predetermined photographing field of view. Control means for executing synthetic three-dimensional shape generation processing for generating synthetic three-dimensional shape data obtained by extending
A shape measuring apparatus comprising:
請求項1に記載の形状測定装置であって、
前記表示部上で、前記受光部で撮像した測定対象物の光学画像を表示させた状態で、前記XY位置指定部により、位置指定を受け付けるよう構成してなる形状測定装置。
The shape measuring device according to claim 1,
A shape measuring apparatus configured to receive position designation by the XY position designation unit in a state where an optical image of a measurement object imaged by the light receiving unit is displayed on the display unit.
測定対象物を載置するステージと、
前記ステージ上に載置された測定対象物に対し、パターン光を投光する投光部と、
所定の撮影視野を有し、前記投光部から照射され、測定対象物から反射されたパターン光を受光して画像を撮像する受光部と、
前記ステージ上に載置された測定対象物の画像を表示する表示部と、
データを保存するための記憶部と、
前記ステージを前記受光部に対して光軸方向に相対的に移動させることにより、前記受光部の焦点位置を調整する光軸方向駆動部と、
前記表示部に表示された画像の焦点を手動で調整する操作を受け付けるための焦点調整部と、
前記焦点調整部で調整された深度にて、前記投光部から投光されたパターン光を前記受光部で受光した画像に基づいて形状測定を行い立体形状データを生成し前記記憶部に登録する立体形状データ生成処理と、
前記所定の撮影視野において、前記焦点調整部で調整された異なる深度で、それぞれ前記立体形状データ生成処理を行って前記記憶部に登録された深度範囲の異なる複数の立体形状データを合成することにより、深度を拡張した合成立体形状データを生成する合成立体形状生成処理と
を実行する制御手段と、
を備える形状測定装置。
A stage on which a measurement object is placed;
A light projecting unit that projects pattern light on the measurement object placed on the stage;
A light receiving unit that has a predetermined photographing field of view, receives a pattern light irradiated from the light projecting unit, and reflected from the measurement object, and captures an image;
A display unit for displaying an image of a measurement object placed on the stage;
A storage unit for storing data;
An optical axis direction drive unit that adjusts the focal position of the light receiving unit by moving the stage relative to the light receiving unit in the optical axis direction;
A focus adjustment unit for accepting an operation of manually adjusting the focus of the image displayed on the display unit;
At the depth adjusted by the focus adjustment unit, shape measurement is performed based on an image obtained by receiving the pattern light projected from the light projecting unit by the light receiving unit, and solid shape data is generated and registered in the storage unit. 3D shape data generation processing,
By synthesizing a plurality of three-dimensional shape data having different depth ranges registered in the storage unit by performing the three-dimensional shape data generation process at different depths adjusted by the focus adjustment unit in the predetermined photographing field of view. Control means for executing synthetic solid shape generation processing for generating synthetic solid shape data with an extended depth;
A shape measuring apparatus comprising:
請求項3に記載の形状測定装置であって、
前記焦点調整部が、前記ステージと受光部の光軸方向の相対的な距離を、マウスのホイールで調整可能としてなる形状測定装置。
The shape measuring apparatus according to claim 3,
A shape measuring apparatus in which the focus adjusting unit can adjust a relative distance between the stage and the light receiving unit in the optical axis direction with a mouse wheel.
請求項1〜4のいずれか一項に記載の形状測定装置であって、さらに、
測定対象物の光学画像を撮像するための照明光を照射する照明光出力部と、
前記照明光出力部で照明された測定対象物を光学的に撮像したテクスチャ画像を保存するためのテクスチャ画像記憶部と
を備える形状測定装置。
The shape measuring device according to any one of claims 1 to 4, further comprising:
An illumination light output unit that emits illumination light for capturing an optical image of the measurement object;
A shape measuring apparatus comprising: a texture image storage unit for storing a texture image obtained by optically imaging a measurement object illuminated by the illumination light output unit.
請求項5に記載の形状測定装置であって、
前記立体形状データを生成する合焦位置で、前記テクスチャ画像を撮像するよう構成してなる形状測定装置。
The shape measuring device according to claim 5,
A shape measuring apparatus configured to capture the texture image at a focus position for generating the three-dimensional shape data.
請求項6に記載の形状測定装置であって、
前記制御手段が、
立体形状データと、該立体形状データと同じ高さ指定位置で撮像したテクスチャ画像とを合成した合成画像を生成する三次元画像合成部を備える形状測定装置。
The shape measuring apparatus according to claim 6,
The control means is
A shape measuring apparatus including a three-dimensional image composition unit that generates a composite image obtained by combining three-dimensional shape data and a texture image captured at the same height specified position as the three-dimensional shape data.
請求項1〜7のいずれか一項に記載の形状測定装置であって、
前記合成立体形状データ生成部で生成された合成立体形状データが、光軸方向に離散的な領域を有する形状測定装置。
It is a shape measuring device according to any one of claims 1 to 7,
The shape measuring device in which the combined solid shape data generated by the combined solid shape data generation unit has discrete regions in the optical axis direction.
請求項1〜8のいずれか一項に記載の形状測定装置であって、
前記表示部は、前記立体形状データと、該立体形状データを他の立体形状データと合成した前記合成立体形状データとを切り替えて、又は同時に表示可能としてなる形状測定装置。
It is the shape measuring device according to any one of claims 1 to 8,
The shape measurement device that enables the display unit to switch or simultaneously display the solid shape data and the combined solid shape data obtained by combining the solid shape data with other solid shape data.
請求項1〜9のいずれか一項に記載の形状測定装置であって、さらに
前記立体形状データを保存するための立体形状データ記憶部を備え、
前記立体形状データ記憶部が、一以上の立体形状データを保存している状態で、前記表示部が、前記合成立体形状データを表示させる際に、保存済みの立体形状データに、新たに生成しようとする未保存の立体形状データを加えた合成立体形状データに更新して表示させるよう構成してなる形状測定装置。
The shape measuring device according to any one of claims 1 to 9, further comprising a three-dimensional shape data storage unit for storing the three-dimensional shape data,
When the three-dimensional shape data storage unit stores one or more pieces of three-dimensional shape data, when the display unit displays the synthetic three-dimensional shape data, the generated three-dimensional shape data is newly generated. A shape measuring device configured to update and display the combined solid shape data to which unsaved solid shape data is added.
測定対象物の高さ情報を含む立体形状データを生成することで形状を測定する形状測定方法であって、
測定の対象となる測定対象物をステージ上に載置する工程と、
前記ステージを受光部の光軸方向と直交するステージ平面における測定範囲内で相対的に位置決めさせた状態で、前記ステージを前記受光部に対して光軸方向に相対的に移動させて、前記受光部の焦点位置を光軸方向駆動部で調整する工程と、
前記測定範囲内において前記光軸方向駆動部で調整された焦点位置を、立体形状データを取得する基準となる深度方向の位置を示す高さ指定位置として、測定対象物に対してパターン光を投光部から投光し、測定対象物で反射されたパターン光を受光部で受光して、受光データに基づいて、前記測定範囲内に存在する測定対象物の高さ情報を画素毎に、パターン投影法で測定した立体形状データを生成する工程と、
前記測定範囲において異なる焦点位置に前記光軸方向駆動部で調整し、前記異なる焦点位置を高さ指定位置として前記立体形状データ生成部により立体形状データを生成する作業を繰り返し、得られた複数の立体形状データを合成して、合成立体形状データを生成する工程と、
を含む形状測定方法。
A shape measurement method for measuring a shape by generating solid shape data including height information of a measurement object,
Placing a measurement object to be measured on the stage;
In a state where the stage is relatively positioned within a measurement range on a stage plane orthogonal to the optical axis direction of the light receiving unit, the stage is moved relative to the light receiving unit in the optical axis direction, and the light receiving unit is moved. Adjusting the focal position of the optical section in the optical axis direction driving unit
Within the measurement range, the focus position adjusted by the optical axis direction driving unit is used as a height designation position indicating a position in the depth direction as a reference for acquiring the three-dimensional shape data, and pattern light is projected onto the measurement target. The pattern light projected from the light part and reflected by the measurement object is received by the light receiving part, and the height information of the measurement object existing in the measurement range is patterned for each pixel based on the light reception data. Generating solid shape data measured by a projection method;
The optical axis direction drive unit adjusts to different focal positions in the measurement range, and repeats the operation of generating the solid shape data by the solid shape data generation unit using the different focal positions as height designation positions. Synthesizing the three-dimensional shape data to generate synthetic three-dimensional shape data;
A shape measuring method including:
請求項11に記載の形状測定方法であって、
前記焦点位置を調整する工程が、
表示部上に表示された測定対象物の画像上で、前記高さ指定位置の指定を位置指定部で受け付け、
前記位置指定部で指定された高さ指定位置に、前記受光部の焦点が一致するように、前記光軸方向駆動部で焦点を調整する工程である形状測定方法。
The shape measuring method according to claim 11,
Adjusting the focal position;
On the image of the measurement object displayed on the display unit, the designation of the height designation position is accepted by the position designation unit,
The shape measuring method, which is a step of adjusting the focal point by the optical axis direction driving unit so that the focal point of the light receiving unit coincides with the height designation position designated by the position designation unit.
測定対象物の高さ情報を含む立体形状データを生成して形状を測定するための形状測定プログラムであって、
測定の対象となる測定対象物が載置されたステージを、受光部の光軸方向と直交するステージ平面における測定範囲内で相対的に位置決めさせた状態で、前記ステージを前記受光部に対して光軸方向に相対的に移動させて、前記受光部の焦点位置を光軸方向駆動部で調整する機能と、
前記測定範囲内において前記光軸方向駆動部で調整された焦点位置を、立体形状データを取得する基準となる深度方向の位置を示す高さ指定位置として、測定対象物に対してパターン光を投光部から投光し、測定対象物で反射されたパターン光を受光部で受光して、受光データに基づいて、前記測定範囲内に存在する測定対象物の高さ情報を画素毎に、パターン投影法で測定した立体形状データを生成する機能と、
前記測定範囲において異なる焦点位置に前記光軸方向駆動部で調整し、前記異なる焦点位置を高さ指定位置として前記立体形状データ生成部により立体形状データを生成する作業を繰り返し、得られた複数の立体形状データを合成して、合成立体形状データを生成する機能と、
生成された画像を表示部上に表示させる機能と、
をコンピュータに実現させるための形状測定プログラム。
A shape measurement program for generating solid shape data including height information of a measurement object and measuring the shape,
In a state where the stage on which the measurement object to be measured is placed is relatively positioned within the measurement range on the stage plane orthogonal to the optical axis direction of the light receiving unit, the stage is positioned with respect to the light receiving unit. A function of relatively moving in the optical axis direction and adjusting the focal position of the light receiving unit by the optical axis direction driving unit;
Within the measurement range, the focus position adjusted by the optical axis direction driving unit is used as a height designation position indicating a position in the depth direction as a reference for acquiring the three-dimensional shape data, and pattern light is projected onto the measurement target. The pattern light projected from the light part and reflected by the measurement object is received by the light receiving part, and the height information of the measurement object existing in the measurement range is patterned for each pixel based on the light reception data. A function to generate solid shape data measured by the projection method;
The optical axis direction drive unit adjusts to different focal positions in the measurement range, and repeats the operation of generating the solid shape data by the solid shape data generation unit using the different focal positions as height designation positions. A function of generating three-dimensional shape data by combining three-dimensional shape data;
A function to display the generated image on the display unit;
A shape measurement program for realizing a computer.
請求項13に記載の形状測定プログラムであって、さらに、
前記表示部上に表示された測定対象物の画像上で、前記高さ指定位置の指定を受け付ける機能をコンピュータに実現させ、
前記指定された高さ指定位置に、前記受光部の焦点が一致するように、前記光軸方向駆動部で焦点を調整して、前記立体形状データ生成部で該焦点の調整された高さ指定位置を基準として立体形状データを生成する形状測定プログラム。
The shape measurement program according to claim 13, further comprising:
On the image of the measurement object displayed on the display unit, causing the computer to receive a function of accepting the designation of the height designation position,
The optical axis direction drive unit adjusts the focal point so that the focal point of the light receiving unit coincides with the designated height designation position, and the three-dimensional shape data generation unit adjusts the focal point. A shape measurement program that generates three-dimensional shape data based on a position.
請求項14又は15に記載のプログラムを記録したコンピュータで読み取り可能な記録媒体又は記録した機器。   A computer-readable recording medium or a recorded device on which the program according to claim 14 or 15 is recorded.
JP2018081913A 2018-04-20 2018-04-20 Shape measuring device, shape measuring method, shape measuring program, computer-readable recording medium, and recorded equipment Active JP7157546B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018081913A JP7157546B2 (en) 2018-04-20 2018-04-20 Shape measuring device, shape measuring method, shape measuring program, computer-readable recording medium, and recorded equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018081913A JP7157546B2 (en) 2018-04-20 2018-04-20 Shape measuring device, shape measuring method, shape measuring program, computer-readable recording medium, and recorded equipment

Publications (2)

Publication Number Publication Date
JP2019190918A true JP2019190918A (en) 2019-10-31
JP7157546B2 JP7157546B2 (en) 2022-10-20

Family

ID=68389870

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018081913A Active JP7157546B2 (en) 2018-04-20 2018-04-20 Shape measuring device, shape measuring method, shape measuring program, computer-readable recording medium, and recorded equipment

Country Status (1)

Country Link
JP (1) JP7157546B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014055812A (en) * 2012-09-11 2014-03-27 Keyence Corp Shape measuring device, shape measuring method, and shape measuring program
JP2014092490A (en) * 2012-11-05 2014-05-19 Keyence Corp Shape measurement device, shape measurement method and shape measurement program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014055812A (en) * 2012-09-11 2014-03-27 Keyence Corp Shape measuring device, shape measuring method, and shape measuring program
JP2014092490A (en) * 2012-11-05 2014-05-19 Keyence Corp Shape measurement device, shape measurement method and shape measurement program

Also Published As

Publication number Publication date
JP7157546B2 (en) 2022-10-20

Similar Documents

Publication Publication Date Title
JP7137346B2 (en) Image observation device, image observation method, image observation program, and computer-readable recording medium
JP7137345B2 (en) Shape measuring device, shape measuring method, shape measuring program, computer-readable recording medium, and recorded equipment
US10508902B2 (en) Three-dimensional measurement device
JP6029394B2 (en) Shape measuring device
JP7157547B2 (en) Shape measuring device, shape measuring method and shape measuring program
US9970745B2 (en) Measurement target measuring program, measurement target measuring method, and magnifying observation device
JP2019190919A (en) Shape measuring device, shape measuring method, shape measuring program, computer readable recording medium, and recorded apparatus
JP6279048B2 (en) Shape measuring device
JP2014106094A (en) Shape measurement device
JP4536422B2 (en) Magnification observation apparatus, magnification image observation method, magnification observation operation program, and computer-readable recording medium or recorded apparatus
US10244241B2 (en) Pyramidal file structure and method of use thereof
US9729854B2 (en) System and method for scanning a specimen to create a multidimensional scan
JP4536421B2 (en) Magnification observation apparatus, magnification image observation method, magnification observation operation program, and computer-readable recording medium or recorded apparatus
JP7157546B2 (en) Shape measuring device, shape measuring method, shape measuring program, computer-readable recording medium, and recorded equipment
US10704899B2 (en) Shape measuring device and shape measuring method
JP7128646B2 (en) Shape measuring device
JP2004012192A (en) Measuring microscope device, its display method, and its display program
JP7181716B2 (en) Shape measuring device, shape measuring method, shape measuring program, and computer-readable recording medium
JP2022127537A (en) Enlarging observation device, enlarged image observation method, enlarged image observation program, and computer-readable recording medium, and apparatus storing program
JP2005114713A (en) Magnification observation device, method of observing magnified image, operation program for magnification observation, and computer-readable recording medium
JP2014134389A (en) Shape measurement device, shape measurement method and shape measurement program
US20220269062A1 (en) Magnified observation apparatus
JP7308689B2 (en) 3D shape measuring device
JP2022127535A (en) Enlarging observation device, enlarged image observation method, enlarged image observation program, and computer-readable recording medium, and apparatus storing program
CN117804372A (en) Three-dimensional shape data generating device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210329

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221007

R150 Certificate of patent or registration of utility model

Ref document number: 7157546

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150