JP2018063157A - Shape measuring device - Google Patents

Shape measuring device Download PDF

Info

Publication number
JP2018063157A
JP2018063157A JP2016201051A JP2016201051A JP2018063157A JP 2018063157 A JP2018063157 A JP 2018063157A JP 2016201051 A JP2016201051 A JP 2016201051A JP 2016201051 A JP2016201051 A JP 2016201051A JP 2018063157 A JP2018063157 A JP 2018063157A
Authority
JP
Japan
Prior art keywords
light
measurement
unit
pixel
distance information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016201051A
Other languages
Japanese (ja)
Inventor
藤本 隆司
Takashi Fujimoto
隆司 藤本
明 冬野
Akira Tono
明 冬野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keyence Corp
Original Assignee
Keyence Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keyence Corp filed Critical Keyence Corp
Priority to JP2016201051A priority Critical patent/JP2018063157A/en
Publication of JP2018063157A publication Critical patent/JP2018063157A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a shape measuring device that can improve reliability of distance image data.SOLUTION: A distance image creation part 21 creates, on the basis of measurement light received from a light receiving part, distance information on an area corresponding to every pixel of the light receiving part and creates distance image data including the distance information corresponding to the plurality of pixels. A determination part 22 determines whether height data corresponding to a pixel to be determined is calculated on the basis of stray light on the basis of the maximum amount of light received by the pixel to be determined, height data corresponding to the pixel to be determined, maximum amount of light received by pixels on the periphery of the pixel to be determined, and height information corresponding to the pixels on the periphery of the pixel to be determined.SELECTED DRAWING: Figure 14

Description

本発明は、測定対象物の形状を測定する形状測定装置に関する。   The present invention relates to a shape measuring apparatus for measuring the shape of a measurement object.

測定対象物の表面に光を照射し、その反射光に基づいて測定対象物の表面形状を測定する形状測定装置がある。このような形状測定装置の一例として、特許文献1には、干渉法によって測定を行うコヒーレンス走査干渉計が記載されている。このコヒーレンス走査干渉計においては、光源から発生した光が、物体に照射される測定光と基準ミラーに照射される基準光とに分割される。物体に反射された測定光と基準ミラーに反射された基準光とが重畳され、カメラにより検出される。光源およびカメラ等を含む光学系が物体に対して相対的に移動される状態で、カメラにより画像が取得される。取得された画像における干渉縞の間隔に基づいて、物体の表面高さが算出される。   There is a shape measuring device that irradiates the surface of a measurement object with light and measures the surface shape of the measurement object based on the reflected light. As an example of such a shape measuring apparatus, Patent Document 1 describes a coherence scanning interferometer that performs measurement by an interferometry. In this coherence scanning interferometer, light generated from a light source is divided into measurement light irradiated on an object and reference light irradiated on a reference mirror. The measurement light reflected by the object and the reference light reflected by the reference mirror are superimposed and detected by the camera. An image is acquired by the camera while the optical system including the light source and the camera is moved relative to the object. The surface height of the object is calculated based on the interval between the interference fringes in the acquired image.

特開2013−83649号公報JP2013-83649A

上記のような形状測定装置においては、受光部(カメラ)の各画素が、測定対象物の表面の各領域で反射された光を受光する。しかしながら、測定対象物の表面の形状および反射率等によっては、各画素に、対応する領域とは異なる領域からの反射光が迷光として入射することがある。そのため、取得される画像の信頼性が低くなり、誤った表面高さが算出される可能性がある。   In the shape measuring apparatus as described above, each pixel of the light receiving unit (camera) receives light reflected by each region of the surface of the measurement object. However, depending on the shape and reflectance of the surface of the measurement object, reflected light from a region different from the corresponding region may be incident on each pixel as stray light. Therefore, the reliability of the acquired image is lowered, and there is a possibility that an incorrect surface height is calculated.

本発明の目的は、距離画像データの信頼性を高めることが可能な形状測定装置を提供することである。   An object of the present invention is to provide a shape measuring device capable of improving the reliability of distance image data.

(1)本発明に係る形状測定装置は、測定対象物の表面形状を測定する形状測定装置であって、光を出射する投光部と、二次元に配列された複数の画素を含む受光部と、投光部により出射された光を測定光として測定対象物に導き、測定対象物で反射された測定光を受光部に導く光学系と、受光部により受光された測定光に基づいて、画素毎に測定対象物の対応する領域の距離情報を生成し、生成した複数の画素に対応する複数の距離情報を含む距離画像データを生成する距離画像生成手段と、受光部の一の画素の受光量、一の画素に対応する距離情報、一の画素の周辺の1以上の画素の各々の受光量、および1以上の画素に対応する1以上の距離情報に基づいて、一の画素に対応する距離情報が迷光に基づいて生成されたか否かを判定する判定手段とを備える。   (1) A shape measuring apparatus according to the present invention is a shape measuring apparatus that measures the surface shape of a measurement object, and includes a light projecting unit that emits light and a light receiving unit that includes a plurality of pixels arranged two-dimensionally. And, based on the measurement light received by the light receiving unit, an optical system that guides the light emitted by the light projecting unit to the measurement target as measurement light, guides the measurement light reflected by the measurement target to the light receiving unit, Distance information generating means for generating distance information of a corresponding region of the measurement object for each pixel, generating distance image data including a plurality of distance information corresponding to the generated plurality of pixels, and one pixel of the light receiving unit Corresponds to one pixel based on received light amount, distance information corresponding to one pixel, received light amount of each of one or more pixels around one pixel, and one or more distance information corresponding to one or more pixels Whether or not distance information to be generated is generated based on stray light And a constant section.

この形状測定装置においては、測定対象物で反射された測定光が二次元に配列された複数の画素を含む受光部により受光される。この場合、受光部の各画素に、測定対象物の対応する領域で反射された測定光が入射する。受光部により受光された測定光に基づいて、各画素に対応する測定対象物の領域の距離情報が生成され、複数の画素に対応する距離情報を含む距離画像データが生成される。   In this shape measuring apparatus, the measurement light reflected by the measurement object is received by a light receiving unit including a plurality of pixels arranged two-dimensionally. In this case, the measurement light reflected by the corresponding region of the measurement object is incident on each pixel of the light receiving unit. Based on the measurement light received by the light receiving unit, distance information of the region of the measurement object corresponding to each pixel is generated, and distance image data including distance information corresponding to a plurality of pixels is generated.

受光部の各画素には、対応する領域とは異なる領域で反射された測定光が迷光として入射することがある。その場合、迷光に基づいて距離情報が誤って生成されることがある。そこで、受光部の一の画素の受光量、一の画素に対応する距離情報、一の画素の周辺の1以上の画素の各々の受光量、および1以上の画素に対応する1以上の距離情報に基づいて、一の画素に対応する距離情報が迷光に基づいて生成されたか否かが判定される。これにより、各画素に対応する距離情報の信頼性を判定することができる。したがって、距離画像データの信頼性を高めることができる。   In some cases, measurement light reflected in a region different from the corresponding region may be incident on each pixel of the light receiving unit as stray light. In that case, the distance information may be erroneously generated based on the stray light. Therefore, the amount of light received by one pixel of the light receiving unit, distance information corresponding to one pixel, the amount of light received by one or more pixels around one pixel, and one or more distance information corresponding to one or more pixels. Based on the above, it is determined whether distance information corresponding to one pixel has been generated based on stray light. Thereby, the reliability of the distance information corresponding to each pixel can be determined. Therefore, the reliability of the distance image data can be improved.

(2)形状測定装置は、判定基準の調整を受け付ける判定基準受付手段をさらに備え、判定手段は、判定基準受付手段により調整された判定基準に基づいて、一の画素に対応する距離情報が迷光に基づいて生成されたか否かを判定してもよい。この場合、使用者は、判定手段によって適切に判定が行われるように、判定基準を調整することができる。   (2) The shape measuring apparatus further includes a determination criterion receiving unit that receives adjustment of the determination criterion, and the determination unit determines that the distance information corresponding to one pixel is stray light based on the determination criterion adjusted by the determination criterion receiving unit. It may be determined whether or not it has been generated based on the above. In this case, the user can adjust the determination criterion so that the determination is appropriately performed by the determination unit.

(3)判定手段は、一の画素に対応する距離情報と周辺の1以上の画素に対応する1以上の距離情報との一致度と、周辺の1以上の画素の各々の受光量に基づいて、一の画素に対応する距離情報が迷光に基づいて生成されたか否かを判定してもよい。この場合、距離情報の信頼性を適切に判定することができる。   (3) The determination means is based on the degree of coincidence between the distance information corresponding to one pixel and the one or more distance information corresponding to one or more neighboring pixels, and the amount of light received by each of the one or more neighboring pixels. It may be determined whether distance information corresponding to one pixel is generated based on stray light. In this case, the reliability of distance information can be determined appropriately.

(4)形状測定装置は、判定手段により迷光に基づいて生成されていないと判定された距離情報に基づいて測定対象物の形状に関する計測値を算出し、判定手段により迷光に基づいて生成されたと判定された距離情報に基づいて計測値を算出しない算出手段をさらに備えてもよい。この場合、誤った距離情報に基づいて計測値が算出されることが防止される。   (4) The shape measuring device calculates a measurement value related to the shape of the measurement object based on the distance information determined not to be generated based on the stray light by the determination unit, and is generated based on the stray light by the determination unit. You may further provide the calculation means which does not calculate a measured value based on the determined distance information. In this case, the measurement value is prevented from being calculated based on incorrect distance information.

(5)形状測定装置は、参照体と、光学系および参照体のうち少なくとも一方が取り付けられる可動部と、可動部を往復移動可能に支持する支持部と、支持部に対する可動部の相対位置を検出する位置検出部とをさらに備え、投光部は、複数のピーク波長を有する光を出射し、光学系は、投光部により出射された光を参照光として参照体に導き、測定対象物で反射された測定光と測定対象物で反射された参照光との干渉光を生成し、生成した干渉光を受光部に導き、可動部は、往復移動することにより測定光の光路長と参照光の光路長との差を変化させ、画像生成手段は、受光部により受光された干渉光および位置検出部により検出された相対位置に基づいて、距離画像データを生成してもよい。   (5) The shape measuring device includes a reference body, a movable part to which at least one of the optical system and the reference body is attached, a support part that supports the movable part so as to be able to reciprocate, and a relative position of the movable part with respect to the support part. A position detecting unit for detecting, the light projecting unit emits light having a plurality of peak wavelengths, and the optical system guides the light emitted by the light projecting unit to the reference body as reference light, and the measurement object The interference light between the measurement light reflected by and the reference light reflected by the measurement object is generated, the generated interference light is guided to the light receiving unit, and the movable unit reciprocally moves to reference the optical path length of the measurement light and the reference light. The image generation means may generate the distance image data based on the interference light received by the light receiving unit and the relative position detected by the position detection unit by changing a difference from the optical path length of the light.

この場合、受光部の複数の画素から、測定光の光路長と参照光の光路長との差によって変化する受光量の干渉パターンが取得される。測定光および参照光は複数のピーク波長を有するので、受光量の干渉パターンは空間周期性を示さない。したがって、位置検出部により検出された支持部に対する可動部の相対位置と受光部の各画素の受光量とに基づいて、受光部の複数の画素に対応する距離情報を生成することができる。   In this case, the interference pattern of the received light amount that varies depending on the difference between the optical path length of the measurement light and the optical path length of the reference light is obtained from the plurality of pixels of the light receiving unit. Since the measurement light and the reference light have a plurality of peak wavelengths, the interference pattern of the amount of received light does not show spatial periodicity. Therefore, distance information corresponding to a plurality of pixels of the light receiving unit can be generated based on the relative position of the movable unit with respect to the support unit detected by the position detection unit and the amount of light received by each pixel of the light receiving unit.

本発明によれば、距離画像データの信頼性を高めることが可能となる。   According to the present invention, it is possible to improve the reliability of distance image data.

本発明の一実施の形態に係る形状測定装置の構成を示すブロック図である。It is a block diagram which shows the structure of the shape measuring apparatus which concerns on one embodiment of this invention. 測定ヘッドの模式図である。It is a schematic diagram of a measurement head. 可動部の振動を示す図である。It is a figure which shows the vibration of a movable part. 任意の画素について受光部により取得されるべき受光量分布を示す図である。It is a figure which shows the light reception amount distribution which should be acquired by the light-receiving part about arbitrary pixels. 図1の表示部に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on the display part of FIG. サーチ条件の設定について説明するための図である。It is a figure for demonstrating the setting of search conditions. 計測条件の設定例について説明するための図である。It is a figure for demonstrating the example of a setting of measurement conditions. 計測画像データに対する計測処理について説明するための図である。It is a figure for demonstrating the measurement process with respect to measurement image data. 計測画像データに対する計測処理について説明するための図である。It is a figure for demonstrating the measurement process with respect to measurement image data. 迷光の例について説明するための模式図である。It is a schematic diagram for demonstrating the example of a stray light. 画素の受光量を示す図である。It is a figure which shows the light reception amount of a pixel. 迷光判定について説明するための模式図である。It is a schematic diagram for demonstrating stray light determination. フィルタレベル調整画面の例を示す図である。It is a figure which shows the example of a filter level adjustment screen. 制御基板および記憶部により実現される機能を示す機能ブロック図である。It is a functional block diagram which shows the function implement | achieved by a control board and a memory | storage part. 制御基板のCPUの動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of CPU of a control board.

以下、本発明の実施の形態に係る光学式エリア変位計について、図面を用いて詳細に説明する。   Hereinafter, an optical area displacement meter according to an embodiment of the present invention will be described in detail with reference to the drawings.

(1)形状測定装置の基本構成
図1は、本発明の一実施の形態に係る形状測定装置の構成を示すブロック図である。図1に示すように、形状測定装置300は、測定ヘッド100および処理装置200を備える。測定ヘッド100は、例えば光学式変位計であり、支持構造110、筐体部120、測定部130、往復機構140、駆動部150、制御基板160および通信部170を含む。
(1) Basic Configuration of Shape Measuring Device FIG. 1 is a block diagram showing a configuration of a shape measuring device according to an embodiment of the present invention. As shown in FIG. 1, the shape measuring apparatus 300 includes a measuring head 100 and a processing apparatus 200. The measurement head 100 is, for example, an optical displacement meter, and includes a support structure 110, a casing unit 120, a measurement unit 130, a reciprocating mechanism 140, a drive unit 150, a control board 160, and a communication unit 170.

支持構造110は、縦断面がL字形状を有し、設置部111および保持部112を含む。設置部111および保持部112は、例えば金属により形成される。設置部111は、水平な平板形状を有し、設置面に設置される。設置部111の上面には、測定対象物Sが載置される。本例では、設置部111の上面に平行で互いに直交するX軸およびY軸が定義されるとともに、設置部111の上面に対して垂直なZ軸が定義される。図1には、X軸、Y軸およびZ軸の方向を表す矢印が付される。   The support structure 110 has an L-shaped longitudinal section and includes an installation part 111 and a holding part 112. The installation part 111 and the holding part 112 are made of metal, for example. The installation unit 111 has a horizontal flat plate shape and is installed on the installation surface. The measuring object S is placed on the upper surface of the installation unit 111. In this example, an X axis and a Y axis that are parallel to and orthogonal to the upper surface of the installation unit 111 are defined, and a Z axis that is perpendicular to the upper surface of the installation unit 111 is defined. In FIG. 1, arrows indicating the directions of the X axis, the Y axis, and the Z axis are attached.

保持部112は、設置部111の一端部から上方に延びるように設けられる。筐体部120は、支持構造110の保持部112に保持される。筐体部120は、直方体形状を有し、測定部130、往復機構140、駆動部150、制御基板160および通信部170を収容する。   The holding part 112 is provided so as to extend upward from one end of the installation part 111. The casing unit 120 is held by the holding unit 112 of the support structure 110. The casing 120 has a rectangular parallelepiped shape, and houses the measuring unit 130, the reciprocating mechanism 140, the driving unit 150, the control board 160, and the communication unit 170.

測定部130は、投光部、受光部、レンズおよびミラー等の光学素子を含む。測定部130は、後述する図2のミラー11等の一部の素子を除き、往復機構140に取り付けられる。往復機構140は、駆動部150により後述する図2の支持部125に対して一方向に往復運動(振動)する。駆動部150は、アクチュエータであり、本例ではボイスコイルモータである。   The measurement unit 130 includes optical elements such as a light projecting unit, a light receiving unit, a lens, and a mirror. The measurement unit 130 is attached to the reciprocating mechanism 140 except for some elements such as the mirror 11 of FIG. The reciprocating mechanism 140 reciprocates (vibrates) in one direction with respect to a support portion 125 of FIG. The drive unit 150 is an actuator, and is a voice coil motor in this example.

制御基板160は、CPU(中央演算処理装置)160aを含む。制御基板160は、測定部130から後述する測定データを取得し、取得された測定データに基づいて画素データを生成するとともに画像データを生成する。画像データは複数の画素データの集合である。制御基板160は、生成された画像データを処理装置200に与えるとともに、処理装置200による指令に基づいて測定部130、往復機構140および駆動部150の動作を制御する。   The control board 160 includes a CPU (Central Processing Unit) 160a. The control board 160 acquires measurement data described later from the measurement unit 130, generates pixel data based on the acquired measurement data, and generates image data. Image data is a set of a plurality of pixel data. The control board 160 supplies the generated image data to the processing device 200 and controls the operations of the measurement unit 130, the reciprocating mechanism 140, and the driving unit 150 based on instructions from the processing device 200.

通信部170は、通信インターフェイスを含む。後述する処理装置200の通信部250も同様である。通信部170は、通信部250を通して測定ヘッド100と処理装置200との間で種々のデータおよび指令の送信および受信を行う。測定ヘッド100の詳細については後述する。   Communication unit 170 includes a communication interface. The same applies to a communication unit 250 of the processing device 200 described later. The communication unit 170 transmits and receives various data and commands between the measurement head 100 and the processing device 200 through the communication unit 250. Details of the measuring head 100 will be described later.

処理装置200は、制御部210、記憶部220、操作部230、表示部240および通信部250を含む。制御部210は、例えばCPUを含む。記憶部220は、例えばROM(リードオンリメモリ)、RAM(ランダムアクセスメモリ)およびHDD(ハードディスクドライブ)を含む。記憶部220には、システムプログラムが記憶される。また、記憶部220は、種々のデータの記憶およびデータの処理のために用いられる。   The processing device 200 includes a control unit 210, a storage unit 220, an operation unit 230, a display unit 240, and a communication unit 250. The control unit 210 includes a CPU, for example. The storage unit 220 includes, for example, a ROM (read only memory), a RAM (random access memory), and an HDD (hard disk drive). The storage unit 220 stores a system program. The storage unit 220 is used for storing various data and processing data.

制御部210は、記憶部220に記憶されたシステムプログラムに基づいて、測定ヘッド100の測定部130、往復機構140および駆動部150の動作を制御するための指令を制御基板160に与える。また、制御部210は、制御基板160から画像データを取得して記憶部220に記憶させる。さらに、制御部210は、画像データに基づく画像上において使用者に指定された部分の計測等を行う。   Based on the system program stored in the storage unit 220, the control unit 210 gives a command for controlling the operations of the measurement unit 130, the reciprocating mechanism 140, and the drive unit 150 of the measurement head 100 to the control board 160. In addition, the control unit 210 acquires image data from the control board 160 and stores it in the storage unit 220. Further, the control unit 210 measures a portion designated by the user on the image based on the image data.

操作部230は、マウス、タッチパネル、トラックボールまたはジョイスティック等のポインティングデバイスおよびキーボードを含み、制御部210に指示を与えるために使用者により操作される。表示部240は、例えばLCD(液晶ディスプレイ)パネルまたは有機EL(エレクトロルミネッセンス)パネルを含む。表示部240は、記憶部220に記憶された画像データに基づく画像および計測結果等を表示する。通信部250は、上記のように測定ヘッド100との通信を行う。また、通信部250は、PLC(プログラマブルロジックコントローラ)等の外部装置との通信を行うことができる。   The operation unit 230 includes a mouse, a touch panel, a pointing device such as a trackball or a joystick, and a keyboard, and is operated by a user to give an instruction to the control unit 210. The display unit 240 includes, for example, an LCD (liquid crystal display) panel or an organic EL (electroluminescence) panel. The display unit 240 displays an image based on the image data stored in the storage unit 220, a measurement result, and the like. The communication unit 250 communicates with the measurement head 100 as described above. The communication unit 250 can communicate with an external device such as a PLC (programmable logic controller).

(2)測定部の構成
図2は、主として測定部130の構成を示す測定ヘッド100の模式図である。図2に示すように、筐体部120には、支持部125が収容される。支持部125は、筐体部120と一体的に形成されてもよいし、筐体部120の一部であってもよい。往復機構140は、支持部125に対して一方向に平行に振動可能な可動部141を含む。図2には、可動部141の振動方向が太い矢印で図示される。図2の例では、可動部141の振動方向は上下方向である。
(2) Configuration of Measurement Unit FIG. 2 is a schematic diagram of the measurement head 100 mainly showing the configuration of the measurement unit 130. As shown in FIG. 2, a support part 125 is accommodated in the housing part 120. The support part 125 may be formed integrally with the housing part 120 or may be a part of the housing part 120. The reciprocating mechanism 140 includes a movable portion 141 that can vibrate in parallel with the support portion 125 in one direction. In FIG. 2, the vibration direction of the movable portion 141 is indicated by a thick arrow. In the example of FIG. 2, the vibration direction of the movable part 141 is the vertical direction.

測定部130は、投光部1、受光部2,3、複数のレンズ4〜8、複数のミラー9〜11、ビームスプリッタ12、アナモルフィックプリズムペア13、位置検出部14およびガイド光源15を含む。測定部130のミラー11および位置検出部14の一部は、支持部125に取り付けられる。一方、ミラー11および位置検出部14の一部を除く測定部130は、可動部141に取り付けられる。   The measuring unit 130 includes a light projecting unit 1, light receiving units 2 and 3, a plurality of lenses 4 to 8, a plurality of mirrors 9 to 11, a beam splitter 12, an anamorphic prism pair 13, a position detecting unit 14, and a guide light source 15. Including. Part of the mirror 11 and the position detection unit 14 of the measurement unit 130 are attached to the support unit 125. On the other hand, the measurement unit 130 excluding a part of the mirror 11 and the position detection unit 14 is attached to the movable unit 141.

投光部1は、例えばSLD(スーパールミネッセントダイオード)を含み、光を出射する。投光部1により出射される光を出射光L0と呼ぶ。出射光L0のコヒーレンス性は比較的低い。具体的には、出射光L0のコヒーレンス性は、LED(発光ダイオード)により出射される光または白色光のコヒーレンス性よりも高く、レーザ光のコヒーレンス性よりも低い。したがって、出射光L0は複数のピーク波長を有する。レンズ4は、コリメータレンズである。出射光L0は、レンズ4を透過することにより平行化され、アナモルフィックプリズムペア13を透過することにより断面が円形になるように整形される。   The light projecting unit 1 includes, for example, an SLD (super luminescent diode) and emits light. The light emitted from the light projecting unit 1 is referred to as outgoing light L0. The coherence of the emitted light L0 is relatively low. Specifically, the coherence of the emitted light L0 is higher than the light emitted from the LED (light emitting diode) or white light, and lower than the coherence of the laser light. Therefore, the emitted light L0 has a plurality of peak wavelengths. The lens 4 is a collimator lens. The outgoing light L0 is collimated by passing through the lens 4 and shaped so as to have a circular cross section by passing through the anamorphic prism pair 13.

なお、出射光L0の一部は、アナモルフィックプリズムペア13を透過せずに反射される。アナモルフィックプリズムペア13により反射された出射光L0は、受光部3により受光され、受光量を示す受光信号が制御基板160(図1)に出力される。受光部3により出力される受光信号に基づいて、出射光L0の光量が制御基板160により計測される。計測された出射光L0の光量が異常値を示すときは、制御基板160により投光部1の動作が停止される。このように、測定に利用されない出射光を用いて、出射光の光量を管理することができる。   A part of the emitted light L0 is reflected without passing through the anamorphic prism pair 13. The outgoing light L0 reflected by the anamorphic prism pair 13 is received by the light receiving unit 3, and a received light signal indicating the amount of received light is output to the control board 160 (FIG. 1). Based on the light reception signal output from the light receiving unit 3, the amount of the emitted light L 0 is measured by the control board 160. When the measured amount of the emitted light L0 indicates an abnormal value, the operation of the light projecting unit 1 is stopped by the control board 160. In this way, the amount of emitted light can be managed using the emitted light that is not used for measurement.

ミラー9の反射率は、波長選択性を有する。具体的には、ミラー9は、出射光L0の波長領域においては高い反射率(好ましくは100%)を有し、後述するガイド光Gの波長領域においては100%よりも低い反射率を有する。アナモルフィックプリズムペア13を透過した出射光L0は、ミラー9により反射された後、レンズ5を透過することにより集光されつつビームスプリッタ12に入射する。   The reflectivity of the mirror 9 has wavelength selectivity. Specifically, the mirror 9 has a high reflectance (preferably 100%) in the wavelength region of the outgoing light L0, and has a reflectance lower than 100% in the wavelength region of the guide light G described later. The outgoing light L0 that has passed through the anamorphic prism pair 13 is reflected by the mirror 9, and then enters the beam splitter 12 while being condensed by passing through the lens 5.

出射光L0の一部はビームスプリッタ12により反射され、出射光L0の残りの一部はビームスプリッタ12を透過する。ビームスプリッタ12により反射された出射光L0およびビームスプリッタ12を透過した出射光L0をそれぞれ測定光L1および参照光L2と呼ぶ。   A part of the emitted light L0 is reflected by the beam splitter 12 and the remaining part of the emitted light L0 is transmitted through the beam splitter 12. The outgoing light L0 reflected by the beam splitter 12 and the outgoing light L0 transmitted through the beam splitter 12 are referred to as measurement light L1 and reference light L2, respectively.

レンズ6は対物レンズである。測定光L1は、レンズ6を透過することにより平行化される。このときの測定光L1のスポット径は比較的大きく、例えば4mmまたは10mmである。その後、測定光L1は、可動部141の振動方向と略同一の方向に進行し、測定対象物Sの比較的大きい円形の領域に照射される。測定対象物Sにより反射された測定光L1の一部は、レンズ6を透過することにより集光されつつビームスプリッタ12に入射する。   The lens 6 is an objective lens. The measurement light L1 is collimated by passing through the lens 6. At this time, the spot diameter of the measurement light L1 is relatively large, for example, 4 mm or 10 mm. Thereafter, the measurement light L1 travels in substantially the same direction as the vibration direction of the movable portion 141, and is irradiated to a relatively large circular region of the measurement object S. A part of the measurement light L1 reflected by the measurement object S enters the beam splitter 12 while being condensed by passing through the lens 6.

ミラー10は、いわゆる参照ミラーである。参照光L2は、レンズ7を透過することにより平行化され、ミラー10に照射される。ミラー10により反射された参照光L2は、レンズ7を透過することにより集光されつつビームスプリッタ12に入射する。ビームスプリッタ12に入射した測定光L1と参照光L2とは干渉し、干渉光L3として受光部2に導かれる。受光部2の動作については後述する。   The mirror 10 is a so-called reference mirror. The reference light L <b> 2 is collimated by passing through the lens 7 and is applied to the mirror 10. The reference light L2 reflected by the mirror 10 enters the beam splitter 12 while being condensed by passing through the lens 7. The measurement light L1 incident on the beam splitter 12 interferes with the reference light L2, and is guided to the light receiving unit 2 as interference light L3. The operation of the light receiving unit 2 will be described later.

位置検出部14は、読取部14a,14b、スケール14cおよびマグネット14dを含む。読取部14a,14bは可動部141に取り付けられ、スケール14cおよびマグネット14dは支持部125に取り付けられる。スケール14cは、複数の目盛りを有し、一方向に延びるガラスにより形成される。読取部14aは、スケール14cの一部と対向するように配置される。読取部14aは、投光素子と受光素子とを含み、対向するスケール14cの部分の目盛りを光学的に読み取ることにより、支持部125に対する可動部141の相対的な位置を検出する。   The position detection unit 14 includes reading units 14a and 14b, a scale 14c, and a magnet 14d. The reading units 14 a and 14 b are attached to the movable unit 141, and the scale 14 c and the magnet 14 d are attached to the support unit 125. The scale 14c has a plurality of scales and is formed of glass extending in one direction. The reading unit 14a is arranged to face a part of the scale 14c. The reading unit 14a includes a light projecting element and a light receiving element, and detects the relative position of the movable unit 141 with respect to the support unit 125 by optically reading the scale of the opposing scale 14c.

読取部14bは、ホール素子であり、マグネット14dによる磁気を検出するように配置される。本実施の形態においては、読取部14bが最大の磁気を検出するときに読取部14aが読み取るスケール14cの部分を原点とする。スケール14cの原点は、測定ヘッド100の起動時に、またはその他の時点に適宜更新されてもよい。読取部14a,14bの検出結果により、可動部141の絶対的な位置を特定することが可能になる。   The reading unit 14b is a Hall element and is arranged to detect magnetism by the magnet 14d. In the present embodiment, the origin of the portion of the scale 14c read by the reading unit 14a when the reading unit 14b detects the maximum magnetism. The origin of the scale 14c may be updated as appropriate when the measuring head 100 is activated or at other times. Based on the detection results of the reading units 14a and 14b, the absolute position of the movable unit 141 can be specified.

本実施の形態において、読取部14a,14bが可動部141に取り付けられ、スケール14cおよびマグネット14dが支持部125に取り付けられるが、本発明はこれに限定されない。読取部14a,14bが支持部125に取り付けられ、スケール14cおよびマグネット14dが可動部141に取り付けられてもよい。   In the present embodiment, the reading units 14a and 14b are attached to the movable unit 141, and the scale 14c and the magnet 14d are attached to the support unit 125, but the present invention is not limited to this. The reading units 14 a and 14 b may be attached to the support unit 125, and the scale 14 c and the magnet 14 d may be attached to the movable unit 141.

また、本実施の形態において、読取部14aは可動部141の位置を光学的に検出するが、本発明はこれに限定されない。読取部14aは、可動部141の位置を例えば機械的、電気的または磁気的な他の方式により検出してもよい。さらに、読取部14aが可動部141の絶対的な位置を検出可能である場合、または可動部141の絶対的な位置を検出する必要がない場合には、位置検出部14は読取部14bおよびマグネット14dを含まなくてもよい。   In the present embodiment, the reading unit 14a optically detects the position of the movable unit 141, but the present invention is not limited to this. The reading unit 14a may detect the position of the movable unit 141 by, for example, other mechanical, electrical, or magnetic methods. Furthermore, when the reading unit 14a can detect the absolute position of the movable unit 141, or when it is not necessary to detect the absolute position of the movable unit 141, the position detection unit 14 includes the reading unit 14b and the magnet. 14d may not be included.

ガイド光源15は、可視領域(本例では赤色領域)の波長を有するレーザ光を出射するレーザ光源である。ガイド光源15により出射されるレーザ光をガイド光Gと呼ぶ。図2においては、ガイド光Gが一点鎖線で図示される。上述したように、ガイド光Gの波長領域においてはミラー9の反射率は100%よりも低いので、ガイド光Gの一部はミラー9を透過し、ガイド光Gの残りの一部はミラー9により反射される。ミラー9を透過したガイド光Gおよびミラー9により反射されたガイド光Gをそれぞれ第1のガイド光G1および第2のガイド光G2と呼ぶ。   The guide light source 15 is a laser light source that emits laser light having a wavelength in the visible region (red region in this example). The laser light emitted from the guide light source 15 is referred to as guide light G. In FIG. 2, the guide light G is illustrated by a one-dot chain line. As described above, since the reflectance of the mirror 9 is lower than 100% in the wavelength region of the guide light G, a part of the guide light G is transmitted through the mirror 9 and the remaining part of the guide light G is the mirror 9. It is reflected by. The guide light G transmitted through the mirror 9 and the guide light G reflected by the mirror 9 are referred to as a first guide light G1 and a second guide light G2, respectively.

第1のガイド光G1は、レンズ5を透過することにより集光され、ビームスプリッタ12に反射されることにより、測定光L1と重ねられる。これにより、第1のガイド光G1は、可動部141の振動方向と略同一の方向に進行し、レンズ6を透過することにより平行化された後、測定対象物Sに照射される。   The first guide light G1 is collected by passing through the lens 5 and reflected by the beam splitter 12, thereby being superimposed on the measurement light L1. As a result, the first guide light G1 travels in substantially the same direction as the vibration direction of the movable portion 141, is collimated by passing through the lens 6, and then irradiates the measurement object S.

第2のガイド光G2は、支持部125に取り付けられたミラー11により反射されることにより、第1のガイド光G1と交差する方向に進行する。可動部141が振動方向における所定の位置(例えばスケール14cの原点付近)にあるときに、第1のガイド光G1と第2のガイド光G2とが受光部2の焦点の位置で交差するようにミラー11が配置される。   The second guide light G2 travels in a direction crossing the first guide light G1 by being reflected by the mirror 11 attached to the support portion 125. When the movable portion 141 is at a predetermined position in the vibration direction (for example, near the origin of the scale 14c), the first guide light G1 and the second guide light G2 intersect at the focal position of the light receiving portion 2. A mirror 11 is arranged.

このように、ミラー9、ミラー11、ビームスプリッタ12およびガイド光源15によりガイド部16が構成される。この構成によれば、使用者は、第1のガイド光G1と第2のガイド光G2とが交差する位置に測定対象物Sの表面を配置することにより、測定対象物Sの表面を受光部2の焦点に容易に位置させることができる。   Thus, the guide part 16 is comprised by the mirror 9, the mirror 11, the beam splitter 12, and the guide light source 15. FIG. According to this configuration, the user arranges the surface of the measurement object S at a position where the first guide light G1 and the second guide light G2 intersect, so that the surface of the measurement object S is received by the light receiving unit. It can be easily located at the two focal points.

本実施の形態においては、ガイド光源15によるガイド光Gの出射は、後述する図3の非測定期間t2に行われ、測定期間t1には行われない。そのため、ガイド光Gにより測定対象物Sの測定に影響が与えられることが防止される。一方で、受光部2がガイド光Gの波長帯域の光を検出しないよう構成される場合など、ガイド光Gが測定対象物Sの測定に影響しない場合には、ガイド光源15は、測定期間t1にもガイド光Gを出射するように制御されてもよい。   In the present embodiment, the guide light G is emitted by the guide light source 15 during a non-measurement period t2 in FIG. 3 to be described later, and not during the measurement period t1. Therefore, the measurement of the measuring object S is prevented from being affected by the guide light G. On the other hand, when the guide light G does not affect the measurement of the measurement object S, such as when the light receiving unit 2 is configured not to detect light in the wavelength band of the guide light G, the guide light source 15 is used for the measurement period t1. Alternatively, the guide light G may be controlled to be emitted.

本実施の形態においては、ガイド部16は受光部2の焦点で第1および第2のガイド光G1,G2が交差するように配置されるが、本発明はこれに限定されない。ガイド部16は、測定対象物Sの表面が受光部2の焦点の位置にあるときに、測定対象物Sの表面に投影される第1のガイド光G1のパターンと第2のガイド光G2のパターンとが特定の位置関係を有するように配置されてもよい。   In the present embodiment, the guide unit 16 is arranged so that the first and second guide lights G1 and G2 intersect at the focal point of the light receiving unit 2, but the present invention is not limited to this. The guide unit 16 includes a pattern of the first guide light G1 and the second guide light G2 projected onto the surface of the measurement target S when the surface of the measurement target S is at the focal point of the light receiving unit 2. The pattern may be arranged to have a specific positional relationship.

(3)測定部の動作
可動部141は、駆動部150によりサンプリング信号に同期して、支持部125に対して周期的に一方向に平行に振動する。サンプリング信号は、処理装置200(図1)の内部で発生されてもよいし、処理装置200の外部から可動部141に与えられてもよい。図3は、可動部141の振動を示す図である。図3の横軸は時間を示し、可動部141の位置を示す。
(3) Operation of Measurement Unit The movable unit 141 is periodically oscillated in parallel with one direction with respect to the support unit 125 in synchronization with the sampling signal by the driving unit 150. The sampling signal may be generated inside the processing apparatus 200 (FIG. 1), or may be given to the movable unit 141 from the outside of the processing apparatus 200. FIG. 3 is a diagram illustrating the vibration of the movable portion 141. The horizontal axis in FIG. 3 indicates time and indicates the position of the movable portion 141.

図3に示すように、本実施の形態においては、可動部141の位置は、正弦曲線状に変化する。ここで、可動部141の位置が変化する期間のうち、一部の期間に測定対象物Sの測定が行われ、他の期間には測定対象物Sの測定が行われない。測定対象物Sの測定が行われる期間を測定期間t1と呼び、測定が行われない期間を非測定期間t2と呼ぶ。本実施の形態においては、図3の正弦曲線のうち略直線的に変化する部分に対応する期間が測定期間t1として割り当てられ、正弦曲線の変曲部分の付近に対応する期間が非測定期間t2として割り当てられる。   As shown in FIG. 3, in the present embodiment, the position of the movable portion 141 changes in a sinusoidal shape. Here, the measurement object S is measured during a part of the period in which the position of the movable portion 141 changes, and the measurement object S is not measured during the other period. A period during which measurement of the measuring object S is performed is referred to as a measurement period t1, and a period during which measurement is not performed is referred to as a non-measurement period t2. In the present embodiment, a period corresponding to a substantially linearly changing portion of the sine curve of FIG. 3 is assigned as the measurement period t1, and a period corresponding to the vicinity of the inflection portion of the sine curve is a non-measurement period t2. Assigned as.

制御基板160(図1)は、サンプリング信号に基づいて受光部2の受光タイミングを制御する。受光部2は、複数の画素が縦方向および横方向に配列された二次元のエリアセンサを含む。本実施の形態においては、エリアセンサの縦方向の画素数および横方向の画素数はそれぞれ300個であり、画素数の合計は90000個である。これにより、比較的大きいスポット径の干渉光L3を受光することができる。受光部2は、制御基板160による制御に基づいて、測定期間t1に各画素について可動部141の位置ごとに受光量を検出する。一方、受光部2は、非測定期間t2には受光量を検出しない。   The control board 160 (FIG. 1) controls the light reception timing of the light receiving unit 2 based on the sampling signal. The light receiving unit 2 includes a two-dimensional area sensor in which a plurality of pixels are arranged in the vertical direction and the horizontal direction. In the present embodiment, the area sensor has 300 pixels in the vertical direction and 300 pixels in the horizontal direction, and the total number of pixels is 90000. Thereby, the interference light L3 having a relatively large spot diameter can be received. Based on the control by the control board 160, the light receiving unit 2 detects the received light amount for each position of the movable unit 141 for each pixel during the measurement period t1. On the other hand, the light receiving unit 2 does not detect the amount of received light during the non-measurement period t2.

図4(a),(b)は、任意の画素について受光部2により取得されるべき受光量分布を示す図である。図4(a),(b)の横軸は測定光L1の光路長と参照光L2の光路長との差を示し、縦軸は検出される受光量を示す。以下、測定光L1の光路長と参照光L2の光路長との差を光路長差と呼ぶ。可動部141の位置が変化すると、参照光L2の光路長は変化しないが、測定光L1の光路長が変化するため、光路長差が変化する。   4A and 4B are diagrams showing the received light amount distribution to be acquired by the light receiving unit 2 for an arbitrary pixel. 4A and 4B, the horizontal axis indicates the difference between the optical path length of the measurement light L1 and the optical path length of the reference light L2, and the vertical axis indicates the amount of received light detected. Hereinafter, the difference between the optical path length of the measurement light L1 and the optical path length of the reference light L2 is referred to as an optical path length difference. When the position of the movable portion 141 changes, the optical path length of the reference light L2 does not change, but the optical path length of the measurement light L1 changes, so that the optical path length difference changes.

仮に、出射光L0のコヒーレンス性が高く、出射光L0が単一のピーク波長λを有する場合には、測定光L1および参照光L2は、光路長差がn×λとなるときに互いに強め合い、光路長差が(n+1/2)×λとなるときに互いに弱め合う。ここで、nは任意の整数である。そのため、図4(a)に示すように、受光量は、光路長差がピーク波長の半分だけ変化するごとに最大値と最小値との間で変動することとなる。   If the output light L0 has high coherence and the output light L0 has a single peak wavelength λ, the measurement light L1 and the reference light L2 reinforce each other when the optical path length difference is n × λ. When the optical path length difference is (n + 1/2) × λ, they weaken each other. Here, n is an arbitrary integer. For this reason, as shown in FIG. 4A, the amount of received light varies between the maximum value and the minimum value every time the optical path length difference changes by half the peak wavelength.

これに対し、出射光L0が複数のピーク波長を有する場合には、測定光L1および参照光L2が互いに強め合うときおよび互いに弱め合うときの光路長差は、ピーク波長ごとに異なる。そのため、ピーク波長ごとに異なる図4(a)と同様の受光量分布が足し合わされた受光量分布が取得される。具体的には、図4(b)に実線で示すように、小さい光路長差の範囲において、受光量分布に複数のピークが現れる。光路長差が0のときのピークの受光量が最大となり、光路長差が大きくなるほどピークの受光量は小さくなる。また、ピークが現れる光路長差の範囲は、出射光L0のコヒーレンス性が高いほど広い。   On the other hand, when the outgoing light L0 has a plurality of peak wavelengths, the optical path length difference when the measurement light L1 and the reference light L2 strengthen each other and weaken each other differs for each peak wavelength. Therefore, a received light amount distribution obtained by adding the same received light amount distribution as in FIG. 4A, which differs for each peak wavelength, is acquired. Specifically, as shown by a solid line in FIG. 4B, a plurality of peaks appear in the received light amount distribution in the range of a small optical path length difference. The peak received light amount when the optical path length difference is 0 is maximized, and the peak received light amount decreases as the optical path length difference increases. The range of the optical path length difference where the peak appears is wider as the coherence of the emitted light L0 is higher.

本実施の形態においては、受光部2は、図4(b)に点線で示すように、受光量分布の包絡線を特定し、特定された包絡線を示すデータを測定データとして制御基板160に与える。制御基板160は、取得した測定データにより示される包絡線に基づいて光路長差が0になる時点および最大受光量Imを特定する。ここで、出射光L0のコヒーレンス性はLEDにより出射される光のコヒーレンス性よりも高いため、LEDを使用した場合よりも広い光路長差の範囲においてピークが現れる。したがって、受光量の検出の頻度を低減させても、光路長差が0になる時点および最大受光量Imを正確に特定することができる。これにより、測定を高速化することができる。   In the present embodiment, the light receiving unit 2 specifies an envelope of the received light amount distribution as shown by a dotted line in FIG. 4B, and the control board 160 uses the data indicating the specified envelope as measurement data. give. The control board 160 specifies the time point when the optical path length difference becomes 0 and the maximum received light amount Im based on the envelope indicated by the acquired measurement data. Here, since the coherence of the emitted light L0 is higher than the coherence of the light emitted by the LED, a peak appears in a wider range of optical path lengths than when the LED is used. Therefore, even when the frequency of detecting the amount of received light is reduced, the time when the optical path length difference becomes 0 and the maximum amount of received light Im can be accurately specified. Thereby, the measurement can be speeded up.

また、制御基板160は、位置検出部14(図2)の検出結果に基づいて、受光部2により特定された時点における可動部141の位置を特定する。さらに、制御基板160は、特定された可動部141の位置および取得された最大受光量Imに基づいて画素データを生成する。可動部141の位置に基づいて生成される画素データを高さデータと呼び、最大受光量Imに基づいて生成される画素データを輝度データと呼ぶ。   Further, the control board 160 specifies the position of the movable unit 141 at the time point specified by the light receiving unit 2 based on the detection result of the position detection unit 14 (FIG. 2). Furthermore, the control board 160 generates pixel data based on the specified position of the movable part 141 and the acquired maximum received light amount Im. Pixel data generated based on the position of the movable portion 141 is referred to as height data, and pixel data generated based on the maximum received light amount Im is referred to as luminance data.

なお、取得された最大受光量を有効とするか否かのしきい値(以下、受光量しきい値と呼ぶ。)が設定されてもよい。種々の要因により、測定対象物Sからの反射光ではなく、ノイズによって最大受光量が生じる可能性がある。ノイズによる最大受光量は、比較的小さいことが多い。そこで、取得された最大受光量が受光量しきい値より小さい場合には、ノイズによる最大受光量であると判定され、高さデータが生成されない。これにより、信頼性が低い高さデータの生成が抑制される。また、使用者が受光量しきい値を任意に調整可能であってもよい。   Note that a threshold value (hereinafter referred to as a received light amount threshold value) for determining whether or not the acquired maximum received light amount is valid may be set. Due to various factors, there is a possibility that the maximum amount of received light is caused by noise rather than the reflected light from the measuring object S. The maximum amount of light received due to noise is often relatively small. Therefore, when the acquired maximum received light amount is smaller than the received light amount threshold value, it is determined that it is the maximum received light amount due to noise, and height data is not generated. Thereby, generation of height data with low reliability is suppressed. Further, the user may be able to arbitrarily adjust the received light amount threshold value.

制御基板160は、複数の画素データに基づいて画像データを生成する。高さデータに基づいて生成される画像データを高さ画像データと呼び、輝度データに基づいて生成される画像データを輝度画像データと呼ぶ。高さ画像データは測定対象物Sの表面の各部の形状(高さ)を示し、輝度画像データは測定対象物Sの表面の各部の輝度を表す。制御基板160は、生成された高さ画像データおよび輝度画像データを処理装置200(図1)に与える。   The control board 160 generates image data based on the plurality of pixel data. Image data generated based on the height data is referred to as height image data, and image data generated based on the luminance data is referred to as luminance image data. The height image data indicates the shape (height) of each part of the surface of the measuring object S, and the luminance image data indicates the luminance of each part of the surface of the measuring object S. The control board 160 gives the generated height image data and luminance image data to the processing device 200 (FIG. 1).

図1の表示部240は、高さ画像データに基づいて高さ画像を表示し、輝度画像データに基づいて輝度画像を表示する。高さ画像は、例えば、測定対象物Sの表面の各部の高さの違いを色の違いで表す。輝度画像は、例えば、測定対象物Sの表面の輝度の違いを色の違いで表す。また、高さ画像データおよび輝度画像データに基づいて、高さ画像の成分と輝度画像の成分とを含むブレンド画像が表示されてもよい。   The display unit 240 in FIG. 1 displays a height image based on the height image data, and displays a luminance image based on the luminance image data. The height image represents, for example, the difference in height of each part of the surface of the measurement object S by the difference in color. The luminance image represents, for example, a difference in luminance on the surface of the measuring object S by a difference in color. In addition, a blend image including a height image component and a luminance image component may be displayed based on the height image data and the luminance image data.

図5は、図1の表示部240に表示される画面の一例を示す図である。図5の画面は、画像表示部240a、計測値表示部240bを含む。画像表示部240aに、高さ画像、輝度画像またはブレンド画像が表示される。計測値表示部240bには、高さ画像データに基づいて算出される計測値等が表示される。   FIG. 5 is a diagram illustrating an example of a screen displayed on the display unit 240 of FIG. The screen of FIG. 5 includes an image display unit 240a and a measurement value display unit 240b. A height image, a luminance image, or a blend image is displayed on the image display unit 240a. The measurement value display unit 240b displays a measurement value calculated based on the height image data.

(4)計測例
本例では、測定対象物Sに対応する基準対象物の高さ画像データおよび輝度画像データが予め取得され、図1の記憶部220に記憶される。基準対象物は、測定対象物Sと同じ設計であり、設計値に対して測定対象物Sよりも高い寸法精度を有することが好ましい。
(4) Measurement Example In this example, height image data and luminance image data of a reference object corresponding to the measurement object S are acquired in advance and stored in the storage unit 220 in FIG. The reference object has the same design as the measurement object S, and preferably has a higher dimensional accuracy than the measurement object S with respect to the design value.

以下、基準対象物の高さ画像データおよび輝度画像データを総称して基準画像データと呼び、基準画像データにより表される高さ画像、輝度画像およびブレンド画像を総称して基準画像と呼ぶ。また、測定対象物Sの高さ画像データおよび輝度画像データを総称して計測画像データと呼び、計測画像データにより表される高さ画像、輝度画像およびブレンド画像を総称して計測画像と呼ぶ。さらに、以下の説明において、測定とは、高さ画像データおよび輝度画像データを取得することを意味し、計測とは、寸法等の計測値を取得することを意味する。   Hereinafter, the height image data and the luminance image data of the reference object are collectively referred to as reference image data, and the height image, the luminance image, and the blend image represented by the reference image data are collectively referred to as a reference image. The height image data and luminance image data of the measuring object S are collectively referred to as measurement image data, and the height image, luminance image, and blend image represented by the measurement image data are collectively referred to as measurement images. Further, in the following description, measurement means obtaining height image data and luminance image data, and measurement means obtaining measurement values such as dimensions.

基準画像データを用いて各種の設定が行われ、その設定内容が計測設定情報として図1の記憶部220に記憶される。記憶された計測設定情報に基づいて、計測画像データに対する計測処理が行われる。   Various settings are performed using the reference image data, and the settings are stored in the storage unit 220 of FIG. 1 as measurement setting information. Based on the stored measurement setting information, measurement processing for measurement image data is performed.

基準画像データに対して行われる設定として、サーチ条件の設定、および計測条件の設定がある。サーチ条件は、計測画像データに対してパターンサーチを行うための条件である。パターンサーチは、指定されたパターンを検出する処理である。図6は、サーチ条件の設定について説明するための図である。図6(a)には、画像表示部240aに表示される基準画像の例が示される。図6(a)の基準画像MIは、基準対象物Saを含む。   As settings for the reference image data, there are a search condition setting and a measurement condition setting. The search condition is a condition for performing a pattern search on the measurement image data. The pattern search is a process for detecting a designated pattern. FIG. 6 is a diagram for explaining setting of search conditions. FIG. 6A shows an example of a reference image displayed on the image display unit 240a. The reference image MI in FIG. 6A includes a reference object Sa.

図6(b)に示すように、画像表示部240aに表示される基準画像MIにおいて、指定枠C1,C2を用いて、パターン領域T1およびサーチ領域T2が設定される。本例では矩形状の指定枠C1,C2が用いられるが、指定枠C1,C2の形状は三角形または円形等の他の形状であってもよい。また、座標入力等の他の方法によりパターン領域T1およびサーチ領域T2が設定されてもよい。   As shown in FIG. 6B, in the reference image MI displayed on the image display unit 240a, the pattern area T1 and the search area T2 are set using the designation frames C1 and C2. In this example, rectangular designated frames C1 and C2 are used, but the designated frames C1 and C2 may have other shapes such as a triangle or a circle. Further, the pattern region T1 and the search region T2 may be set by other methods such as coordinate input.

使用者は、図1の操作部230を操作して、指定枠C1,C2の位置、向きおよび大きさを調整することができる。指定枠C1により囲まれた領域がパターン領域T1に設定され、指定枠C2により囲まれた領域がサーチ領域T2に設定される。基準画像データに基づいて、パターン領域T1における高さ情報および輝度情報を含むパターン情報が取得される。高さ情報は、高さデータの集合であり、輝度情報は、輝度データの集合である。取得されたパターン情報は、計測設定情報として記憶部220に記憶される。また、基準画像MIにおけるパターン領域T1の相対位置、およびサーチ領域T2の相対位置が、計測設定情報として記憶部220に記憶される。   The user can adjust the position, orientation, and size of the designation frames C1, C2 by operating the operation unit 230 of FIG. The area surrounded by the designated frame C1 is set as the pattern area T1, and the area surrounded by the designated frame C2 is set as the search area T2. Based on the reference image data, pattern information including height information and luminance information in the pattern region T1 is acquired. The height information is a set of height data, and the luminance information is a set of luminance data. The acquired pattern information is stored in the storage unit 220 as measurement setting information. Further, the relative position of the pattern area T1 and the relative position of the search area T2 in the reference image MI are stored in the storage unit 220 as measurement setting information.

図7は、計測条件の設定例について説明するための図である。図7の例では、基準画像MIに対して、矩形の指定枠C3を用いて、基準対象領域T3が設定される。基準対象領域T3は、計測の対象となる領域である。使用者は、図1の操作部230を操作して、指定枠C3の位置、向きおよび大きさを調整することができる。指定枠C3により囲まれた領域が基準対象領域T3に設定される。指定枠C3が矩形以外の他の形状を有してもよく、座標入力等の他の方法により基準対象領域T3が設定されてもよい。基準画像における基準対象領域T3の相対位置が、計測設定情報として記憶部220に記憶される。   FIG. 7 is a diagram for explaining an example of setting measurement conditions. In the example of FIG. 7, the reference target region T3 is set for the reference image MI using a rectangular designation frame C3. The reference target region T3 is a region to be measured. The user can adjust the position, orientation, and size of the designated frame C3 by operating the operation unit 230 of FIG. A region surrounded by the designation frame C3 is set as the reference target region T3. The designated frame C3 may have a shape other than a rectangle, and the reference target region T3 may be set by other methods such as coordinate input. The relative position of the reference target region T3 in the reference image is stored in the storage unit 220 as measurement setting information.

次に、図6および図7のようにサーチ条件および計測条件が設定された場合の計測画像データに対する計測処理について説明する。図8および図9は、計測画像データに対する計測処理について説明するための図である。図8(a)には、画像表示部240aに表示される計測画像の例が示される。図8(a)の計測画像DIは、基準対象物Saに対応する測定対象物Sを含む。   Next, a measurement process for measurement image data when search conditions and measurement conditions are set as shown in FIGS. 6 and 7 will be described. 8 and 9 are diagrams for explaining measurement processing for measurement image data. FIG. 8A shows an example of a measurement image displayed on the image display unit 240a. The measurement image DI in FIG. 8A includes a measurement object S corresponding to the reference object Sa.

まず、計測設定情報として記憶されるパターン情報に基づいて、計測画像データに対してパターンサーチが行われる。図8(b)の例では、計測画像DIから基準画像MIのパターン領域T1(図6(b))との一致度が最も高い領域が特徴領域T1Aとして検出される。なお、本例では、設定されたサーチ領域T2(図6(b))の位置に基づいて、計測画像DIのサーチ領域T2Aが特定される。計測画像DIにおけるサーチ領域T2Aの相対位置は、基準画像MIにおけるサーチ領域T2の相対位置と同じである。特徴領域T1Aの検出は、設定されたサーチ領域T2A内で行われる。このように、予め検出の対象となる領域が制限されることにより、パターンサーチに要する時間を短くすることができる。なお、時間の短縮が必要でない場合、あるいは検出すべき領域を特定することが難しい場合には、基準画像MIにサーチ領域T2が設定されることなく、計測画像DIの全体に対してパターンサーチが行われてもよい。   First, a pattern search is performed on measurement image data based on pattern information stored as measurement setting information. In the example of FIG. 8B, the region having the highest degree of coincidence with the pattern region T1 (FIG. 6B) of the reference image MI from the measurement image DI is detected as the feature region T1A. In this example, the search area T2A of the measurement image DI is specified based on the position of the set search area T2 (FIG. 6B). The relative position of the search area T2A in the measurement image DI is the same as the relative position of the search area T2 in the reference image MI. The feature area T1A is detected in the set search area T2A. In this way, the time required for the pattern search can be shortened by limiting the area to be detected in advance. When it is not necessary to shorten the time or when it is difficult to specify the area to be detected, the pattern search is performed on the entire measurement image DI without setting the search area T2 in the reference image MI. It may be done.

次に、図9に示すように、計測画像DIにおいて、図7の基準対象領域T3に対応する計測対象領域T3Aが特定される。この場合、計測画像DIにおける特徴領域T1Aと計測対象領域T3Aとの相対的な位置関係が、基準画像MIにおけるパターン領域T1と基準対象領域T3との位置関係と等しくなるように、計測対象領域T3Aが設定される。   Next, as shown in FIG. 9, in the measurement image DI, a measurement target region T3A corresponding to the reference target region T3 in FIG. 7 is specified. In this case, the measurement target region T3A is set so that the relative positional relationship between the feature region T1A and the measurement target region T3A in the measurement image DI is equal to the positional relationship between the pattern region T1 and the reference target region T3 in the reference image MI. Is set.

続いて、計測画像DIの高さ画像データに基づいて、計測対象領域T3Aに対応する測定対象物Sの表面の部分の高さに関する計測値が算出される。計測値は、例えば、最大高さ、最小高さ、平均高さ、または最大高さと最小高さとの差(以下、ピーク間高さと呼ぶ。)等を含む。また、これらの計測値が、計測値表示部240b(図5)に表示されてもよい。   Subsequently, based on the height image data of the measurement image DI, a measurement value related to the height of the surface portion of the measurement object S corresponding to the measurement object region T3A is calculated. The measurement value includes, for example, a maximum height, a minimum height, an average height, or a difference between the maximum height and the minimum height (hereinafter referred to as a peak-to-peak height). Moreover, these measured values may be displayed on the measured value display part 240b (FIG. 5).

また、測定対象物Sの計測値が予め定められた許容範囲内にあるか否かの判定(以下、公差判定と呼ぶ。)が行われてもよい。例えば、基準対象物Saの計測値を基準に、許容範囲の上限値および下限値が定められる。判定結果は、例えば図7の計測値表示部240bに表示されるとともに、図1の通信部250を通して、PLC(プログラマブルロジックコントローラ)等の外部装置に出力される。   Further, it may be determined whether or not the measurement value of the measuring object S is within a predetermined allowable range (hereinafter referred to as tolerance determination). For example, the upper limit value and the lower limit value of the allowable range are determined based on the measurement value of the reference object Sa. The determination result is displayed on, for example, the measurement value display unit 240b in FIG. 7 and is output to an external device such as a PLC (programmable logic controller) through the communication unit 250 in FIG.

(5)迷光
図2の受光部2の複数の画素には、測定対象物Sの表面の複数の領域がそれぞれ対応する。各画素には、対応する領域で反射された測定光L1が干渉光として入射する。以下、迷光とは、各画素に対応する光のうちその画素に対応する領域以外の領域で反射された光をいう。上記のように、各画素の受光量の変化に基づいて、光路長差が0になる時点が特定され、その時点での支持部125に対する可動部141の相対位置に基づいて、対応する領域の高さデータが生成される。
(5) Stray light The plurality of pixels of the light receiving unit 2 in FIG. The measurement light L1 reflected by the corresponding region is incident on each pixel as interference light. Hereinafter, stray light refers to light reflected by a region other than the region corresponding to the pixel among the light corresponding to each pixel. As described above, the time point at which the optical path length difference becomes 0 is specified based on the change in the amount of light received by each pixel, and the corresponding region is determined based on the relative position of the movable unit 141 with respect to the support unit 125 at that time. Height data is generated.

測定対象物Sの表面の形状および反射率によっては、1または複数の画素に、対応する領域とは異なる領域で反射された測定光L1が迷光として入射する。その迷光の強度が大きいと、光路長差が0になる時点が誤って特定されることがある。その場合、誤った高さデータが生成される。   Depending on the shape and reflectance of the surface of the measurement object S, the measurement light L1 reflected from one or more pixels in a region different from the corresponding region is incident as stray light. When the intensity of the stray light is large, the time point at which the optical path length difference becomes 0 may be erroneously specified. In that case, incorrect height data is generated.

図10は、迷光の例について説明するための模式図である。図10においては、レンズ6,8およびビームスプリッタ12が模式的に光学系OSとして示される。また、理解を容易にするため、図2の参照光L2は図示されない。   FIG. 10 is a schematic diagram for explaining an example of stray light. In FIG. 10, the lenses 6 and 8 and the beam splitter 12 are schematically shown as an optical system OS. For ease of understanding, the reference light L2 in FIG. 2 is not shown.

図10の例において、測定対象物Sは、異なる高さの面P1,P2を有する。面P1は領域R1を含み、面P2は領域R2を含む。受光部2から見た場合、領域R1と領域R2とは互いに隣り合う。領域R1は、受光部2の画素E1と対応し、領域R2は、受光部2の画素E2と対応する。面P1,P2は異なる反射率を有し、面P2の反射率は面P1の反射率よりも高い。   In the example of FIG. 10, the measuring object S has surfaces P1 and P2 having different heights. The plane P1 includes a region R1, and the plane P2 includes a region R2. When viewed from the light receiving unit 2, the region R1 and the region R2 are adjacent to each other. The region R1 corresponds to the pixel E1 of the light receiving unit 2, and the region R2 corresponds to the pixel E2 of the light receiving unit 2. The surfaces P1 and P2 have different reflectances, and the reflectance of the surface P2 is higher than the reflectance of the surface P1.

領域R1で反射された測定光L11は、光学系OSを通して主として画素E1に入射し、領域Rで反射された測定光L12は、光学系OSを通して主として画素E2に入射する。さらに、図10において点線の矢印で示されるように、領域R2で反射された測定光L12の一部が、画素E1に入射する。   The measurement light L11 reflected by the region R1 is mainly incident on the pixel E1 through the optical system OS, and the measurement light L12 reflected by the region R is mainly incident on the pixel E2 through the optical system OS. Further, as indicated by a dotted arrow in FIG. 10, a part of the measurement light L12 reflected by the region R2 enters the pixel E1.

面P2の反射率は面P1の反射率よりも高いので、画素E1に入射する測定光L12の強度が、画素E1に入射する測定光L11の強度よりも高くなることがある。その場合、画素E1の受光量に、測定光L12の入射に起因するピークが含まれる。   Since the reflectance of the surface P2 is higher than the reflectance of the surface P1, the intensity of the measurement light L12 incident on the pixel E1 may be higher than the intensity of the measurement light L11 incident on the pixel E1. In this case, the peak due to the incidence of the measurement light L12 is included in the amount of light received by the pixel E1.

図11は、図10の例における画素E1の受光量を示す図である。図11において、横軸は、図2の支持部125に対する可動部141の相対位置を示し、縦軸は受光量を表す。図11の例では、相対位置PN1,PN2において、受光量の包絡線に2つのピークPK1,PK2が現れている。相対位置PN1は、図10の測定光L11と参照光との光路長差が0となる位置に相当し、相対位置PN2は、図10の測定光L12と参照光との光路長差が0となる位置に相当する。ピークPK2における最大受光Im2は、ピークPK1における最大受光量Im1よりも大きい。この場合、相対位置PN2に基づいて高さデータが生成される。すなわち、生成された高さデータは、画素E1に対応する領域R1の高さではなく、画素E2に対応する領域R2の高さを示す。   FIG. 11 is a diagram showing the amount of light received by the pixel E1 in the example of FIG. In FIG. 11, the horizontal axis indicates the relative position of the movable portion 141 with respect to the support portion 125 in FIG. 2, and the vertical axis indicates the amount of received light. In the example of FIG. 11, at the relative positions PN1 and PN2, two peaks PK1 and PK2 appear in the envelope of the amount of received light. The relative position PN1 corresponds to a position where the optical path length difference between the measurement light L11 and the reference light in FIG. 10 is 0, and the relative position PN2 is an optical path length difference between the measurement light L12 and the reference light in FIG. It corresponds to the position. The maximum light reception Im2 at the peak PK2 is larger than the maximum light reception amount Im1 at the peak PK1. In this case, height data is generated based on the relative position PN2. That is, the generated height data indicates not the height of the region R1 corresponding to the pixel E1, but the height of the region R2 corresponding to the pixel E2.

このように、図10の例では、面P2の領域R2で反射された測定光L12の一部が迷光として画素E1に入射した結果、誤った高さデータが生成される。本実施の形態では、受光部2の複数の画素が2次元に配列されているため、各画素に、対応する領域と異なる領域で反射された測定光L1が迷光として入射しやすい。そのため、高さデータの誤りが生じやすい。   As described above, in the example of FIG. 10, a part of the measurement light L12 reflected by the region R2 of the surface P2 is incident on the pixel E1 as stray light, and as a result, erroneous height data is generated. In the present embodiment, since the plurality of pixels of the light receiving unit 2 are two-dimensionally arranged, the measurement light L1 reflected from each region different from the corresponding region is likely to be incident as stray light. For this reason, errors in height data are likely to occur.

なお、上記の受光量しきい値を大きくすることにより、迷光による誤った高さ画像データの生成が抑制される。しかしながら、最大受光量が受光量しきい値より小さいと、その最大受光量が無条件で無効とされる。そのため、測定対象物Sの表面の反射率が低いと、測定対象物の実際の高さを示す高さデータも得られない可能性が高まる。   Note that, by increasing the above-described threshold value of received light amount, generation of erroneous height image data due to stray light is suppressed. However, if the maximum received light amount is smaller than the received light amount threshold value, the maximum received light amount is invalidated unconditionally. Therefore, if the reflectance of the surface of the measuring object S is low, there is a high possibility that height data indicating the actual height of the measuring object cannot be obtained.

(6)迷光判定
本実施の形態では、受光部2の各画素に対して、生成された高さデータが迷光に基づいて生成されたか否かを判定する迷光判定が行われる。図12は、迷光判定について説明するための模式図である。図12には、2次元に配列された複数の画素が示される。
(6) Stray Light Determination In the present embodiment, stray light determination is performed for each pixel of the light receiving unit 2 to determine whether the generated height data is generated based on stray light. FIG. 12 is a schematic diagram for explaining stray light determination. FIG. 12 shows a plurality of pixels arranged two-dimensionally.

図12の例において、判定対象の画素(以下、対象画素と呼ぶ。)は、ハッチングが付された画素EAである。この場合、対象画素EAの最大受光量および対象画素EAに対応する高さデータが取得される。また、対象画素EAの周辺に位置する複数の画素(以下、周辺画素と呼ぶ。)が特定される。本例では、対象画素EAを取り囲む8個の周辺画素EB、およびその8個の周辺画素EBを取り囲む16個の周辺画素ECが特定される。特定された周辺画素EB,ECの各々の最大受光量および周辺画素EB,ECに対応する高さデータが取得される。以下、対象画素に対応する測定対象物Sの領域を対象領域と呼び、周辺画素に対応する測定対象物Sの領域を周辺領域と呼ぶ。   In the example of FIG. 12, a pixel to be determined (hereinafter referred to as a target pixel) is a hatched pixel EA. In this case, the maximum received light amount of the target pixel EA and the height data corresponding to the target pixel EA are acquired. Also, a plurality of pixels (hereinafter referred to as peripheral pixels) located around the target pixel EA are specified. In this example, eight peripheral pixels EB surrounding the target pixel EA and 16 peripheral pixels EC surrounding the eight peripheral pixels EB are specified. The maximum received light amount of each of the specified peripheral pixels EB and EC and the height data corresponding to the peripheral pixels EB and EC are acquired. Hereinafter, the region of the measurement target S corresponding to the target pixel is referred to as a target region, and the region of the measurement target S corresponding to the peripheral pixel is referred to as a peripheral region.

図10の例のように、対象画素に、周辺領域で反射された測定光L1が迷光として入射する場合、その周辺領域で反射された測定L1は主として周辺画素に入射する。そのため、対象画素に対応する高さデータが誤って生成されている場合、対象画素と周辺画素との関係性に一定の傾向が生じる。そこで、本例では、対象画素EAの最大受光量、対象画素EAに対応する高さデータ、周辺画素EB,ECの最大受光量、および周辺画素EB,ECに対応する高さデータに基づいて、対象画素EAに対応する高さデータが迷光に基づいて生成されたか否かが判定される。   As in the example of FIG. 10, when the measurement light L1 reflected from the peripheral region is incident on the target pixel as stray light, the measurement L1 reflected from the peripheral region is mainly incident on the peripheral pixel. For this reason, when the height data corresponding to the target pixel is erroneously generated, a certain tendency occurs in the relationship between the target pixel and the peripheral pixels. Therefore, in this example, based on the maximum received light amount of the target pixel EA, the height data corresponding to the target pixel EA, the maximum received light amount of the peripheral pixels EB and EC, and the height data corresponding to the peripheral pixels EB and EC, It is determined whether or not the height data corresponding to the target pixel EA has been generated based on stray light.

また、図10の例のように、迷光に基づいて生成された高さデータは、周辺領域の高さを示す可能性が高い。そのため、対象画素に対応する高さデータが迷光に基づいて生成されている場合、対象画素に対応する高さデータが周辺画素に対応する高さデータと一致するまたは近似する可能性が高い。   Further, as in the example of FIG. 10, the height data generated based on stray light is likely to indicate the height of the surrounding area. Therefore, when the height data corresponding to the target pixel is generated based on stray light, it is highly likely that the height data corresponding to the target pixel matches or approximates the height data corresponding to the surrounding pixels.

また、周辺領域の反射率が高いと、周辺領域で反射された測定光L1が対象画素に迷光として入射する可能性が高い。そのため、対象画素に対応する高さデータが迷光に基づいて生成されている場合、周辺画素の最大受光量が大きい可能性が高い。   Further, when the reflectance of the peripheral region is high, there is a high possibility that the measurement light L1 reflected by the peripheral region enters the target pixel as stray light. Therefore, when the height data corresponding to the target pixel is generated based on stray light, there is a high possibility that the maximum received light amount of the peripheral pixels is large.

このように、対象画素に対応する高さデータと周辺画素に対応する高さデータとの一致度、ならびに周辺画素の最大受光量には、一定の傾向がある。そこで、対象画素に対応する高さデータと周辺画素に対応する高さデータとの一致度と、周辺画素の最大受光量との関係に基づいて、対象画素に対応する高さデータが迷光に基づいて生成されたか否かが判定されることが好ましい。   As described above, there is a certain tendency in the degree of coincidence between the height data corresponding to the target pixel and the height data corresponding to the peripheral pixels, and the maximum amount of light received by the peripheral pixels. Therefore, the height data corresponding to the target pixel is based on stray light based on the relationship between the degree of coincidence between the height data corresponding to the target pixel and the height data corresponding to the peripheral pixel and the maximum received light amount of the peripheral pixel. It is preferable to determine whether or not it has been generated.

例えば、対象画素に対応する高さデータと周辺画素に対応する高さデータとの一致度、および周辺画素の最大受光量を含む判定式が予め設定され、判定式により得られた値に基づいて、対象画素に対応する高さデータが迷光に基づいて生成されたか否かが判定される。判定式は、特定の式に限定されず、上記の傾向を考慮して任意に設定することが可能である。また、上記の傾向に基づいて、迷光判定を行うためのアルゴリズム等が別途用いられてもよい。   For example, a determination formula including the degree of coincidence between the height data corresponding to the target pixel and the height data corresponding to the peripheral pixels and the maximum received light amount of the peripheral pixels is set in advance, and based on the value obtained by the determination formula Then, it is determined whether or not the height data corresponding to the target pixel is generated based on the stray light. The determination formula is not limited to a specific formula, and can be arbitrarily set in consideration of the above tendency. Further, an algorithm or the like for performing stray light determination may be separately used based on the above tendency.

迷光判定の結果に基づいて、高さ画像データが補正される。具体的には、迷光に基づいて生成されたと判定された高さデータ(以下、誤生成高さデータと呼ぶ。)が、無効データに変換される。高さ画像では、無効データに対応する箇所が例えばブランクとして表される。また、計測処理においては、無効データに対応する箇所の計測値を取得することはできない。これにより、誤生成高さデータに基づいて誤った計測値が算出されることが防止される。   The height image data is corrected based on the result of the stray light determination. Specifically, height data determined to be generated based on stray light (hereinafter referred to as erroneously generated height data) is converted into invalid data. In the height image, a portion corresponding to invalid data is represented as a blank, for example. Further, in the measurement process, it is not possible to acquire a measurement value at a location corresponding to invalid data. This prevents an erroneous measurement value from being calculated based on the erroneously generated height data.

誤生成高さデータは、無効データに変換される代わりに、予め定められた最小値または最大値を示す高さデータに変換されてもよい。この場合、使用者は、該当の箇所の高さデータが適正に生成されていないことを確実に認識することができる。また、図11の例のように、受光量の包絡線が複数のピークを含む場合には、2番目以下の受光量を示すピークに基づいて、高さデータが再度生成されてもよい。   The erroneously generated height data may be converted into height data indicating a predetermined minimum value or maximum value instead of being converted into invalid data. In this case, the user can surely recognize that the height data of the corresponding part is not properly generated. Further, as in the example of FIG. 11, when the envelope of the light reception amount includes a plurality of peaks, the height data may be generated again based on the peak indicating the second or less light reception amount.

(7)フィルタレベル
使用者は、迷光判定の基準を示すフィルタレベルを調整することができる。図13は、図1の表示部240に表示されるフィルタレベル調整画面の例を示す図である。図13のフィルタレベル調整画面SGは、操作子OEを含む。使用者は、図1の操作部230を操作して操作子OEを左右に移動させることにより、フィルタレベルの高低を調整することができる。調整されたフィルタレベルは図11の記憶部220に記憶される。記憶されたフィルタレベルに基づいて、上記の迷光判定が行われる。フィルタレベルが高く調整されると、高さデータが迷光に基づいて生成されたと判定される割合が比較的多くなる。一方、フィルタレベルが低く調整されると、高さデータが迷光に基づいて生成されたと判定される割合が比較的少なくなる。
(7) Filter level The user can adjust the filter level indicating the criteria for stray light determination. FIG. 13 is a diagram illustrating an example of a filter level adjustment screen displayed on the display unit 240 of FIG. The filter level adjustment screen SG of FIG. 13 includes an operation element OE. The user can adjust the level of the filter level by operating the operation unit 230 shown in FIG. The adjusted filter level is stored in the storage unit 220 in FIG. The stray light determination is performed based on the stored filter level. When the filter level is adjusted to be high, the ratio at which it is determined that the height data is generated based on stray light becomes relatively large. On the other hand, when the filter level is adjusted to be low, the rate at which the height data is determined to be generated based on stray light is relatively small.

使用者は、測定対象物Sの表面の形状および反射率に応じてフィルタレベルを調整する。これにより、適切に迷光判定が行われ、高さ画像データから誤生成高さデータが適切に検出される。   The user adjusts the filter level according to the shape of the surface of the measuring object S and the reflectance. Thereby, stray light determination is appropriately performed, and erroneously generated height data is appropriately detected from the height image data.

(8)機能的構成
図14は、制御基板160および制御部210により実現される機能を示す機能ブロック図である。図14に示すように、制御基板160は、距離画像生成部21および判定部22を含む。距離画像生成部21は、受光部2により受光された測定光に基づいて、受光部2の画素毎に対応する領域の距離情報を生成し、複数の画素に対応する距離情報を含む距離画像データを生成する。具体的には、距離画像生成部21は、位置検出部14により検出された支持部125に対する可動部141の相対位置と受光部2の受光量とに基づいて、各画素に対応する距離情報を生成する。距離情報は、形状測定装置300の所定の位置(例えば、受光位置)と測定対象物Sの表面との間の距離を示す。本例においては、高さデータが距離情報に相当し、高さ画像データが距離画像データに相当する。
(8) Functional Configuration FIG. 14 is a functional block diagram showing functions realized by the control board 160 and the control unit 210. As shown in FIG. 14, the control board 160 includes a distance image generation unit 21 and a determination unit 22. The distance image generation unit 21 generates distance information of a region corresponding to each pixel of the light receiving unit 2 based on the measurement light received by the light receiving unit 2, and distance image data including distance information corresponding to a plurality of pixels Is generated. Specifically, the distance image generation unit 21 obtains distance information corresponding to each pixel based on the relative position of the movable unit 141 with respect to the support unit 125 detected by the position detection unit 14 and the amount of light received by the light receiving unit 2. Generate. The distance information indicates a distance between a predetermined position (for example, a light receiving position) of the shape measuring apparatus 300 and the surface of the measuring object S. In this example, height data corresponds to distance information, and height image data corresponds to distance image data.

判定部22は、受光部2の各画素について迷光判定を行う。具体的には、判定部22は、対象画素の最大受光量、対象画素に対応する高さデータ、周辺画素の最大受光量、周辺画素に対応する高さ情報に基づいて、対象画素に対応する高さデータが迷光に基づいて算出されたか否かを判定する。   The determination unit 22 performs stray light determination for each pixel of the light receiving unit 2. Specifically, the determination unit 22 corresponds to the target pixel based on the maximum light reception amount of the target pixel, the height data corresponding to the target pixel, the maximum light reception amount of the peripheral pixels, and the height information corresponding to the peripheral pixels. It is determined whether the height data is calculated based on stray light.

制御部210は、判定基準受付部23および算出部24を含む。判定基準受付部23は、判定基準の調整を受け付ける。本例においては、フィルタレベルが判定基準に相当する。算出部24は、判定部22により迷光に基づいて生成されていないと判定された高さデータに基づいて、測定対象物Sの形状に関する計測値を算出する。一方、算出部24は、判定部22により迷光に基づいて生成されたと判定された高さデータに基づいて、計測値を算出しない。   The control unit 210 includes a determination criterion receiving unit 23 and a calculation unit 24. The determination criterion receiving unit 23 receives adjustment of the determination criterion. In this example, the filter level corresponds to the determination criterion. The calculation unit 24 calculates a measurement value related to the shape of the measurement object S based on the height data determined not to be generated based on stray light by the determination unit 22. On the other hand, the calculation unit 24 does not calculate the measurement value based on the height data determined to be generated based on the stray light by the determination unit 22.

これらの機能部は、CPUがROM等に記憶されたプログラムを実行することにより実現されてもよく、電子回路等のハードウエアにより実現されてもよい。   These functional units may be realized by the CPU executing a program stored in the ROM or the like, or may be realized by hardware such as an electronic circuit.

図15は、制御基板160のCPU160aの動作の一例を示すフローチャートである。図15の例では、高さ画像データが生成された後、その高さ画像データに基づいて、各画素の迷光判定が行われる。図15に示すように、CPU160aは、位置検出部14により検出された相対位置および受光部2の受光量に基づいて、各画素に対応する高さデータを生成し、高さ画像データを生成する(ステップS1)。次に、CPU160aは、記憶部220に記憶されたフィルタレベルを取得する(ステップS2)。次に、CPU160aは、受光部2の複数の画素のうち、対象画素を選択する(ステップS3)。次に、CPU160aは、対象画素の最大受光量を取得する(ステップS4)。次に、CPU160aは、ステップS1で生成された高さ画像データから、対象画素に対応する高さデータを取得する(ステップS5)。   FIG. 15 is a flowchart illustrating an example of the operation of the CPU 160 a of the control board 160. In the example of FIG. 15, after height image data is generated, stray light determination for each pixel is performed based on the height image data. As illustrated in FIG. 15, the CPU 160a generates height data corresponding to each pixel based on the relative position detected by the position detection unit 14 and the amount of light received by the light receiving unit 2, and generates height image data. (Step S1). Next, CPU160a acquires the filter level memorize | stored in the memory | storage part 220 (step S2). Next, the CPU 160a selects a target pixel from among the plurality of pixels of the light receiving unit 2 (step S3). Next, the CPU 160a acquires the maximum amount of light received by the target pixel (step S4). Next, the CPU 160a acquires height data corresponding to the target pixel from the height image data generated in step S1 (step S5).

次に、CPU160aは、複数の周辺画素のうち一の周辺画素を特定する(ステップS6)。次に、CPU160aは、特定された周辺画素の最大受光量を取得する(ステップS7)。次に、CPU160aは、ステップS1で生成された高さ画像データから、特定された周辺画素に対応する高さデータを取得する(ステップS8)。次に、CPU160aは、全ての周辺画素について最大受光量および高さデータを取得したか否かを判定する。全ての周辺画素について取得していない場合、CPU160aは、ステップS6に戻り、他の周辺画素について最大受光量および高さデータを取得する。   Next, the CPU 160a identifies one peripheral pixel among the plurality of peripheral pixels (step S6). Next, the CPU 160a acquires the maximum received light amount of the specified peripheral pixels (step S7). Next, the CPU 160a acquires height data corresponding to the specified peripheral pixels from the height image data generated in step S1 (step S8). Next, the CPU 160a determines whether or not the maximum received light amount and height data have been acquired for all peripheral pixels. When not acquiring about all the surrounding pixels, CPU160a returns to step S6, and acquires the largest received light amount and height data about another surrounding pixel.

全ての周辺画素について最大受光量および高さデータを取得した場合、CPU160aは、ステップS3で選択した対象画素について、迷光判定を行う(ステップS10)。具体的には、対象画素に対応する高さデータが迷光に基づいて生成されたか否かが判定される。続いて、CPU160aは、全ての画素について迷光判定が完了したか否かを判定する。全ての画素について完了していない場合、CPU160aは、ステップS3に戻り、他の画素について、同様の処理を行う。全ての画素について迷光判定が完了すると、CPU160aは、処理を終了する。   When the maximum received light amount and height data are acquired for all the peripheral pixels, the CPU 160a performs stray light determination on the target pixel selected in step S3 (step S10). Specifically, it is determined whether or not the height data corresponding to the target pixel is generated based on stray light. Subsequently, the CPU 160a determines whether or not stray light determination has been completed for all pixels. If not completed for all the pixels, the CPU 160a returns to step S3 and performs the same processing for the other pixels. When the stray light determination is completed for all the pixels, the CPU 160a ends the process.

(9)本実施の形態の効果
本実施の形態に係る形状測定装置300においては、位置検出部14により検出された支持部125に対する可動部141の相対位置と受光部2の各画素の受光量とに基づいて、受光部2の各画素に対応する測定対象物Sの領域の高さデータが求められる。この場合、受光部2の複数の画素が二次元に配列されているので、広範囲の領域の高さデータを同時に取得することができる。したがって、測定対象物Sの高さ画像データを高速にかつ連続的に生成することができる。
(9) Effects of the present embodiment In the shape measuring apparatus 300 according to the present embodiment, the relative position of the movable unit 141 with respect to the support unit 125 detected by the position detection unit 14 and the amount of light received by each pixel of the light receiving unit 2. Based on the above, the height data of the region of the measuring object S corresponding to each pixel of the light receiving unit 2 is obtained. In this case, since the plurality of pixels of the light receiving unit 2 are two-dimensionally arranged, height data of a wide area can be acquired simultaneously. Therefore, the height image data of the measuring object S can be generated at high speed and continuously.

また、受光部2の各画素について迷光判定が行われる。この場合、一の画素の受光量、一の画素に対応する距離情報、一の画素の周辺の1以上の画素の各々の受光量、および1以上の画素に対応する1以上の距離情報に基づいて、一の画素に対応する距離情報が迷光に基づいて生成されたか否かが判定される。このような判定が全ての画素について行われる。これにより、各画素に対応する高さデータの信頼性を判定することができる。したがって、高さ画像データの信頼性を高めることができる。   Further, stray light determination is performed for each pixel of the light receiving unit 2. In this case, based on the light reception amount of one pixel, distance information corresponding to one pixel, each light reception amount of one or more pixels around the one pixel, and one or more distance information corresponding to one or more pixels. Thus, it is determined whether or not the distance information corresponding to one pixel is generated based on the stray light. Such a determination is performed for all pixels. Thereby, the reliability of the height data corresponding to each pixel can be determined. Therefore, the reliability of the height image data can be improved.

(10)他の実施の形態
上記実施の形態では、距離情報として高さデータが生成されるが、他の寸法を示す距離情報が生成されてもよい。例えば、測定対象物Sに対する形状測定装置300の各構成要素の相対位置を変更することにより、他の方向における測定対象物の寸法を示す距離情報を生成することができる。また、高さ画像データの代わりに、複数の画素に対応する距離情報を含む距離画像データを生成することができる。
(10) Other Embodiments In the above embodiment, height data is generated as distance information, but distance information indicating other dimensions may be generated. For example, by changing the relative position of each component of the shape measuring apparatus 300 with respect to the measurement object S, distance information indicating the dimensions of the measurement object in other directions can be generated. Further, distance image data including distance information corresponding to a plurality of pixels can be generated instead of the height image data.

上記実施の形態では、干渉法によって距離情報(高さデータ)が生成されるが、TOF(Time Of Flight)法等の他の方法により距離情報が生成されてもよい。   In the above embodiment, the distance information (height data) is generated by the interferometry, but the distance information may be generated by another method such as a TOF (Time Of Flight) method.

上記実施の形態では、測定光L1の光路長が変化し、参照光L2の光路長が変化しないように測定部130が構成されるが、本発明はこれに限定されない。参照光L2の光路長が変化し、測定光L1の光路長が変化しないように測定部130が構成されてもよい。この場合においては、参照光L2の進行方向に沿って、ミラー10がビームスプリッタ12に対して相対的に振動するように構成される。   In the above embodiment, the measurement unit 130 is configured such that the optical path length of the measurement light L1 changes and the optical path length of the reference light L2 does not change, but the present invention is not limited to this. The measurement unit 130 may be configured such that the optical path length of the reference light L2 changes and the optical path length of the measurement light L1 does not change. In this case, the mirror 10 is configured to vibrate relative to the beam splitter 12 along the traveling direction of the reference light L2.

(11)請求項の各構成要素と実施の形態の各部との対応関係
以下、請求項の各構成要素と実施の形態の各部との対応の例について説明するが、本発明は下記の例に限定されない。
(11) Correspondence between each component of claim and each part of embodiment The following describes an example of a correspondence between each component of the claim and each part of the embodiment. It is not limited.

上記実施の形態においては、測定対象物Sが測定対象物の例であり、形状測定装置300が形状測定装置の例であり、投光部1が投光部の例であり、受光部2が受光部の例であり、測定光L1が測定光の例であり、ビームスプリッタ12が光学系の例である。   In the above embodiment, the measuring object S is an example of the measuring object, the shape measuring device 300 is an example of the shape measuring device, the light projecting unit 1 is an example of the light projecting unit, and the light receiving unit 2 is It is an example of a light receiving unit, the measurement light L1 is an example of measurement light, and the beam splitter 12 is an example of an optical system.

また、距離画像生成部21が距離画像生成手段の例であり、判定部22が判定手段の例であり、判定基準受付部23が判定基準受付手段の例であり、算出部24が算出手段の例である。また、ミラー10が参照体の例であり、可動部141が可動部の例であり、支持部125が支持部の例であり、位置検出部14が位置検出部の例であり、参照光L2が参照光の例であり、干渉光L3が干渉光の例である。   The distance image generation unit 21 is an example of a distance image generation unit, the determination unit 22 is an example of a determination unit, the determination criterion reception unit 23 is an example of a determination criterion reception unit, and the calculation unit 24 is a calculation unit. It is an example. Further, the mirror 10 is an example of a reference body, the movable part 141 is an example of a movable part, the support part 125 is an example of a support part, the position detection part 14 is an example of a position detection part, and the reference light L2 Is an example of reference light, and interference light L3 is an example of interference light.

請求項の各構成要素として、請求項に記載されている構成または機能を有する他の種々の要素を用いることもできる。   As each constituent element in the claims, various other elements having configurations or functions described in the claims can be used.

本発明は、測定対象物の形状の測定に有効に利用可能である。   The present invention can be effectively used for measuring the shape of a measurement object.

1 投光部
2,3 受光部
21 距離画像生成部
22 判定部
23 判定基準受付部
24 算出部
100 測定ヘッド
110 支持構造
120 筐体部
130 測定部
140 往復機構
150 駆動部
160 制御基板
160a CPU
170 通信部
200 処理装置
210 制御部
220 記憶部
230 操作部
240 表示部
250 通信部
300 形状測定装置
DESCRIPTION OF SYMBOLS 1 Light projection part 2,3 Light reception part 21 Distance image generation part 22 Judgment part 23 Judgment reference reception part 24 Calculation part 100 Measurement head 110 Support structure 120 Case part 130 Measurement part 140 Reciprocation mechanism 150 Drive part 160 Control board 160a CPU
170 Communication Unit 200 Processing Device 210 Control Unit 220 Storage Unit 230 Operation Unit 240 Display Unit 250 Communication Unit 300 Shape Measuring Device

Claims (5)

測定対象物の表面形状を測定する形状測定装置であって、
光を出射する投光部と、
二次元に配列された複数の画素を含む受光部と、
前記投光部により出射された光を測定光として測定対象物に導き、前記測定対象物で反射された測定光を前記受光部に導く光学系と、
前記受光部により受光された測定光に基づいて、画素毎に前記測定対象物の対応する領域の距離情報を生成し、生成した複数の画素に対応する距離情報を含む距離画像データを生成する距離画像生成手段と、
前記受光部の一の画素の受光量、前記一の画素に対応する距離情報、前記一の画素の周辺の1以上の画素の各々の受光量、および前記1以上の画素に対応する1以上の距離情報に基づいて、前記一の画素に対応する距離情報が迷光に基づいて生成されたか否かを判定する判定手段とを備える、形状測定装置。
A shape measuring device for measuring the surface shape of a measurement object,
A light projecting unit that emits light;
A light receiving unit including a plurality of pixels arranged two-dimensionally;
An optical system that guides the light emitted by the light projecting unit to the measurement object as measurement light, and guides the measurement light reflected by the measurement object to the light receiving unit;
Distance for generating distance image data including distance information corresponding to a plurality of generated pixels by generating distance information of a corresponding region of the measurement object for each pixel based on measurement light received by the light receiving unit Image generating means;
The amount of light received by one pixel of the light receiving unit, distance information corresponding to the one pixel, the amount of light received by one or more pixels around the one pixel, and one or more corresponding to the one or more pixels A shape measuring apparatus comprising: a determination unit that determines whether distance information corresponding to the one pixel is generated based on stray light based on distance information.
判定基準の調整を受け付ける判定基準受付手段をさらに備え、
前記判定手段は、前記判定基準受付手段により調整された判定基準に基づいて、前記一の画素に対応する距離情報が迷光に基づいて生成されたか否かを判定する、請求項1記載の形状測定装置。
A judgment criterion receiving means for receiving the adjustment of the criterion;
The shape measurement according to claim 1, wherein the determination unit determines whether distance information corresponding to the one pixel is generated based on stray light based on the determination criterion adjusted by the determination criterion reception unit. apparatus.
前記判定手段は、前記一の画素に対応する距離情報と前記周辺の1以上の画素に対応する1以上の距離情報との一致度と、前記周辺の1以上の画素の各々の受光量に基づいて、前記一の画素に対応する距離情報が迷光に基づいて生成されたか否かを判定する、請求項1または2記載の形状測定装置。 The determination means is based on the degree of coincidence between the distance information corresponding to the one pixel and the one or more distance information corresponding to the one or more neighboring pixels, and the received light amount of each of the one or more neighboring pixels. The shape measuring apparatus according to claim 1, wherein distance information corresponding to the one pixel is determined based on stray light. 前記判定手段により迷光に基づいて生成されていないと判定された距離情報に基づいて前記測定対象物の形状に関する計測値を算出し、前記判定手段により迷光に基づいて生成されたと判定された距離情報に基づいて前記計測値を算出しない算出手段をさらに備える、請求項1〜3のいずれか一項に記載の形状測定装置。 The measurement information related to the shape of the measurement object is calculated based on distance information determined not to be generated based on stray light by the determination means, and the distance information determined to be generated based on stray light by the determination means The shape measuring apparatus according to claim 1, further comprising a calculation unit that does not calculate the measurement value based on the parameter. 参照体と、
前記光学系および前記参照体のうち少なくとも一方が取り付けられる可動部と、
前記可動部を往復移動可能に支持する支持部と、
前記支持部に対する前記可動部の相対位置を検出する位置検出部とをさらに備え、
前記投光部は、複数のピーク波長を有する光を出射し、
前記光学系は、前記投光部により出射された光を参照光として前記参照体に導き、前記測定対象物で反射された測定光と前記測定対象物で反射された参照光との干渉光を生成し、生成した干渉光を前記受光部に導き、
前記可動部は、往復移動することにより前記測定光の光路長と前記参照光の光路長との差を変化させ、
前記画像生成手段は、前記受光部により受光された干渉光および前記位置検出部により検出された相対位置に基づいて、前記距離画像データを生成する、請求項1〜4のいずれか一項に記載の形状測定装置。
A reference body,
A movable part to which at least one of the optical system and the reference body is attached;
A support part for supporting the movable part so as to be reciprocally movable;
A position detection unit that detects a relative position of the movable unit with respect to the support unit;
The light projecting unit emits light having a plurality of peak wavelengths,
The optical system guides the light emitted from the light projecting unit to the reference body as reference light, and generates interference light between the measurement light reflected by the measurement object and the reference light reflected by the measurement object. Generating, guiding the generated interference light to the light receiving unit,
The movable part changes the difference between the optical path length of the measurement light and the optical path length of the reference light by reciprocating,
The said image generation means produces | generates the said distance image data based on the interference light received by the said light-receiving part, and the relative position detected by the said position detection part. Shape measuring device.
JP2016201051A 2016-10-12 2016-10-12 Shape measuring device Pending JP2018063157A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016201051A JP2018063157A (en) 2016-10-12 2016-10-12 Shape measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016201051A JP2018063157A (en) 2016-10-12 2016-10-12 Shape measuring device

Publications (1)

Publication Number Publication Date
JP2018063157A true JP2018063157A (en) 2018-04-19

Family

ID=61967722

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016201051A Pending JP2018063157A (en) 2016-10-12 2016-10-12 Shape measuring device

Country Status (1)

Country Link
JP (1) JP2018063157A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113551591A (en) * 2020-04-24 2021-10-26 精工爱普生株式会社 Measurement device and measurement method
US11321858B2 (en) 2019-05-30 2022-05-03 Fanuc Corporation Distance image generation device which corrects distance measurement abnormalities

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006266861A (en) * 2005-03-24 2006-10-05 Topcon Corp Optical image measuring apparatus
JP2010014536A (en) * 2008-07-03 2010-01-21 Yamagata Prefecture Measuring method and measuring apparatus for object under measurement mounted on processing apparatus
US20130258323A1 (en) * 2010-07-14 2013-10-03 William P. Kuhn Device and Method for Subaperture Stray Light Detection and Diagnosis
JP2016024067A (en) * 2014-07-22 2016-02-08 キヤノン株式会社 Measurement method and measurement device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006266861A (en) * 2005-03-24 2006-10-05 Topcon Corp Optical image measuring apparatus
JP2010014536A (en) * 2008-07-03 2010-01-21 Yamagata Prefecture Measuring method and measuring apparatus for object under measurement mounted on processing apparatus
US20130258323A1 (en) * 2010-07-14 2013-10-03 William P. Kuhn Device and Method for Subaperture Stray Light Detection and Diagnosis
JP2016024067A (en) * 2014-07-22 2016-02-08 キヤノン株式会社 Measurement method and measurement device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11321858B2 (en) 2019-05-30 2022-05-03 Fanuc Corporation Distance image generation device which corrects distance measurement abnormalities
CN113551591A (en) * 2020-04-24 2021-10-26 精工爱普生株式会社 Measurement device and measurement method

Similar Documents

Publication Publication Date Title
CN108253886B (en) Three-dimensional measuring device
US9851198B2 (en) Distance measuring apparatus, distance measuring method, and control program
JP2016031368A (en) Method for measuring high accuracy height map of test surface
TWI623724B (en) Shape measuring device, structure manufacturing system, stage system, shape measuring method, structure manufacturing method, shape measuring program, and computer readable recording medium
WO2011133731A4 (en) Method and apparatus for using gestures to control a laser tracker
JP6516453B2 (en) Image measuring device and measuring device
US10803623B2 (en) Image processing apparatus
JP7200275B2 (en) Method and apparatus for using range data to predict object features
JP6829993B2 (en) Optical scanning height measuring device
JP2018063157A (en) Shape measuring device
CN103842770A (en) Method and device for measuring homogeneously reflective surfaces
US10497142B2 (en) Shape measuring device
KR102122275B1 (en) Light distribution characteristic measurement apparatus and light distribution characteristic measurement method
JP2017125801A (en) Three-dimensional shape measurement method, displacement measurement method, three-dimensional shape measurement device, displacement measurement device, structure fabrication method, structure fabrication system and three-dimensional shape measurement program
JP2019511012A (en) Method and apparatus for determining 3D coordinates of at least one predetermined point of an object
JP2017125707A (en) Measurement method and measurement device
KR100499697B1 (en) Three-dimensional image measuring apparatus and method thereof
JP2018063156A (en) Shape measurement apparatus
JP6567199B2 (en) Distance measuring device, distance measuring method, and distance measuring program
JP2012112706A (en) Surface shape measuring device and surface shape measuring method
JP2009036631A (en) Device of measuring three-dimensional shape and method of manufacturing same
JP6768442B2 (en) Shape measuring device
JP6880396B2 (en) Shape measuring device and shape measuring method
CN111238371B (en) Object shape measuring system, method and storage medium
JP2016008838A (en) Shape measuring device, structure manufacturing system, shape measuring method, and structure manufacturing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200908

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210316