JP2018141810A - Shape measurement apparatus, structure manufacturing system, shape measurement method, structure manufacturing method, shape measurement program, and recording medium - Google Patents

Shape measurement apparatus, structure manufacturing system, shape measurement method, structure manufacturing method, shape measurement program, and recording medium Download PDF

Info

Publication number
JP2018141810A
JP2018141810A JP2018109745A JP2018109745A JP2018141810A JP 2018141810 A JP2018141810 A JP 2018141810A JP 2018109745 A JP2018109745 A JP 2018109745A JP 2018109745 A JP2018109745 A JP 2018109745A JP 2018141810 A JP2018141810 A JP 2018141810A
Authority
JP
Japan
Prior art keywords
image
pattern
attention area
measurement
shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018109745A
Other languages
Japanese (ja)
Inventor
山田 智明
Tomoaki Yamada
智明 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2018109745A priority Critical patent/JP2018141810A/en
Publication of JP2018141810A publication Critical patent/JP2018141810A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable appropriately extracting a pattern image on the basis of movement of a projection position of a pattern projected on a measuring object, and using for measurement of the measuring object.SOLUTION: A shape measurement apparatus comprises: a projection unit that projects a pattern on a measuring object; an imaging unit that images the measuring object on which the pattern is projected by the projection unit; a moving unit that causes the projection unit and the measuring object to relatively move to change a projection position on the measuring object of the pattern on the measuring object; a target area setting unit that changes a position of a target area for acquiring information used for measurement of the measuring object set to include a pattern image in at least a portion of an imaged area imaged by the imaging unit, according to movement of the pattern image in the imaged area; and a measuring unit that measures a form of the measuring object on the basis of the pattern image within the target area.SELECTED DRAWING: Figure 4

Description

本発明は、形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、形状測定プログラム、及び記録媒体に関する。   The present invention relates to a shape measuring device, a structure manufacturing system, a shape measuring method, a structure manufacturing method, a shape measuring program, and a recording medium.

形状測定装置には、被測定物にスリット光等の所定のパターンを投影する投影部と、測定対象領域に投影された光が描くパターン像を撮像する撮像部とを備え、光切断法を利用した光学式測定装置がある(例えば、特許文献1を参照)。特許文献1には、撮像して取得した画像データのうち、設定された測定対象領域に含まれる像を検出して測定対象物の変位を測定する変位センサが記載されている。また、特許文献1には、測定対象領域を基準面の移動に追従させて変位測定方向へと移動させることが記載されている。   The shape measuring device includes a projection unit that projects a predetermined pattern such as slit light on the object to be measured, and an imaging unit that captures a pattern image drawn by the light projected on the measurement target region, and uses a light cutting method. There is an optical measuring device (for example, see Patent Document 1). Patent Document 1 describes a displacement sensor that detects an image included in a set measurement target region from image data acquired by imaging and measures the displacement of the measurement target. Further, Patent Document 1 describes that the measurement target region is moved in the displacement measurement direction by following the movement of the reference surface.

国際公開2001/057471号International Publication No. 2001/057471

特許文献1に記載の形状測定装置は、測定対象領域を基準面の移動に追従させて変位測定方向へと移動させる。具体的には、計測対象物体上の段差境界線の移動に基づいて、測定対象領域を基準面の移動に追従させて変位測定方向へと移動させている。しかしながら、パターンと測定対象物体の相対移動に対する画像データ上におけるパターンの位置の移動方向、移動距離は、測定対象物体の形状、パターンと測定対象物体の相対移動方向、投影部及び撮像部と測定対象物体との相対位置等によって変化するため、測定対象領域が適切に設定できていない場合がある。   The shape measuring apparatus described in Patent Document 1 moves the measurement target region in the displacement measurement direction by following the movement of the reference plane. Specifically, based on the movement of the step boundary line on the measurement target object, the measurement target area is moved in the displacement measurement direction by following the movement of the reference plane. However, the movement direction and movement distance of the pattern position on the image data relative to the relative movement of the pattern and the measurement target object are the shape of the measurement target object, the relative movement direction of the pattern and the measurement target object, the projection unit, the imaging unit, and the measurement target. Since it changes depending on the relative position to the object, the measurement target region may not be set appropriately.

本発明は、以上のような点を考慮してなされたもので、測定対象上に投影されたパターンの投影位置の移動に基づいてパターンの像を適切に抽出し、測定対象の測定に利用することができる形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、形状測定プログラム、及び記録媒体を提供することを目的とする。   The present invention has been made in consideration of the above points, and appropriately extracts a pattern image based on the movement of the projection position of the pattern projected onto the measurement object, and uses it for measurement of the measurement object. An object is to provide a shape measuring device, a structure manufacturing system, a shape measuring method, a structure manufacturing method, a shape measuring program, and a recording medium.

本発明の第1の態様に従えば、パターンを測定対象に投影する投影部と、前記投影部によりパターンが投影された測定対象を撮像する撮像部と、前記投影部と前記測定対象とを相対移動させて、前記測定対象への前記パターンの前記測定対象上における投影位置を変化させる移動部と、前記撮像部で撮像される撮像領域の少なくとも一部において前記パターンの像を含むように設定された、前記測定対象の測定に利用される情報を取得するための注目領域の位置を、撮像領域における前記パターンの像の移動に伴い変更する注目領域設定部と、前記注目領域内の前記パターンの像に基づいて、前記測定対象の形状を測定する測定部と、を備える形状測定装置が提供される。   According to the first aspect of the present invention, the projection unit that projects the pattern onto the measurement target, the imaging unit that captures the measurement target on which the pattern is projected by the projection unit, and the projection unit and the measurement target are relative to each other. A moving unit that changes the projection position of the pattern onto the measurement target on the measurement target, and an image of the pattern is set to be included in at least a part of the imaging region captured by the imaging unit. An attention area setting unit that changes a position of an attention area for acquiring information used for measurement of the measurement target as the pattern image moves in the imaging area; and There is provided a shape measuring device including a measuring unit that measures the shape of the measurement object based on an image.

本発明の第2の態様に従えば、構造物の形状に関する設計情報に基づいて構造物を成形する成形装置と、成形装置によって成形された構造物の形状を測定する第1の態様の形状測定装置と、形状測定装置によって測定された構造物の形状を示す形状情報と設計情報とを比較する制御装置と、を備える構造物製造システムが提供される。   According to the second aspect of the present invention, a molding apparatus that molds a structure based on design information related to the shape of the structure, and a shape measurement of the first aspect that measures the shape of the structure molded by the molding apparatus. There is provided a structure manufacturing system including an apparatus and a control device that compares design information with shape information indicating the shape of the structure measured by the shape measuring device.

本発明の第3の態様に従えば、測定対象へパターンを投影し、前記パターンの投影方向とは異なる方向から前記測定対象に投影された前記パターンの像を撮像して画像データを取得し、前記画像データの前記パターンの像に基づいて、前記測定対象の形状を測定する形状測定方法であって、前記パターンの投影位置が前記測定対象に対して相対移動することと、撮像領域の少なくとも一部において前記パターンの像を含むように設定された、前記測定対象の測定に利用される情報を取得するための注目領域の位置を、撮像領域における前記パターンの像の移動に伴い変更することと、前記画像データの前記注目領域内に位置する前記パターンの像に基づいて前記測定対象の形状を測定することと、を備える形状測定方法が提供される。   According to the third aspect of the present invention, a pattern is projected onto the measurement target, and an image of the pattern projected onto the measurement target from a direction different from the projection direction of the pattern is acquired to obtain image data. A shape measurement method for measuring a shape of the measurement object based on an image of the pattern of the image data, wherein the projection position of the pattern moves relative to the measurement object, and at least one of imaging regions Changing a position of a region of interest for acquiring information used for measurement of the measurement target, which is set to include the image of the pattern in the unit, with movement of the image of the pattern in the imaging region; And measuring the shape of the measurement object based on the image of the pattern located in the region of interest of the image data.

本発明の第4の態様に従えば、構造物の形状に関する設計情報に基づいて構造物を成形することと、成形された構造物の形状を第3の態様の形状測定方法によって測定することと、測定された構造物の形状を示す形状情報と設計情報とを比較することと、を含む構造物製造方法が提供される。   According to the fourth aspect of the present invention, the structure is formed based on the design information related to the shape of the structure, and the shape of the formed structure is measured by the shape measuring method of the third aspect. A structure manufacturing method is provided that includes comparing shape information indicating the shape of the measured structure with design information.

本発明の第5の態様に従えば、測定対象へパターンを投影し、前記パターンの投影方向とは異なる方向から前記測定対象に投影された前記パターンの像を撮像して画像データを取得し、前記画像データの前記パターンの像に基づいて、前記測定対象の形状を測定することを実行させる形状測定プログラムであって、コンピュータに、前記パターンの投影位置が前記測定対象に対して相対移動することと、撮像領域の少なくとも一部において前記パターンの像を含むように設定された、前記測定対象の測定に利用される情報を取得するための注目領域の位置を、撮像領域における前記パターンの像の移動に伴い変更することと、前記画像データの前記注目領域内に位置する前記パターンの像に基づいて前記測定対象の形状を測定することと、を実行させる形状測定プログラムが提供される。   According to the fifth aspect of the present invention, a pattern is projected onto a measurement target, and an image of the pattern projected onto the measurement target from a direction different from the projection direction of the pattern is acquired to obtain image data. A shape measurement program for executing measurement of the shape of the measurement object based on an image of the pattern of the image data, wherein a projection position of the pattern is moved relative to the measurement object. And the position of the region of interest for acquiring information used for measurement of the measurement object, which is set to include the image of the pattern in at least a part of the imaging region, Changing with movement, and measuring the shape of the measurement object based on an image of the pattern located in the region of interest of the image data. Shape measuring program for causing a row is provided.

本発明の第6の態様に従えば、第5の態様の形状測定プログラムを記録し、コンピュータが読み取り可能な記録媒体が提供される。   According to the sixth aspect of the present invention, there is provided a computer-readable recording medium that records the shape measurement program of the fifth aspect.

本発明では、パターンの像を適切に抽出し、測定対象の測定に利用することができ、被測定物の形状をより適切な条件で測定することができる。   In the present invention, a pattern image can be appropriately extracted and used for measurement of a measurement target, and the shape of the object to be measured can be measured under more appropriate conditions.

図1は、本実施形態の形状測定装置を示す斜視図である。FIG. 1 is a perspective view showing a shape measuring apparatus according to this embodiment. 図2は、本実施形態の形状測定装置の構成を示す模式図である。FIG. 2 is a schematic diagram showing the configuration of the shape measuring apparatus of the present embodiment. 図3は、本実施形態の形状測定装置の制御装置の概略構成を示すブロック図である。FIG. 3 is a block diagram showing a schematic configuration of the control device of the shape measuring apparatus of the present embodiment. 図4は、制御装置の注目領域設定ユニットの概略構成を示すブロック図である。FIG. 4 is a block diagram showing a schematic configuration of the attention area setting unit of the control device. 図5は、本実施形態の形状測定装置の測定動作を説明するための説明図である。FIG. 5 is an explanatory diagram for explaining the measurement operation of the shape measuring apparatus according to the present embodiment. 図6は、本実施形態の形状測定装置に表示する画面の一例を説明するための説明図である。FIG. 6 is an explanatory diagram for explaining an example of a screen displayed on the shape measuring apparatus of the present embodiment. 図7は、本実施形態の形状測定装置の測定動作を説明するための説明図である。FIG. 7 is an explanatory diagram for explaining the measurement operation of the shape measuring apparatus according to the present embodiment. 図8は、本実施形態の形状測定装置の注目領域設定動作の一例を示すフローチャートである。FIG. 8 is a flowchart illustrating an example of the attention area setting operation of the shape measuring apparatus according to the present embodiment. 図9は、本実施形態の形状測定装置の第2の注目領域の生成判定処理の一例を示すフローチャートである。FIG. 9 is a flowchart illustrating an example of the second region-of-interest generation determination process of the shape measuring apparatus according to the present embodiment. 図10は、本実施形態の形状測定装置の第2の注目領域の生成判定処理の一例を示すフローチャートである。FIG. 10 is a flowchart illustrating an example of the second region-of-interest generation determination process of the shape measuring apparatus according to the present embodiment. 図11は、基準注目領域データの一例を示す説明図である。FIG. 11 is an explanatory diagram of an example of reference attention area data. 図12は、注目領域設定動作の一例を説明するための説明図である。FIG. 12 is an explanatory diagram for explaining an example of the attention area setting operation. 図13は、本実施形態の形状測定装置の測定動作の一例を示すフローチャートである。FIG. 13 is a flowchart showing an example of the measuring operation of the shape measuring apparatus according to the present embodiment. 図14は、本実施形態の形状測定装置の注目領域設定動作の一例を示すフローチャートである。FIG. 14 is a flowchart illustrating an example of the attention area setting operation of the shape measuring apparatus according to the present embodiment. 図15は、制御装置の注目領域設定ユニットと記憶部の概略構成を示すブロック図である。FIG. 15 is a block diagram illustrating a schematic configuration of the attention area setting unit and the storage unit of the control device. 図16は、本実施形態の形状測定装置の注目領域設定動作の一例を示すフローチャートである。FIG. 16 is a flowchart illustrating an example of the attention area setting operation of the shape measuring apparatus according to the present embodiment. 図17は、注目領域テンプレートデータの一例を示す説明図である。FIG. 17 is an explanatory diagram of an example of attention area template data. 図18は、注目領域設定動作の一例を説明するための説明図である。FIG. 18 is an explanatory diagram for explaining an example of the attention area setting operation. 図19は、注目領域設定動作の一例を説明するための説明図である。FIG. 19 is an explanatory diagram for explaining an example of the attention area setting operation. 図20は、注目領域設定動作の一例を説明するための説明図である。FIG. 20 is an explanatory diagram for explaining an example of the attention area setting operation. 図21は、注目領域設定動作の一例を説明するための説明図である。FIG. 21 is an explanatory diagram for explaining an example of the attention area setting operation. 図22は、注目領域設定動作の一例を説明するための説明図である。FIG. 22 is an explanatory diagram for explaining an example of the attention area setting operation. 図23は、形状測定装置を有するシステムの構成を示す模式図である。FIG. 23 is a schematic diagram showing a configuration of a system having a shape measuring apparatus. 図24は、本実施形態の構造物製造システムの構成を示す図である。FIG. 24 is a diagram showing a configuration of the structure manufacturing system of the present embodiment. 図25は、本実施形態の構造物製造方法を示すフローチャートである。FIG. 25 is a flowchart showing the structure manufacturing method of the present embodiment.

以下、本発明につき図面を参照しつつ詳細に説明する。なお、下記の発明を実施するための形態(以下、実施形態という)により本発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、下記実施形態で開示した構成要素は適宜組み合わせることが可能である。   Hereinafter, the present invention will be described in detail with reference to the drawings. The present invention is not limited by the following modes for carrying out the invention (hereinafter referred to as embodiments). In addition, constituent elements in the following embodiments include those that can be easily assumed by those skilled in the art, those that are substantially the same, and those in a so-called equivalent range. Furthermore, the constituent elements disclosed in the following embodiments can be appropriately combined.

以下の説明においては、XYZ直交座標系を設定し、このXYZ直交座標系を参照しつつ各部の位置関係について説明する。Z軸方向は、例えば鉛直方向に設定され、X軸方向及びY軸方向は、例えば、水平方向に平行で互いに直交する方向に設定される。また、X軸、Y軸、及びZ軸まわりの回転(傾斜)方向をそれぞれ、θX、θY、及びθZ軸方向とする。   In the following description, an XYZ orthogonal coordinate system is set, and the positional relationship of each part will be described with reference to this XYZ orthogonal coordinate system. The Z-axis direction is set, for example, in the vertical direction, and the X-axis direction and the Y-axis direction are set, for example, in directions that are parallel to the horizontal direction and orthogonal to each other. In addition, the rotation (inclination) directions around the X, Y, and Z axes are the θX, θY, and θZ axis directions, respectively.

(本実施形態)
図1は、本実施形態に係る形状測定装置1の外観を示す図である。図2は、本実施形態の形状測定装置の概略構成を示す模式図である。図3は、本実施形態の形状測定装置の制御装置の概略構成を示すブロック図である。
(This embodiment)
FIG. 1 is a diagram illustrating an appearance of a shape measuring apparatus 1 according to the present embodiment. FIG. 2 is a schematic diagram showing a schematic configuration of the shape measuring apparatus of the present embodiment. FIG. 3 is a block diagram showing a schematic configuration of the control device of the shape measuring apparatus of the present embodiment.

形状測定装置1は、例えば光切断法を利用して、測定対象の物体(被測定物)Mの三次元的な形状を測定する。形状測定装置1は、プローブ移動装置2と、光学プローブ3と、制御装置4と、表示装置5と、入力装置6と、保持回転装置7と、を備える。形状測定装置1は、ベースBに設けられた保持回転装置7に保持されている被測定物Mの形状を測定する。そのために、光学プローブ3は被測定物Mにライン状のパターンを投影しながら、被測定物Mにライン状のパターンの像を撮像する。また、本実施形態では、プローブ移動装置2と保持回転装置7とが、プローブと被測定物Mとを相対的に移動させる移動機構となる。   The shape measuring apparatus 1 measures the three-dimensional shape of the measurement target object (object to be measured) M using, for example, a light cutting method. The shape measuring device 1 includes a probe moving device 2, an optical probe 3, a control device 4, a display device 5, an input device 6, and a holding and rotating device 7. The shape measuring device 1 measures the shape of the object M to be measured that is held by the holding and rotating device 7 provided on the base B. For this purpose, the optical probe 3 captures an image of the line pattern on the object to be measured M while projecting the line pattern on the object to be measured M. Further, in the present embodiment, the probe moving device 2 and the holding and rotating device 7 serve as a moving mechanism that relatively moves the probe and the object M to be measured.

プローブ移動装置2は、光学プローブ3に投影されるライン状のパターンが被測定物Mの測定対象領域に投影されるように光学プローブ3を被測定物Mに対して移動させる。また、ライン状のパターンの投影位置が被測定物M上で逐次移動できるように被測定物Mに対して光学プローブ3を移動させる。プローブ移動装置2は、図2に示すように、駆動部10、及び位置検出部11を備えている。駆動部10は、X移動部50X、Y移動部50Y、Z移動部50Z、第1回転部53、及び第2回転部54を備えている。   The probe moving device 2 moves the optical probe 3 relative to the object to be measured M so that the line pattern projected on the optical probe 3 is projected onto the measurement target region of the object to be measured M. Further, the optical probe 3 is moved with respect to the measurement object M so that the projection position of the line pattern can be sequentially moved on the measurement object M. As shown in FIG. 2, the probe moving device 2 includes a drive unit 10 and a position detection unit 11. The drive unit 10 includes an X moving unit 50X, a Y moving unit 50Y, a Z moving unit 50Z, a first rotating unit 53, and a second rotating unit 54.

X移動部50Xは、ベースBに対して矢印62の方向、つまりX軸方向に移動自在に設けられている。Y移動部50Yは、X移動部50Xに対して矢印63の方向、つまりY軸方向に移動自在に設けられている。Y移動部50Yには、Z軸方向に延在する保持体52が設けられている。Z移動部50Zは、保持体52に対して、矢印64の方向、つまりZ軸方向に移動自在に設けられている。これらX移動部50X、Y移動部50Y、Z移動部50Zは、第1回転部53、第2回転部54とともに光学プローブ3をX軸方向、Y軸方向及びZ軸方向に移動可能にする移動機構を構成している。   The X moving part 50X is provided to be movable with respect to the base B in the direction of the arrow 62, that is, in the X axis direction. The Y moving unit 50Y is provided so as to be movable in the direction of the arrow 63, that is, in the Y-axis direction with respect to the X moving unit 50X. The Y moving unit 50Y is provided with a holding body 52 extending in the Z-axis direction. The Z moving part 50Z is provided so as to be movable with respect to the holding body 52 in the direction of the arrow 64, that is, in the Z-axis direction. The X moving unit 50X, the Y moving unit 50Y, and the Z moving unit 50Z move together with the first rotating unit 53 and the second rotating unit 54 to move the optical probe 3 in the X axis direction, the Y axis direction, and the Z axis direction. The mechanism is configured.

第1回転部53は、後述する保持部材(保持部)55に支持される光学プローブ3をX軸と平行な回転軸線(回転軸)53aを中心とする回転方向、つまり矢印65の方向に回転して光学プローブ3の姿勢を変える。特に、第1回転部53により、光学プローブ3から投影されるパターンの被測定物Mへの投影方向が変えられる。第2回転部54は、保持部材55に支持される光学プローブ3を後述する第1保持部55Aが延在する方向と平行な軸線を中心とする回転方向、つまり矢印66の方向に回転して光学プローブ3の姿勢を変える。特に、第2回転部54により、光学プローブ3から投影されるライン状のパターンの長手方向の向きが被測定物Mに対して変えられる。形状測定装置1は、光学プローブ3と光学プローブ3を保持している保持部材55との相対位置の補正に用いる基準球73aまたは基準球73bを有する。   The first rotating portion 53 rotates the optical probe 3 supported by a holding member (holding portion) 55 described later in a rotation direction around a rotation axis (rotation axis) 53 a parallel to the X axis, that is, in the direction of the arrow 65. Then, the posture of the optical probe 3 is changed. In particular, the projection direction of the pattern projected from the optical probe 3 onto the measurement object M is changed by the first rotating unit 53. The second rotating portion 54 rotates the optical probe 3 supported by the holding member 55 in a rotation direction around an axis parallel to a direction in which a first holding portion 55A described later extends, that is, in the direction of the arrow 66. The posture of the optical probe 3 is changed. In particular, the second rotating unit 54 changes the longitudinal direction of the line pattern projected from the optical probe 3 with respect to the object M to be measured. The shape measuring apparatus 1 has a reference sphere 73a or a reference sphere 73b used for correcting the relative position between the optical probe 3 and the holding member 55 holding the optical probe 3.

保持回転装置7は、図1および図2に示すように、被測定物Mを保持するテーブル71と、テーブル71をθZ軸方向、つまり矢印68の方向に回転させる回転駆動部72と、テーブル71の回転方向の位置を検出する位置検出部73と、を有する。位置検出部73は、テーブル71または回転駆動部72の回転軸の回転を検出するエンコーダ装置である。保持回転装置7は、位置検出部73で検出した結果に基づいて、回転駆動部72によってテーブル71を回転させる。保持回転装置7とプローブ移動装置3により、光学プローブ3から投影されるライン状のパターンは、被測定物Mの任意の測定対象領域に投影することができる。   As shown in FIGS. 1 and 2, the holding and rotating device 7 includes a table 71 that holds the object M, a rotation driving unit 72 that rotates the table 71 in the θZ axis direction, that is, the direction of the arrow 68, and the table 71. And a position detector 73 for detecting the position in the rotation direction. The position detection unit 73 is an encoder device that detects the rotation of the rotary shaft of the table 71 or the rotation drive unit 72. The holding and rotating device 7 rotates the table 71 by the rotation driving unit 72 based on the result detected by the position detecting unit 73. The linear pattern projected from the optical probe 3 can be projected onto an arbitrary measurement target area of the object M by the holding and rotating device 7 and the probe moving device 3.

これら、X移動部50X、Y移動部50Y、Z移動部50Z、第1回転部53、及び第2回転部54、保持回転装置7の駆動は、エンコーダ装置等によって構成される位置検出部11の検出結果に基づいて、制御装置4により制御される。   The driving of the X moving unit 50X, the Y moving unit 50Y, the Z moving unit 50Z, the first rotating unit 53, the second rotating unit 54, and the holding rotating device 7 is driven by the position detecting unit 11 configured by an encoder device or the like. Control is performed by the control device 4 based on the detection result.

光学プローブ3は、保持部材55に支持されている。保持部材55は、回転軸線53aと直交する方向に延び、第1回転部53に支持される第1保持部(第1部分、第1部材)55Aと、第1保持部55Aの+Z側の端部に設けられ回転軸線53aと平行に延びる第2保持部(第2部分、第2部材)55Bとを有する。第1保持部55Aの+Z側の端部は、被測定物Mに対して遠い側に配置されている。第1保持部55Aと第2保持部55Bとは直交する。第2保持部55Bの+X側の端部に光学プローブ3が支持されている。第1回転部53の回転軸線53aの位置は、光学プローブ3よりも、被測定物Mに近い側に配置されている。また、第1保持部55Aの被測定物Mに対して近い側の端部には、カウンターバランス55cが設けられている。したがって、第1の回転部53の回転軸線53aに対して、保持部材55側に生じるモーメントとカウンターバランス55c側に生じるモーメントが釣り合っている。   The optical probe 3 is supported by the holding member 55. The holding member 55 extends in a direction orthogonal to the rotation axis 53a, and is supported by the first rotating portion 53. The first holding portion (first portion, first member) 55A, and the + Z side end of the first holding portion 55A And a second holding portion (second portion, second member) 55B that is provided in the portion and extends in parallel with the rotation axis 53a. The + Z side end of the first holding portion 55 </ b> A is disposed on the far side from the DUT M. The first holding unit 55A and the second holding unit 55B are orthogonal to each other. The optical probe 3 is supported on the + X side end portion of the second holding portion 55B. The position of the rotation axis 53 a of the first rotating unit 53 is arranged closer to the object to be measured M than the optical probe 3. A counter balance 55c is provided at the end of the first holding portion 55A on the side closer to the object M to be measured. Therefore, the moment generated on the holding member 55 side and the moment generated on the counter balance 55c side are balanced with respect to the rotation axis 53a of the first rotating portion 53.

ところで、光学プローブ3は、光源装置8及び撮像装置9を備えている。光源装置8及び撮像装置9は共通の筐体により固定されている。したがって、光源装置8によるライン状のパターンの投影方向と撮像装置9による撮影方向とそれぞれの位置関係は固定された状態に保たれている。したがって、ライン状のパターンの投影方向と撮像装置9の撮影方向とその両者間の位置関係を基に、撮像装置9で検出されたライン状のパターンの像の位置から三角測量法に基づき、被測定物Mの測定対象領域における三次元空間での位置を求めることができる。光学プローブ3の光源装置(投影部)8は、制御装置4によって制御され、保持回転装置7に保持された被測定物Mの測定領域にライン状のパターンを投影するものであり、光源12、照明光学系13を備える。本実施形態の光源12は、例えば、レーザーダイオードを含む。なお、光源12は、レーザーダイオード以外の発光ダイオード(LED)等の固体光源を含んでいてもよい。また、本実施形態の光源12は制御装置4により投光量が制御されている。特に、制御装置4にある調光制御部38で制御している。   Incidentally, the optical probe 3 includes a light source device 8 and an imaging device 9. The light source device 8 and the imaging device 9 are fixed by a common housing. Therefore, the positional relationship between the projection direction of the line pattern by the light source device 8 and the shooting direction by the imaging device 9 is kept fixed. Therefore, based on the triangulation method based on the position of the image of the line pattern detected by the imaging device 9, based on the projection direction of the line pattern, the shooting direction of the imaging device 9, and the positional relationship between them. The position of the measuring object M in the measurement target region in the three-dimensional space can be obtained. The light source device (projection unit) 8 of the optical probe 3 is controlled by the control device 4 and projects a line-shaped pattern onto the measurement area of the object M held by the holding and rotating device 7. An illumination optical system 13 is provided. The light source 12 of this embodiment includes a laser diode, for example. The light source 12 may include a solid light source such as a light emitting diode (LED) other than the laser diode. Further, the light emission amount of the light source 12 of this embodiment is controlled by the control device 4. In particular, it is controlled by the dimming control unit 38 in the control device 4.

照明光学系13は、光源12から発せられた光の空間的な光強度分布を調整する。本実施形態の照明光学系13は、例えば、シリンドリカルレンズを含む複数の光学素子からなる。なお、照明光学系13は、1つの光学素子であってもよいし、複数の光学素子を含んでいてもよい。光源12から発せられた光は、シリンドリカルレンズが正のパワーを有する方向にスポットが広げられて、光源装置8から被測定物Mに向く第1方向に沿って出射する。図2に示したように、回転軸線53aに直交する面に光源装置8と撮像装置9を配置し、光源装置8から投影した光の進行方向が回転軸線53aに直交する面を通る向きで、光源装置8から出射し、被測定物Mに投影した場合、光源装置8からの出射方向に対して直交する面を有する被測定物Mに投影されたときには、回転軸線53aと平行な方向を長手方向とし、回転軸線53aに平行なライン状のパターンになる。   The illumination optical system 13 adjusts the spatial light intensity distribution of the light emitted from the light source 12. The illumination optical system 13 of the present embodiment is composed of a plurality of optical elements including, for example, a cylindrical lens. The illumination optical system 13 may be a single optical element or may include a plurality of optical elements. The light emitted from the light source 12 is emitted in the first direction from the light source device 8 toward the object to be measured M, with the spot being expanded in the direction in which the cylindrical lens has positive power. As shown in FIG. 2, the light source device 8 and the imaging device 9 are arranged on a surface orthogonal to the rotation axis 53a, and the traveling direction of the light projected from the light source device 8 passes through the surface orthogonal to the rotation axis 53a. When emitted from the light source device 8 and projected onto the measurement object M, when projected onto the measurement object M having a surface orthogonal to the emission direction from the light source device 8, the direction parallel to the rotation axis 53a is elongated. The line pattern is parallel to the rotation axis 53a.

なお、このライン状のパターンの長手方向は、先に説明した第2回転部54により方向を変えられる。被測定物Mの面の広がり方向に応じて、ライン状のパターンの長手方向を変えることで、効率的に測定することができる。また、同時に撮像装置9による撮影方向も変わる。したがって、歯車のような凸部が並んだ形状の被測定物であっても、歯筋に沿って撮影方向を設定することで、歯底の形状も測定することができる。   The longitudinal direction of the line pattern can be changed by the second rotating unit 54 described above. By changing the longitudinal direction of the line-shaped pattern according to the spreading direction of the surface of the object to be measured M, it is possible to efficiently measure. At the same time, the shooting direction by the imaging device 9 also changes. Therefore, even if the object to be measured has a shape in which convex portions such as gears are arranged, the shape of the root can be measured by setting the photographing direction along the tooth trace.

なお、照明光学系13は、CGH等の回折光学素子を含み、光源12から発せられた照明光束Lの空間的な光強度分布を回折光学素子によって調整してもよい。また、本実施形態において、空間的な光強度分布が調整された投影光をパターンということがある。照明光束Lは、パターンの一例である。ところで、本明細書ではパターンの向きと称しているときは、このライン状のパターンの長手方向の方向を示している。   The illumination optical system 13 may include a diffractive optical element such as CGH, and the spatial light intensity distribution of the illumination light beam L emitted from the light source 12 may be adjusted by the diffractive optical element. In the present embodiment, the projection light whose spatial light intensity distribution is adjusted may be referred to as a pattern. The illumination light beam L is an example of a pattern. By the way, when the direction of the pattern is referred to in this specification, the direction of the longitudinal direction of the line pattern is shown.

撮像装置(撮像部)9は、撮像素子20、結像光学系21、ダイヤフラム23、及びダイヤフラム駆動部24を備える。光源装置8から被測定物Mに投影された照明光束Lは、被測定物Mの表面で反射散乱して、その少なくとも一部が結像光学系21へ入射する。結像光学系21は、光源装置8によって被測定物Mの表面に投影されたライン状のパターンの像を被測定物Mの像と一緒に撮像素子20に結ぶ。撮像素子20は、この結像光学系21が形成する像を撮像する。画像処理部25は、撮像素子20で受光した受光信号から画像データを生成する。ダイヤフラム23は大きさを可変可能にする開口を有し、開口の大きさを変えることで結像光学系21を通過する光量を制御することができる。ダイヤフラム23の開口の大きさは、ダイヤフラム駆動部24により調整可能である。このダイヤフラム駆動部24は制御装置4に制御されている。特に、制御装置4にある調光制御部38で制御している。   The imaging device (imaging unit) 9 includes an imaging device 20, an imaging optical system 21, a diaphragm 23, and a diaphragm driving unit 24. The illumination light beam L projected from the light source device 8 onto the object to be measured M is reflected and scattered by the surface of the object to be measured M, and at least a part thereof enters the imaging optical system 21. The imaging optical system 21 connects the image of the line pattern projected on the surface of the object to be measured M by the light source device 8 to the image sensor 20 together with the image of the object to be measured M. The image sensor 20 captures an image formed by the imaging optical system 21. The image processing unit 25 generates image data from the light reception signal received by the image sensor 20. The diaphragm 23 has an opening whose size can be changed, and the amount of light passing through the imaging optical system 21 can be controlled by changing the size of the opening. The size of the opening of the diaphragm 23 can be adjusted by the diaphragm driving unit 24. The diaphragm driving unit 24 is controlled by the control device 4. In particular, it is controlled by the dimming control unit 38 in the control device 4.

結像光学系21は、光源装置8から投影されるライン状のパターンの投影方向を含むように物体面21aが設定され、その物体面と撮像素子20の受光面20a(像面)とが共役な関係になるように結像光学系21と撮像素子20が配置されている。照明光束Lの伝播方向は、光源装置8からの照明光束Lの投影方向と照明光束Lのスポットの形状の長手方向とを含む面とほぼ平行となる。物体面と撮像素子20の受光面20aと共役な面を照明光束Lの伝播方向に沿って形成するようにすることで、被測定物Mの表面と照明光束Lがどの位置で交差しても、撮像装置9で撮影された照明光束Lによるパターンの像は合焦した像となる。   In the imaging optical system 21, an object plane 21 a is set so as to include the projection direction of the line pattern projected from the light source device 8, and the object plane and the light receiving surface 20 a (image plane) of the image sensor 20 are conjugated. The imaging optical system 21 and the image sensor 20 are arranged so as to satisfy the following relationship. The propagation direction of the illumination light beam L is substantially parallel to a plane including the projection direction of the illumination light beam L from the light source device 8 and the longitudinal direction of the spot shape of the illumination light beam L. By forming a plane conjugate with the object plane and the light receiving surface 20a of the image sensor 20 along the propagation direction of the illumination light beam L, the surface of the object to be measured M and the illumination light beam L intersect at any position. The image of the pattern by the illumination light beam L photographed by the imaging device 9 is a focused image.

制御装置4は、形状測定装置1の各部を制御する。制御装置4は、光学プローブ3による撮像結果とプローブ移動装置2及び保持回転装置7の位置情報に基づき、演算処理を行って被測定物Mの測定対象領域の3次元形状を算出する。本実施形態における形状情報は、測定対象の被測定物Mの少なくとも一部に関する形状、寸法、凹凸分布、表面粗さ、及び測定対象面上の点の位置(座標)、の少なくとも1つを示す情報を含む。制御装置4には、表示装置5、及び入力装置6が接続される。制御装置4は、図3に示すように、制御部30と、記憶部31と、を有する。   The control device 4 controls each part of the shape measuring device 1. The control device 4 calculates the three-dimensional shape of the measurement target region of the object M to be measured based on the imaging result of the optical probe 3 and the positional information of the probe moving device 2 and the holding and rotating device 7. The shape information in the present embodiment indicates at least one of the shape, size, unevenness distribution, surface roughness, and position (coordinates) of a point on the measurement target surface regarding at least a part of the measurement target M to be measured. Contains information. A display device 5 and an input device 6 are connected to the control device 4. As illustrated in FIG. 3, the control device 4 includes a control unit 30 and a storage unit 31.

制御部30は、被測定物Mを正確に測定するために必要な回路ブロックを有している。なお、本実施の形態では、中央演算処理装置を用いて、被測定物Mを正しく測定するために必要な機能を、それぞれ対応するプログラムを実行することで実現していてもよい。制御部30は、注目領域設定ユニット32と、測定範囲設定部36と、調光領域設定部37と、調光制御部38と、測定部39と、動作制御部40と、を有する。   The control unit 30 has a circuit block necessary for accurately measuring the object M to be measured. In the present embodiment, the functions necessary for correctly measuring the object M to be measured may be realized by executing a corresponding program using the central processing unit. The control unit 30 includes an attention area setting unit 32, a measurement range setting unit 36, a dimming area setting unit 37, a dimming control unit 38, a measuring unit 39, and an operation control unit 40.

注目領域設定ユニット32は、画像データ上の領域を示す注目領域を設定する。この注目領域は、撮像素子20で撮像された、被測定物M上に投影された照明光束Lの像を容易に抽出しやすくするために照明光束Lの像の探索範囲を制限するために利用したり、または、撮像時の露出制御や照明光束Lの照明光量制御のために取得する照明光束Lの像の明るさ情報を取得する範囲を限定するためになどに利用する。特に、被測定物Mが歯車のような凸部のピッチが狭い形状を持ち、その表面が光沢を有するものは、その表面が合わせ鏡のような作用を発揮してしまうため、照明光束Lが照射された領域以外にも照明光束Lの像が形成されてしまう。これを多重反射像という。
なお、本実施の形態における形状測定装置では、撮像素子20で取得される画像データに注目領域を設定することで、このような多重反射像やその他の原因で発生する偽像を照明光束Lの像として誤認識することを低減する効果を持つ。
ところで、注目領域設定ユニット32は、撮像装置9からデータが入力され、動作制御部40から各部の動作の情報、具体的に光学プローブ3と被測定物Mとの相対位置の情報が入力される。注目領域設定ユニット32は、記憶部31の注目領域の位置設定データ42から撮像装置9で撮影できる領域(または、撮像素子20で取得できる視野範囲)に対して、どの位置に注目領域を設定するかの位置情報を取得する。注目領域設定ユニット32は、基準注目領域の位置設定データ44から基準注目領域データを取得する。注目領域設定ユニット32は、ユーザーなどにより撮影範囲内で設定した注目領域の位置情報を記憶部31の注目領域の位置設定データ42に出力する。
測定範囲設定部36は、注目領域の位置設定データ42また入力装置6から入力される指示に基づいて、測定範囲を設定する。測定範囲設定部36は、設定した測定範囲を測定部39に出力する。
調光領域設定部37は、注目領域の位置設定データ42また入力装置6から入力される指示に基づいて、調光領域設定可能範囲及び調光領域を設定する。調光領域設定部37は、設定した調光領域を調光制御部38に出力する。
調光制御部38は、調光領域設定部37から調光領域が入力される。調光制御部38は、調光領域の画像データの情報に基づいて、調光条件、例えば光源装置8または撮像装置9の画像データ取得時の動作条件を決定する。調光制御部38は、決定した調光条件を光源装置8または撮像装置9に出力する。
測定部39は、測定範囲設定部36で設定された測定範囲が入力される。測定部39は、撮像装置9で取得した画像データ入力される。測定部39は、動作制御部40から各部の動作の情報、具体的に光学プローブ3と被測定物Mとの相対位置の情報が入力される。測定部39は、画像データを取得した光学プローブ3と被測定物Mとの相対位置について、画像データの測定範囲に含まれるライン状のパターンの像(本実施形態ではライン光の像ともいう。)を検出し、そのパターンの像に基づいて、被測定物Mの外形形状を測定する。動作制御部40は、プローブ移動装置2、光学プローブ3及び保持回転装置7の動作制御を実施する。動作制御部40は、動作制御の情報を注目領域設定部32及び測定部39に出力する。
The attention area setting unit 32 sets an attention area indicating an area on the image data. This attention area is used to limit the search range of the image of the illumination light beam L in order to easily extract the image of the illumination light beam L projected on the measurement object M, which is imaged by the image sensor 20. Or for limiting the range for acquiring the brightness information of the image of the illumination light beam L acquired for the exposure control at the time of imaging or the illumination light quantity control of the illumination light beam L. In particular, when the object to be measured M has a shape in which the pitch of convex portions such as gears is narrow and the surface thereof is glossy, the surface of the object M exhibits an action like a mirror. An image of the illumination light beam L is also formed outside the irradiated region. This is called a multiple reflection image.
In the shape measuring apparatus according to the present embodiment, by setting a region of interest in the image data acquired by the image sensor 20, such a multiple reflection image or a false image generated due to other causes can be generated by the illumination light beam L. This has the effect of reducing erroneous recognition as an image.
Meanwhile, the attention area setting unit 32 receives data from the imaging device 9 and receives information on the operation of each unit, specifically information on the relative position between the optical probe 3 and the object M to be measured, from the operation control unit 40. . The attention area setting unit 32 sets the attention area at which position with respect to the area that can be imaged by the imaging device 9 (or the visual field range that can be acquired by the imaging device 20) from the position setting data 42 of the attention area of the storage unit 31. Get the location information. The attention area setting unit 32 acquires reference attention area data from the position setting data 44 of the reference attention area. The attention area setting unit 32 outputs the position information of the attention area set within the imaging range by the user or the like to the position setting data 42 of the attention area in the storage unit 31.
The measurement range setting unit 36 sets the measurement range based on the position setting data 42 of the region of interest or an instruction input from the input device 6. The measurement range setting unit 36 outputs the set measurement range to the measurement unit 39.
The dimming area setting unit 37 sets the dimming area settable range and the dimming area based on the position setting data 42 of the attention area or an instruction input from the input device 6. The dimming area setting unit 37 outputs the set dimming area to the dimming control unit 38.
The dimming control unit 38 receives the dimming area from the dimming area setting unit 37. The dimming control unit 38 determines dimming conditions, for example, operating conditions when acquiring image data of the light source device 8 or the imaging device 9 based on information of image data in the dimming region. The dimming control unit 38 outputs the determined dimming conditions to the light source device 8 or the imaging device 9.
The measurement unit 39 receives the measurement range set by the measurement range setting unit 36. The measurement unit 39 receives image data acquired by the imaging device 9. The measurement unit 39 receives information on the operation of each unit from the operation control unit 40, specifically, information on the relative position between the optical probe 3 and the object M to be measured. The measurement unit 39 has an image of a line pattern included in the measurement range of the image data (also referred to as an image of line light in the present embodiment) with respect to the relative position between the optical probe 3 that has acquired the image data and the object M to be measured. ) And the outer shape of the object M to be measured is measured based on the image of the pattern. The operation control unit 40 controls the operation of the probe moving device 2, the optical probe 3, and the holding and rotating device 7. The motion control unit 40 outputs motion control information to the attention area setting unit 32 and the measurement unit 39.

図4は、制御装置の注目領域設定ユニットの概略構成を示すブロック図である。注目領域設定ユニット32は、図4に示すように、注目領域設定部34と、を有する。注目領域設定部34は、画像データ取得部80と、移動情報取得部82と、投影パターン検出部84と、注目領域決定部86と、第2の注目領域生成部88と、を有する。   FIG. 4 is a block diagram showing a schematic configuration of the attention area setting unit of the control device. The attention area setting unit 32 includes an attention area setting section 34 as shown in FIG. The attention area setting section 34 includes an image data acquisition section 80, a movement information acquisition section 82, a projection pattern detection section 84, an attention area determination section 86, and a second attention area generation section 88.

画像データ取得部80は、撮像装置9で撮像した画像データを取得する。移動情報取得部82は、動作制御部40からプローブ移動装置2、光学プローブ3及び保持回転装置7の駆動情報を各ユニットのエンコーダ等から取得し、光学プローブ3の現在の測定対象領域がどのように移動しているのかを検出する。例えば、測定対象領域が前回の画像取得時に対して、どの方向にどれだけの量、遷移したかを求める。   The image data acquisition unit 80 acquires image data captured by the imaging device 9. The movement information acquisition unit 82 acquires the drive information of the probe moving device 2, the optical probe 3, and the holding and rotating device 7 from the operation control unit 40 from the encoder of each unit, and how the current measurement target area of the optical probe 3 is. Detect if you are moving to. For example, it is determined how much and in which direction and how much the measurement target area has changed with respect to the previous image acquisition time.

投影パターン像検出部84は、注目領域の位置設定データ42を取得し、画像データ取得部80から画像データを取得する。ここで、注目領域は、画像データ上での注目領域である。注目領域の数は、1つの画像データに対して1つ以上設定可能である。投影パターン像検出部84は、画像データの注目領域内に限定して、画像データ上におけるパターンの像の位置を検出する。   The projection pattern image detection unit 84 acquires the attention area position setting data 42 and acquires image data from the image data acquisition unit 80. Here, the attention area is an attention area on the image data. One or more attention areas can be set for one image data. The projection pattern image detection unit 84 detects the position of the pattern image on the image data only within the attention area of the image data.

注目領域決定部86は、投影パターン像検出部84で検出した画像データ上のパターンの位置を基準として、パターンの像の位置を中心に、画素ピッチ間隔で所定数分だけ離れた位置に注目領域の外郭を決定する。注目領域決定部86は、投影パターン像検出部84で検出した画像データ上のライン光が他のライン光と設定された距離(画素数)以上離れた位置に複数ある場合、複数の領域のそれぞれを注目領域に決定する。画像データ内に設ける注目領域の数は特に限定されず、1つでも2つでも3つ以上でもよい。ここで、注目領域決定部86は、第2の注目領域生成部88で第2の注目領域が決定された場合、パターンの位置に基づいて設定した注目領域とは異なる第2の注目領域も注目領域に決定する。   The attention area determination unit 86 uses the position of the pattern on the image data detected by the projection pattern image detection unit 84 as a reference, and focuses the attention area at a position separated by a predetermined number of pixel pitch intervals with the position of the pattern image as the center. Determine the outline of. When there are a plurality of line lights on the image data detected by the projection pattern image detection unit 84 at positions separated from the other line lights by a set distance (number of pixels), the attention area determination unit 86 Is determined as a region of interest. The number of attention areas provided in the image data is not particularly limited, and may be one, two, or three or more. Here, when the second attention area is determined by the second attention area generation section 88, the attention area determination section 86 also pays attention to a second attention area that is different from the attention area set based on the position of the pattern. Decide on an area.

ところで、注目領域決定部86は、本実施形態では次のように設定する。投影パターン像検出部84で検出されたパターンの像の位置を中心に、全方向に所定の距離離れた位置を外周として設定することで注目領域を設定している。なお、外周を設定するために用いられる距離は、次回、撮像装置9で撮影されるタイミングまでに、被測定物M上で測定対象領域がどのくらいの距離が移動することになるかを算出し、その算出結果に基づいて、注目領域の外周を決めるための距離情報を設定している。そのために、X移動部50X、Y移動部50Y、Z移動部50Z、第1回転部53、及び第2回転部54、保持回転装置7の駆動情報を移動情報取得部82で取得している。   By the way, the attention area determination unit 86 is set as follows in the present embodiment. The region of interest is set by setting, as an outer periphery, a position that is separated by a predetermined distance in all directions around the position of the pattern image detected by the projection pattern image detection unit 84. Note that the distance used to set the outer circumference is calculated as to how far the measurement target region will move on the measurement object M by the next time when the imaging device 9 captures the image. Based on the calculation result, distance information for determining the outer periphery of the region of interest is set. For this purpose, the movement information acquisition unit 82 acquires drive information of the X movement unit 50X, the Y movement unit 50Y, the Z movement unit 50Z, the first rotation unit 53, the second rotation unit 54, and the holding rotation device 7.

なお、本発明は、パターンの像の位置に対して全方向に範囲を広げるようにして注目領域を設定する代わりに、画像データ上でのライン光の移動方向が推定できるような場合、ライン光の位置を基準として、ライン光の移動方向に注目領域を画像データ上で移動するようにしてもよい。またパターンの像を中心に領域を広げる場合にも、ライン光の移動方向の方が、他の方向よりもパターンの像に対して離れた位置に外周が設定されるように注目領域に設定してもよい。   In the present invention, the line light is used when the moving direction of the line light on the image data can be estimated instead of setting the region of interest so as to widen the range in all directions with respect to the position of the pattern image. The region of interest may be moved on the image data in the moving direction of the line light with reference to the position of. Also, when expanding the area around the pattern image, set the focus area so that the outer circumference is set at a position farther away from the pattern image in the direction of line light movement than in the other directions. May be.

次に、第2の注目領域生成部88について説明する。第2の注目領域生成部88は、歯車のような複数の凹凸構造を有する形状を測定する場合、ライン状のパターンの像が複数発生する。そこで、本発明は、ある判定基準を設けて、第2の注目領域を生成するようにした。そこで、本実施の形態では第2の注目領域生成部88を備え、第2の注目領域生成部88は、基準注目領域内投影パターン像検出部90と、新規注目領域生成判定部92と、第2の注目領域決定部94と、から構成した。   Next, the second attention area generation unit 88 will be described. When the second region-of-interest generating unit 88 measures a shape having a plurality of concavo-convex structures such as gears, a plurality of line pattern images are generated. Therefore, in the present invention, a certain criterion is provided to generate the second attention area. Therefore, in the present embodiment, the second attention area generation section 88 is provided. The second attention area generation section 88 includes a reference attention area projection pattern image detection section 90, a new attention area generation determination section 92, and a first attention area generation determination section 92. And two attention area determination units 94.

基準注目領域の位置設定データ44は、あらかじめユーザが指定することができ、撮像装置9で撮像できる視野内において、設定された領域である。この基準注目領域は、前述の注目領域の位置設定データ42と同じように使用することができる一方、新たな注目領域を作成するか否かを判定するためにも用いられる。   The reference attention area position setting data 44 is an area set in the field of view that can be designated by the user in advance and can be imaged by the imaging device 9. The reference attention area can be used in the same manner as the position setting data 42 of the attention area described above, and is also used to determine whether or not to create a new attention area.

次に、基準注目領域内投影パターン像検出部90は、基準注目領域の位置設定データ44に基づき設定された注目領域内の撮像情報から、画像データ取得部80から取得された画像データからパターンの像の存在の有無及びパターンの像の位置等を含むパターンの像の存在状態を取得する。
基準注目領域内投影パターン像検出部90は、基準注目領域の位置設定データ44に基づいて、撮像素子22の画素範囲や画像データ上の基準注目領域を決定する基準注目領域設定部としての機能を備える。
基準注目領域内投影パターン像検出部90は、パターンの像がライン状の強度分布を有するライン光の像である場合、画像データの基準注目領域内において、ライン光の像の長さを測定する。
ライン状のパターンの像の長さは、例えば、次のような方法で測定することができる。たとえば、ライン状のパターンの長手方向を画像データの上下方向としたときに、ライン状のパターンの像を順次、上から下へ、または下から上へライン状パターンの像に対してほぼ直交する方向に沿って(以下、極大画素検索列と称す)、輝度値の変化が極大を示す画素があるかどうかを検出する。このようにして、画像データを上から下へまたは下から上へ順次検出していったときに、それぞれの極大画素検索列で検出された画素がどこまで連続して存在するかを評価することによって、長さを測定することができる。なお、極大画素検索列は、エピポーララインに沿った方向である。極大画素検索列が延在する方向が検出方向となる。このように極大画素がどれくらいの長さにわたって、連続して存在するかを評価するかによって、ライン状のパターンの像の長さの存在状態を判定する。
また、このように検出された明るさが極大を示す画素位置を検索する必要があるため、撮像素子20の画素の配列方向をエピポーララインの方向に略一致するようにしてもよい。
Next, the projection pattern image detection unit 90 in the reference region of interest generates a pattern from the image data acquired from the image data acquisition unit 80 based on the imaging information in the region of interest set based on the position setting data 44 of the reference region of interest. The presence state of the pattern image including the presence / absence of the image and the position of the pattern image is acquired.
The reference attention area projection pattern image detection unit 90 functions as a reference attention area setting section that determines the pixel range of the image sensor 22 and the reference attention area on the image data based on the position setting data 44 of the reference attention area. Prepare.
When the pattern image is a line light image having a line-shaped intensity distribution, the reference in-region projected pattern image detection unit 90 measures the length of the line light image within the reference attention region of the image data. .
The length of the image of the line pattern can be measured by the following method, for example. For example, when the longitudinal direction of the line pattern is the vertical direction of the image data, the image of the line pattern is approximately orthogonal to the image of the line pattern sequentially from top to bottom or from bottom to top. Along the direction (hereinafter referred to as a maximal pixel search column), it is detected whether there is a pixel whose change in luminance value shows a maximum. In this way, when image data is detected sequentially from top to bottom or from bottom to top, by evaluating how far the pixels detected in each maximal pixel search sequence are present The length can be measured. The maximum pixel search column is a direction along the epipolar line. The direction in which the maximum pixel search string extends is the detection direction. Thus, the existence state of the image length of the line-like pattern is determined by evaluating how long the maximum pixel exists continuously.
In addition, since it is necessary to search for a pixel position where the detected brightness shows a maximum, the arrangement direction of the pixels of the image sensor 20 may be substantially coincident with the direction of the epipolar line.

新規注目領域生成判定部92は、基準注目領域内投影パターン像検出部90で検出したパターンの存在状態、例えばライン光の像の長さに基づいて、第2の注目領域、つまり新たな注目領域を生成するか否かを判定する。   The new attention area generation determination unit 92 generates a second attention area, that is, a new attention area based on the presence state of the pattern detected by the reference attention area projection pattern image detection section 90, for example, the length of the line light image. It is determined whether or not to generate.

第2の注目領域決定部94は、新規注目領域生成判定部92で第2の注目領域を生成すると判定した場合、第2の注目領域を作成する領域を決定する。本実施形態の第2の注目領域決定部94は、基準注目領域と同じ領域を第2の注目領域を作成する領域に決定する。第2の注目領域決定部94は、基準注目領域内に位置するライン光の像の位置に中心に、先に説明した注目領域設定部34で行われる注目領域の設定方法と同様に注目領域を設定すればよい。   When the new attention area generation determination section 92 determines that the second attention area generation section 92 generates the second attention area, the second attention area determination section 94 determines an area for creating the second attention area. The second attention area determination unit 94 of the present embodiment determines the same area as the reference attention area as an area for creating the second attention area. The second region-of-interest determination unit 94 sets the region of interest in the same manner as the region-of-interest setting method performed by the region-of-interest setting unit 34 described above, centered on the position of the line light image located within the reference region of interest. You only have to set it.

注目領域取消判定部89は、注目領域の位置または大きさに基づいて設定した注目領域を取り消すか否かを判定する。注目領域取消判定部89は、画面データに存在するパターンを中心に、次回撮像装置9で撮影されるタイミングまでに推定される移動距離に基づき設定された注目領域が画面データの視野外に設定されるような場合、当該注目領域を取り消す。具体的には、注目領域取消判定部89は、画像データ上で設定される注目領域の面積が閾値面積よりも小さい場合、当該注目領域を取り消す。   The attention area cancellation determination unit 89 determines whether or not to cancel the attention area set based on the position or size of the attention area. The attention area cancellation determination unit 89 sets the attention area set based on the movement distance estimated by the next imaging device 9 around the pattern existing in the screen data outside the field of view of the screen data. In such a case, the attention area is canceled. Specifically, the attention area cancellation determination unit 89 cancels the attention area when the area of the attention area set on the image data is smaller than the threshold area.

このように、注目領域設定ユニット32で設定された設定された注目領域情報は、次に説明する測定範囲設定部36や調光領域設定部37で利用される。ところで、測定範囲設定部36は、注目領域設定ユニット32で設定された注目領域を被測定物Mの測定領域の位置データを算出するために用いるパターン像の位置検出領域として設定する。測定範囲とは、画像処理部25で撮像された被測定物Mの像の中からパターンの像の位置を検出する範囲である。画像データからパターンの位置を検出する場合、撮像素子20により撮像された画像データのうち、ライン光の像であれば、前述の極大画素を検出する方向(検出方向)と同じ方向で最も明るい画素値を画素列毎に検出する。その際、画像データの画素列の一端から他端までをくまなく探索するのではなく、測定範囲として設定された範囲内だけで、画素列毎に最も明るい画素値を探索する。なお、この設定された範囲内だけで、画素列毎に最も明るい画素値を探索する処理は、調光領域でパターンを検出する場合も同様に実行される。   Thus, the set attention area information set by the attention area setting unit 32 is used by the measurement range setting section 36 and the dimming area setting section 37 described below. By the way, the measurement range setting unit 36 sets the attention area set by the attention area setting unit 32 as the position detection area of the pattern image used for calculating the position data of the measurement area of the measurement object M. The measurement range is a range in which the position of the pattern image is detected from the image of the object M measured by the image processing unit 25. When detecting the position of the pattern from the image data, among the image data picked up by the image pickup device 20, if it is a line light image, the brightest pixel in the same direction as the above-described maximum pixel detection direction (detection direction) A value is detected for each pixel column. At that time, instead of searching all the way from one end to the other end of the pixel column of the image data, the brightest pixel value is searched for each pixel column only within the range set as the measurement range. Note that the process of searching for the brightest pixel value for each pixel column only within the set range is performed in the same manner when a pattern is detected in the dimming area.

調光領域設定部37は、調光領域を設定する。調光領域は、撮像素子20による撮像範囲内で、撮影された像の明るさを検出する領域である。本実施の形態における調光領域については、詳細は後述するが、注目領域に連動して調光領域も変化するようしている。このようにすることで、撮像素子20の露出制御や照明光束Lの照射光量制御を行うときに参照する明るさ情報を点群生成領域に応じて、範囲を限定することができ、また、有害な正反射光などの影響を最小限にすることができる。   The dimming area setting unit 37 sets the dimming area. The dimming area is an area for detecting the brightness of the captured image within the imaging range of the imaging device 20. Although the details of the dimming area in the present embodiment will be described later, the dimming area is also changed in conjunction with the attention area. By doing so, it is possible to limit the range of brightness information to be referred to when performing exposure control of the image sensor 20 or irradiation light amount control of the illumination light beam L according to the point cloud generation region, and harmful. The effect of regular specular reflection light can be minimized.

本実施形態の調光領域設定部37は、測定範囲の位置情報に基づいて、調光領域設定可能範囲を設定し、設定した調光領域設定可能範囲に基づいて、調光領域を設定する。調光領域設定可能範囲は、撮像部による撮像範囲内において、測定範囲の位置情報に基づいて設定される範囲であり、調光領域を設定可能とする範囲である。調光領域設定部37は、測定範囲に加え、記憶部31に記憶されているデータ、及び入力装置6で受け付けた入力データの少なくとも一方に基づいて、調光領域設定可能範囲を設定することもできる。また、調光領域設定部37は、調光領域設定可能範囲に加え、記憶部31に記憶されているデータ、及び入力装置6で受け付けた入力データの少なくとも一方に基づいて、調光領域を設定することもできる。   The light control area setting unit 37 of the present embodiment sets a light control area settable range based on the position information of the measurement range, and sets the light control area based on the set light control area settable range. The light control area settable range is a range that is set based on the position information of the measurement range within the imaging range by the imaging unit, and is a range in which the light control area can be set. The dimming area setting unit 37 may set the dimming area setting range based on at least one of the data stored in the storage unit 31 and the input data received by the input device 6 in addition to the measurement range. it can. The dimming area setting unit 37 sets the dimming area based on at least one of the data stored in the storage unit 31 and the input data received by the input device 6 in addition to the dimming area setting range. You can also

調光制御部38は、調光領域内で検出された画素列毎に最も明るい画素の画素値を取得し、取得された画素値の大きさに応じて、光源12に対して投光量を制御するための信号、または撮像素子20による撮像時の露出時間を制御するための信号等を出力する。露出時間の制御については、1枚の画像データを取得するときの露出時間で制御したり、撮像素子20に組み込まれている不図示のメカニカルシャッターにより撮像面が露出する時間を制御したりしても良い。したがって、調光制御部38は取得された画素値の大きさに応じて、投影部の投光量、撮像部で受光する受光量、撮像部で画像データを取得するときの露光量または撮像部の入出力特性(感度又は撮像素子の各ピクセルで検出した信号に対する増幅率など)、つまり光学プローブ3によって画像データを取得する際の各種条件(調光条件)を制御する。   The dimming control unit 38 acquires the pixel value of the brightest pixel for each pixel row detected in the dimming region, and controls the amount of light emitted to the light source 12 according to the size of the acquired pixel value. A signal for controlling the exposure time at the time of imaging by the image sensor 20 or the like. As for the control of the exposure time, the exposure time when acquiring one piece of image data is controlled, or the time when the imaging surface is exposed is controlled by a mechanical shutter (not shown) incorporated in the imaging device 20. Also good. Therefore, the dimming control unit 38 depends on the size of the acquired pixel value, the light projection amount of the projection unit, the amount of received light received by the imaging unit, the exposure amount when acquiring image data by the imaging unit, or the imaging unit Input / output characteristics (sensitivity or amplification factor for signals detected at each pixel of the image sensor), that is, various conditions (light control conditions) when image data is acquired by the optical probe 3 are controlled.

測定部39は、画像データの測定範囲内に位置する光源装置8により投影されたパターンの像の位置と、その画像データを取得した時におけるX移動部50X、Y移動部50Y、Z移動部50Z、第1回転部53、及び第2回転部54、保持回転装置7の各移動部材の位置情報とに基づいて、被測定物の形状を測定する。測定部39は、プローブ移動装置2及び保持回転装置7によって、光学プローブ3と被測定物を相対的に移動させることで、パターンが投影される位置を順次移動させつつ、測定対象領域の画像を撮像装置9で撮像する。また、撮像装置9で撮像したタイミングで位置検出部11からのプローブ移動装置2及び保持回転装置7の位置情報を取得する。測定部39は、撮像装置9で撮像したタイミングで取得した位置検出部11からのプローブ移動装置2及び保持回転装置7の位置情報と、撮像装置9で取得した測定範囲のパターンの像の画像に関連した撮影信号とに基づいて、被測定物Mのパターンが投影された位置を算出し、被測定物Mの形状データを出力する。形状測定装置1は、例えば、撮像装置9の撮影タイミングを一定間隔にし、入力装置6から入力する測定点間隔情報を基に、プローブ移動装置2及び保持回転装置7の移動速度を制御している。   The measuring unit 39 is the position of the pattern image projected by the light source device 8 located within the measurement range of the image data, and the X moving unit 50X, the Y moving unit 50Y, and the Z moving unit 50Z when the image data is acquired. The shape of the object to be measured is measured based on the position information of each moving member of the first rotating unit 53, the second rotating unit 54, and the holding rotating device 7. The measuring unit 39 moves the optical probe 3 and the object to be measured relative to each other by the probe moving device 2 and the holding and rotating device 7, thereby sequentially moving the position where the pattern is projected, and displaying the image of the measurement target region. Imaging is performed by the imaging device 9. In addition, the position information of the probe moving device 2 and the holding and rotating device 7 from the position detecting unit 11 is acquired at the timing when the image is picked up by the imaging device 9. The measurement unit 39 adds the positional information of the probe moving device 2 and the holding rotation device 7 from the position detection unit 11 acquired at the timing of imaging by the imaging device 9 and the image of the pattern image of the measurement range acquired by the imaging device 9. Based on the related imaging signal, the position where the pattern of the object to be measured M is projected is calculated, and the shape data of the object to be measured M is output. For example, the shape measuring apparatus 1 controls the moving speeds of the probe moving device 2 and the holding and rotating device 7 based on the measurement point interval information input from the input device 6 by setting the imaging timing of the imaging device 9 to a constant interval. .

動作制御部40は、プローブ移動装置2、光学プローブ3及び保持回転装置7を含む、形状測定装置1の各部の動作を制御する。この動作制御部40は、制御部30で作成された動作制御情報を基に、プローブ移動装置2、光学プローブ3及び保持回転装置7の動作制御を実施する。また、制御部30は、光学プローブ3による画像取得動作を制御する。   The operation control unit 40 controls the operation of each part of the shape measuring apparatus 1 including the probe moving device 2, the optical probe 3, and the holding and rotating device 7. The operation control unit 40 controls the operation of the probe moving device 2, the optical probe 3, and the holding and rotating device 7 based on the operation control information created by the control unit 30. Further, the control unit 30 controls the image acquisition operation by the optical probe 3.

記憶部31は、ハードディスク、メモリ等、各種プログラム、データを記憶する記憶装置である。記憶部31は、注目領域の位置設定データ42と、基準注目領域の位置設定データ44と、条件テーブル46と、形状測定プログラム48と、緒元データ49と、を有する。なお、記憶部31は、これらのプログラム、データ以外にも形状測定装置1の動作の制御に用いる各種プログラム、データを記憶している。   The storage unit 31 is a storage device that stores various programs and data, such as a hard disk and a memory. The storage unit 31 includes attention area position setting data 42, reference attention area position setting data 44, a condition table 46, a shape measurement program 48, and specification data 49. The storage unit 31 stores various programs and data used for controlling the operation of the shape measuring apparatus 1 in addition to these programs and data.

注目領域の位置設定データ42は、画像データ上における注目領域情報と、光学プローブ3と被測定物Mとの相対位置の情報とを対応付けて記憶する。注目領域データ42は、注目領域設定ユニット32により設定された注目領域の情報と設定時の相対位置の情報とが対応付けて書き込まれる。   The attention area position setting data 42 stores attention area information on the image data and information on the relative position between the optical probe 3 and the object M to be measured in association with each other. The attention area data 42 is written in association with the attention area information set by the attention area setting unit 32 and the relative position information at the time of setting.

基準注目領域の位置設定データ44は、画像の外縁に対応する基準注目領域の情報を記憶している。基準注目領域は、画像に対する位置が固定された領域の情報である。本実施形態では、基準注目領域を1つの領域としたが、複数の領域であってもよい。   The reference attention area position setting data 44 stores information on the reference attention area corresponding to the outer edge of the image. The reference attention area is information on an area where the position with respect to the image is fixed. In the present embodiment, the reference attention area is a single area, but it may be a plurality of areas.

条件テーブル46は、制御部30で設定された条件や、予め入力された各種条件を記憶する。形状測定プログラム48は、制御装置4の各部の処理を実行させるプログラムを記憶している。つまり、制御装置4は、形状測定プログラム48に記憶されているプログラムを実行することで、上述した各部の動作を順次再現することで、測定対象領域を逐次移しながら、被測定物Mに投影されたパターンの像を撮像するように制御する。形状測定プログラム48は、上述した制御部30で生成する被測定物Mを測定するためのプログラムと、制御部30が当該プログラムを生成するためのプログラムの両方を含む。なお、形状測定プログラム48は、予め記憶部31に記憶させてもよいがこれに限定されない。形状測定プログラム48が記憶された記憶媒体から読み取って記憶部31に記憶してもよいし、通信により外部から取得してもよい。緒元データ49は、被測定物Mの設計データ、CADデータ、形状を規定できる条件データ等を記憶している。   The condition table 46 stores conditions set by the control unit 30 and various conditions input in advance. The shape measurement program 48 stores a program for executing processing of each unit of the control device 4. That is, the control device 4 executes the program stored in the shape measurement program 48 to sequentially reproduce the operation of each unit described above, thereby projecting the measurement target region on the object to be measured M while sequentially moving the measurement target region. Control is performed so that an image of the selected pattern is captured. The shape measurement program 48 includes both a program for measuring the workpiece M generated by the control unit 30 and a program for the control unit 30 to generate the program. The shape measurement program 48 may be stored in the storage unit 31 in advance, but is not limited to this. The shape measurement program 48 may be read from a storage medium stored therein and stored in the storage unit 31 or may be acquired from outside by communication. The specification data 49 stores design data, CAD data, and condition data that can define the shape of the object M to be measured.

制御装置4は、光学プローブ3と被測定物Mの相対位置が所定の位置関係となるように、プローブ移動装置2の駆動部10及び保持回転装置7の回転駆動部72を制御する。また、制御装置4は、光学プローブ3の調光等を制御して、被測定物M上の投影されたライン状のパターンを最適な光量で撮像させる。制御装置4は、光学プローブ3の位置情報をプローブ移動装置2の位置検出部11から取得し、測定領域を撮像した画像を示すデータ(撮像画像データ)を光学プローブ3から取得する。そして、制御装置4は、光学プローブ3の位置に応じた撮像画像データから得られる被測定物Mの表面の位置と光学プローブ3の位置及びライン光の投影方向と撮像装置の撮影方向とを対応付けることによって、測定対象の三次元的な形状に関する形状情報を演算して取得する。   The control device 4 controls the drive unit 10 of the probe moving device 2 and the rotation drive unit 72 of the holding rotation device 7 so that the relative position between the optical probe 3 and the object M to be measured has a predetermined positional relationship. Further, the control device 4 controls the dimming and the like of the optical probe 3 so that the projected line pattern on the object to be measured M is imaged with an optimum light amount. The control device 4 acquires the position information of the optical probe 3 from the position detection unit 11 of the probe moving device 2, and acquires data (captured image data) indicating an image obtained by capturing the measurement region from the optical probe 3. Then, the control device 4 associates the surface position of the measurement object M obtained from the captured image data corresponding to the position of the optical probe 3, the position of the optical probe 3, the projection direction of the line light, and the imaging direction of the imaging device. Thus, the shape information regarding the three-dimensional shape of the measurement target is calculated and acquired.

表示装置5は、例えば液晶表示装置、有機エレクトロルミネッセンス表示装置等によって構成される。表示装置5は、形状測定装置1の測定に関する測定情報を表示する。測定情報は、例えば、撮像素子20で撮影された画像データや、撮像素子20の撮影領域内に設定された注目領域(または測定領域)の位置を示す情報、調光領域の位置を示す情報、調光領域設定可能範囲の位置を示す情報を表示することができる。これら注目領域(または測定領域)、調光領域及び調光領域設定可能範囲の位置情報は撮像素子20で撮影された画像データ上に重畳して表示する。本実施の形態では、被測定物Mと光学プローブ3とを相対移動しながら、所定の撮影レートで撮像装置9により撮影されるので、光学プローブ9と被測定物Mとの相対移動に応じて、パターンの像も移動する。この移動に追従する注目領域をハーフトーンの枠やカラー表示などで表示することもできる。
また、他にも測定に関する設定を示す設定情報、測定の経過を示す経過情報、測定の結果を示す形状情報等を含む。本実施形態の表示装置5は、測定情報を示す画像データを制御装置4から供給され、この画像データに従って測定情報を示す画像を表示する。
The display device 5 is configured by, for example, a liquid crystal display device, an organic electroluminescence display device, or the like. The display device 5 displays measurement information related to the measurement by the shape measuring device 1. The measurement information includes, for example, image data captured by the image sensor 20, information indicating the position of the attention area (or measurement area) set in the imaging area of the image sensor 20, information indicating the position of the dimming area, Information indicating the position of the light control area settable range can be displayed. The position information of the attention area (or measurement area), the light control area, and the light control area settable range is displayed superimposed on the image data captured by the image sensor 20. In the present embodiment, the object to be measured M and the optical probe 3 are photographed by the imaging device 9 at a predetermined photographing rate while relatively moving the object to be measured M and the optical probe 3, and accordingly, according to the relative movement between the optical probe 9 and the object to be measured M. The pattern image also moves. The attention area following this movement can also be displayed with a halftone frame or color display.
In addition, it includes setting information indicating settings related to measurement, progress information indicating the progress of measurement, shape information indicating the result of measurement, and the like. The display device 5 of the present embodiment is supplied with image data indicating measurement information from the control device 4 and displays an image indicating measurement information according to the image data.

入力装置6は、例えばキーボード、マウス、ジョイスティック、トラックボール、タッチバッド等の各種入力デバイスによって構成される。入力装置6は、制御装置4への各種情報の入力を受けつける。各種情報は、例えば、形状測定装置1に測定を開始させる指令(コマンド)を示す指令情報、形状測定装置1による測定に関する設定情報、形状測定装置1の少なくとも一部をマニュアルで操作するための操作情報等を含む。   The input device 6 is configured by various input devices such as a keyboard, a mouse, a joystick, a trackball, and a touch pad. The input device 6 receives various information input to the control device 4. The various information includes, for example, command information indicating a command (command) for causing the shape measuring device 1 to start measurement, setting information related to measurement by the shape measuring device 1, and an operation for manually operating at least a part of the shape measuring device 1. Includes information.

本実施形態の形状測定装置1において、制御装置4が制御部30と、記憶部31とを備えている。制御装置4に表示装置5、及び入力装置6が接続されている。制御装置4、表示装置5、及び入力装置6が、例えば、形状測定装置1に接続されるコンピュータでも構わないし、形状測定装置1が設置される建物が備えるホストコンピュータなどでも構わないし、形状測定装置1が設置される建物に限られず、形状測定装置1とは離れた位置にあり、コンピュータでインターネットなどの通信手段を用いて、形状測定装置1と接続されても構わない。また、制御装置4と、表示装置5及び入力装置6とが、別々の場所に保持されても構わない。例えば、入力装置6と表示装置5とを備えるコンピュータとは別に、例えば光学プローブ3の内部に形状測定装置1が支持されていても構わない。この場合には、形状測定装置1で取得した情報を、通信手段を用いて、コンピュータに接続される。   In the shape measuring apparatus 1 of the present embodiment, the control device 4 includes a control unit 30 and a storage unit 31. A display device 5 and an input device 6 are connected to the control device 4. The control device 4, the display device 5, and the input device 6 may be, for example, a computer connected to the shape measuring device 1, a host computer provided in a building where the shape measuring device 1 is installed, or the shape measuring device. It is not limited to the building in which 1 is installed, but may be located away from the shape measuring apparatus 1 and connected to the shape measuring apparatus 1 using a communication means such as the Internet with a computer. Further, the control device 4, the display device 5, and the input device 6 may be held at different places. For example, apart from the computer including the input device 6 and the display device 5, for example, the shape measuring device 1 may be supported inside the optical probe 3. In this case, the information acquired by the shape measuring apparatus 1 is connected to a computer using a communication means.

次に、図5から図13を用いて、上記構成の形状測定装置1により、被測定物の形状を測定する動作の例について説明する。図5は、本実施形態の形状測定装置の測定動作を説明するための説明図である。図6は、本実施形態の形状測定装置に表示する画面の一例を説明するための説明図である。図7は、本実施形態の形状測定装置の測定動作を説明するための説明図である。図8は、本実施形態の形状測定装置の注目領域設定動作の一例を示すフローチャートである。図9及び図10は、それぞれ本実施形態の形状測定装置の第2の注目領域の生成判定処理の一例を示すフローチャートである。図11は、基準注目領域データの一例を示す説明図である。図12は、注目領域設定動作の一例を説明するための説明図である。図13は、本実施形態の形状測定装置の測定動作の一例を示すフローチャートである。   Next, an example of an operation for measuring the shape of the object to be measured by the shape measuring apparatus 1 having the above configuration will be described with reference to FIGS. FIG. 5 is an explanatory diagram for explaining the measurement operation of the shape measuring apparatus according to the present embodiment. FIG. 6 is an explanatory diagram for explaining an example of a screen displayed on the shape measuring apparatus of the present embodiment. FIG. 7 is an explanatory diagram for explaining the measurement operation of the shape measuring apparatus according to the present embodiment. FIG. 8 is a flowchart illustrating an example of the attention area setting operation of the shape measuring apparatus according to the present embodiment. FIG. 9 and FIG. 10 are flowcharts illustrating an example of the second region-of-interest generation determination process of the shape measuring apparatus according to the present embodiment, respectively. FIG. 11 is an explanatory diagram of an example of reference attention area data. FIG. 12 is an explanatory diagram for explaining an example of the attention area setting operation. FIG. 13 is a flowchart showing an example of the measuring operation of the shape measuring apparatus according to the present embodiment.

以下では、図5に示すように、形状測定装置1が円周方向に繰り返し形状が形成された被測定物Maの形状を測定する場合として説明する。形状測定装置1は、照明光束Lを被測定物Maの繰り返し形状の1つの単位である歯に投影し、被測定物Ma上に投影されたパターンの画像を取得することで、被測定物Maの形状を測定する。本実施形態の形状測定装置1は、歯筋の方向に沿って、照明光束Lを移動させつつ、被測定物Ma上に投影されたパターンの画像を取得することで、1つの歯の形状を測定することができる。形状測定装置1は、被測定物Maの歯の形状を順番に測定することで、被測定物Maの形状を測定することができる。被測定物Maは、設計上は略同一形状となる歯が円周方向に所定の間隔で形成された、かさ歯車である。本実施形態の形状測定装置1は、被測定物Maをかさ歯車としたが、種々の形状の物体を被測定物として形状を測定することができる。もちろん、被測定物Maを歯車とした場合、歯車の種類は特に限定されない。形状測定装置1は、かさ歯車以外に、平歯車、はすば歯車、やまば歯車、ウォームギア、ピニオン、ハイポイドギアなども測定対象となり、被測定物Maとなる。なお、形状測定装置1は、1つの歯の形状の測定や、被測定物Maの全体の形状を測定することに限定されず、被測定物Maの任意の1点の形状を測定することもできる。   Below, as shown in FIG. 5, it demonstrates as a case where the shape measuring apparatus 1 measures the shape of the to-be-measured object Ma in which the shape was repeatedly formed in the circumferential direction. The shape measuring apparatus 1 projects the illumination light beam L onto a tooth, which is one unit of the repetitive shape of the object to be measured Ma, and obtains an image of the pattern projected on the object to be measured Ma, thereby measuring the object to be measured Ma. Measure the shape. The shape measuring apparatus 1 according to the present embodiment obtains an image of a pattern projected on the measurement object Ma while moving the illumination light beam L along the direction of the tooth trace, thereby obtaining the shape of one tooth. Can be measured. The shape measuring apparatus 1 can measure the shape of the measurement object Ma by sequentially measuring the shape of the teeth of the measurement object Ma. The object to be measured Ma is a bevel gear in which teeth having substantially the same shape in design are formed at predetermined intervals in the circumferential direction. In the shape measuring apparatus 1 of the present embodiment, the measurement object Ma is a bevel gear, but the shape can be measured using objects of various shapes as the measurement object. Of course, when the DUT Ma is a gear, the type of gear is not particularly limited. In addition to the bevel gear, the shape measuring apparatus 1 also measures a spur gear, a helical gear, a helical gear, a worm gear, a pinion, a hypoid gear, and the like, and becomes the object to be measured Ma. The shape measuring apparatus 1 is not limited to measuring the shape of one tooth or measuring the entire shape of the object to be measured Ma, but can also measure the shape of any one point of the object to be measured Ma. it can.

形状測定装置1は、稼動時に図6に示す画面100を表示させる。画面100は、被測定物Maの形状を測定するための条件を設定するモード、例えばティーチングモードで表示される。画面100は、画像ウインドウ102と、ウインドウ104、106を含む。   The shape measuring apparatus 1 displays a screen 100 shown in FIG. 6 during operation. The screen 100 is displayed in a mode for setting conditions for measuring the shape of the workpiece Ma, for example, a teaching mode. The screen 100 includes an image window 102 and windows 104 and 106.

画像ウインドウ102は、図7に示すように、撮像装置9で撮影し、取得した画像を表示している。画像ウインドウ102に表示されている画像は、撮像装置9による撮像範囲内の全域の画像である。画像ウインドウ102に表示される画像には、被測定物Maの外形140と、外形140に照明光束Lを投影することで形成されるパターン142a、142b、142cと、外形140に照明光束Lを投影した際に、照明光束Lが多重反射したり、乱反射したりすることで、生じる輝線144が含まれる。   As shown in FIG. 7, the image window 102 displays an image captured and acquired by the imaging device 9. The image displayed in the image window 102 is an entire image within the imaging range by the imaging device 9. In the image displayed on the image window 102, the outer shape 140 of the object to be measured Ma, the patterns 142a, 142b, 142c formed by projecting the illumination light beam L onto the outer shape 140, and the illumination light beam L are projected onto the outer shape 140. In this case, the bright line 144 generated by the multiple reflection or irregular reflection of the illumination light beam L is included.

また、画像ウインドウ102には、画像に重ねて、測定範囲150a、150bと、調光領域設定可能範囲152と、調光領域154と、が表示されている。測定範囲150a、150b、調光領域設定可能範囲152は、測定範囲設定部36で設定される領域である。調光領域154は、調光領域設定部37で設定される領域である。図7に示す調光領域設定可能範囲152は、測定範囲150a、150bの全てを含み、測定範囲150a、150bに外接する矩形形状の範囲である。また、調光領域設定可能範囲152は、照明光束Lを平坦でかつ水平な面を持つ被測定物Maに投影したときに形成されるライン状のパターンの像に対して、その像の長手方向と長手方向に対して直交する方向とが辺となる矩形の範囲である。調光領域154は、調光領域設定可能範囲152に含まれる範囲である。   In the image window 102, measurement ranges 150a and 150b, a dimming area settable range 152, and a dimming area 154 are displayed so as to overlap the image. The measurement ranges 150 a and 150 b and the dimming area settable range 152 are areas set by the measurement range setting unit 36. The dimming area 154 is an area set by the dimming area setting unit 37. The dimmable area settable range 152 shown in FIG. 7 is a rectangular range that includes all of the measurement ranges 150a and 150b and circumscribes the measurement ranges 150a and 150b. In addition, the light control region settable range 152 is a longitudinal direction of an image of a line pattern formed when the illumination light beam L is projected onto the measurement object Ma having a flat and horizontal surface. And a direction perpendicular to the longitudinal direction is a rectangular range. The dimming area 154 is a range included in the dimming area settable range 152.

ウインドウ104は、測定条件欄112と、ボタン114と、を有する。測定条件欄112は、光切断法を用いて形状を取得する際の取得方法、照明光束Lの走査速度、画像データを取得する間隔である距離ピッチ、測定する距離、及び光学プローブ3と被測定物Maとの各方向における相対値移動距離等の情報を表示する。制御装置34は、各種条件が更新されると測定条件欄112に表示される情報を更新する。ボタン114は、後述するプレスキャン処理またはスキャン処理(測定処理)が開始される際に操作されるボタンである。制御部30は、入力装置6への入力でボタン114が操作されたことを検出した場合、プレスキャン処理またはスキャン処理(測定処理)を実行する。   The window 104 has a measurement condition column 112 and a button 114. The measurement condition column 112 includes an acquisition method when acquiring a shape using the light cutting method, a scanning speed of the illumination light beam L, a distance pitch that is an interval for acquiring image data, a distance to be measured, and the optical probe 3 and a measurement target. Information such as relative value movement distance in each direction with the object Ma is displayed. The control device 34 updates the information displayed in the measurement condition column 112 when various conditions are updated. The button 114 is a button that is operated when a pre-scan process or a scan process (measurement process) described later is started. When the control unit 30 detects that the button 114 is operated by an input to the input device 6, the control unit 30 performs a pre-scan process or a scan process (measurement process).

ウインドウ106は、表示されている画像データに関する各種プロファイルの表示を行うかどうかを選択するためのチェックボックス120と、調光領域選択点122、測定範囲選択点124と、範囲欄126と、ボタン128、130と、を有する。チェックボックス120は、画像の光量のプロファイルや、ヒストグラムを表示させるか否かを選択するためのボックスである。ヒストグラムは、ライン上のパターンの幅方向におけるピーク値を撮像素子の列毎に抽出して作成した列毎の最大輝度値の分布である。制御部30は、チェックボックス120にチェックが入力されている場合、画像ウインドウ102に重ねて画像の光量分布や、最大輝度値分布のヒストグラムを表示させる。また、調光領域選択点122にチェックが入った場合、調光領域の範囲の対角線上の座標位置を範囲欄126に表示させる。測定範囲選択点124にチェックが入った場合は、測定範囲つまり撮像装置で画像を取得した測定領域を矩形で設定できるようになっている。測定領域の範囲は、測定領域の対角線上の座標位置を範囲欄126に表示させる。ボタン128は、自動調光処理が開始される際に操作されるボタンである。ボタン130は、調光領域選択点122と測定範囲選択点124のうち、選択されている側の範囲、領域の設定を行う場合に操作されるボタンである。   The window 106 has a check box 120 for selecting whether or not to display various profiles related to the displayed image data, a dimming area selection point 122, a measurement range selection point 124, a range column 126, and a button 128. , 130. The check box 120 is a box for selecting whether or not to display a light intensity profile of an image and a histogram. The histogram is a distribution of the maximum luminance value for each column created by extracting the peak value in the width direction of the pattern on the line for each column of the image sensor. When the check box 120 is checked, the control unit 30 displays an image light amount distribution or a histogram of the maximum luminance value distribution over the image window 102. When the dimming area selection point 122 is checked, the coordinate position on the diagonal line of the dimming area range is displayed in the range column 126. When the measurement range selection point 124 is checked, the measurement range, that is, the measurement area where the image is acquired by the imaging device can be set in a rectangle. For the range of the measurement area, the coordinate position on the diagonal line of the measurement area is displayed in the range column 126. The button 128 is a button operated when the automatic light control process is started. The button 130 is a button operated when setting a range and a region on the selected side of the dimming region selection point 122 and the measurement range selection point 124.

次に、図8を用いて、上記構成の形状測定装置1の制御部30が、中央演算処理装置を用いて演算処理を行い実現する、測定物の形状の測定に用いる注目領域を設定する動作について説明する。形状測定装置1の制御部30は、例えば、ティーチングモードが選択された場合に、図8に示す処理を実行する。また、後述する他の処理も記憶部に記憶されているプログラムに基づいて制御部30の各部で処理を実行することで、実現される。図8に示す処理は、制御部30の注目領域設定ユニット32で処理を実行することで、実現される。また、制御部30は、光学プローブ3と被測定物を相対的に移動させ、パターン像が投影される位置毎に図8に示す処理を実行することで、被測定物Mの形状を測定する各位置での注目領域を設定する。   Next, referring to FIG. 8, the control unit 30 of the shape measuring apparatus 1 having the above configuration performs an arithmetic process using the central processing unit and sets an attention area used for measuring the shape of the measurement object. Will be described. For example, when the teaching mode is selected, the control unit 30 of the shape measuring apparatus 1 executes the process shown in FIG. Further, other processing described later is also realized by executing processing in each unit of the control unit 30 based on a program stored in the storage unit. The process shown in FIG. 8 is realized by executing the process by the attention area setting unit 32 of the control unit 30. Further, the control unit 30 relatively moves the optical probe 3 and the object to be measured, and measures the shape of the object to be measured M by executing the process shown in FIG. 8 for each position where the pattern image is projected. Set the region of interest at each position.

制御部30は、画像データ取得部80により、撮像装置9で撮像した画像データを取得する(ステップS12)。制御部30は、画像データを取得した後、投影パターン像検出部84により、注目領域データ42に記憶されている注目領域データを読み出す(ステップS14)。制御部30は、光学プローブ3と被測定物を相対的に移動させる前に撮影した画像に基づいて設定した注目領域データを読み出す。制御部30は、処理開始時は、初期設定されている注目領域データを読み出す。初期設定されている注目領域データは、ユーザの入力によって設定すればよい。   The control unit 30 acquires image data captured by the imaging device 9 by the image data acquisition unit 80 (step S12). After acquiring the image data, the control unit 30 causes the projection pattern image detection unit 84 to read the attention area data stored in the attention area data 42 (step S14). The control unit 30 reads attention area data set based on an image taken before the optical probe 3 and the object to be measured are relatively moved. The control unit 30 reads the initially set attention area data at the start of processing. The initially set attention area data may be set by user input.

次に、制御部30は、投影パターン像検出部84により、注目領域内にあるライン光の像を検出する(ステップS16)。制御部30は、ライン光の像の位置を検出した後、検出したライン光の像の位置と次回、撮像装置9で撮像される時点までに測定対象領域がどの程度の距離分遷移するかの情報(走査情報)に基づいて、注目領域の位置を決定する(ステップS18)。この遷移距離は、ティーチングモードで入力された光学プローブの移動情報や、保持回転装置7の回転角度情報を基に遷移距離を算出する。なお、その遷移距離は、撮像装置9の物体面上での距離ではなく、撮像装置9の撮像面上での遷移距離に置き換えて算出する。   Next, the control unit 30 causes the projection pattern image detection unit 84 to detect an image of line light in the attention area (step S16). After detecting the position of the line light image, the control unit 30 determines how much distance the measurement target region transitions between the detected position of the line light image and the next time the image is picked up by the imaging device 9. Based on the information (scanning information), the position of the region of interest is determined (step S18). The transition distance is calculated based on the movement information of the optical probe input in the teaching mode and the rotation angle information of the holding and rotating device 7. The transition distance is calculated by replacing the distance on the object plane of the imaging device 9 with the transition distance on the imaging surface of the imaging device 9.

制御部30は、注目領域の位置を決定した後、第2の注目領域生成判定処理を行う(ステップS20)。   After determining the position of the attention area, the control unit 30 performs a second attention area generation determination process (step S20).

図9を用いて、第2の注目領域生成判定処理について説明する。制御部30は、基準注目領域内投影パターン像検出部90により、基準注目領域の位置設定データ44から基準注目領域データを取得する(ステップS40)。制御部30は、基準注目領域データを取得した後、基準注目領域内投影パターン像検出部90により、画像データの基準注目領域内の極大画素検索列を特定する(ステップS42)。制御部30は、基準注目領域内投影パターン像検出部90により、極大画素検索列において輝度が最も高い画素を特定し(ステップS44)、極大画素検索列における特定した画素が極大を示す画素であるか否かを判定する(ステップS46)。基準注目領域内投影パターン像検出部90は、極大画素検索列における、特定の画素と特定の画素に隣接する画素との画素の輝度値の変化を検出し、特定の画素で輝度値が極大となるかを検出する。   The second attention area generation determination process will be described with reference to FIG. The control unit 30 acquires reference attention area data from the position setting data 44 of the reference attention area by using the projected pattern image detection section 90 in the reference attention area (step S40). After acquiring the reference attention area data, the control unit 30 uses the reference attention area projection pattern image detection section 90 to specify a maximal pixel search string in the reference attention area of the image data (step S42). The control unit 30 specifies the pixel having the highest luminance in the maximum pixel search sequence by using the projected pattern image detection unit 90 in the reference region of interest (step S44), and the specified pixel in the maximum pixel search sequence is a pixel indicating the maximum. Is determined (step S46). The reference pattern-of-interest projection pattern image detection unit 90 detects a change in luminance value of a pixel between a specific pixel and a pixel adjacent to the specific pixel in the maximum pixel search sequence, and the luminance value is maximum at the specific pixel. Detect what happens.

制御部30は、特定した画素が極大を示す(ステップS46でYes)と判定した場合、特定した画素をピーク画素として抽出する(ステップS48)。制御部30は、特定した画素が極大を示さない(ステップS46でNo)と判定した場合、または、ステップS48の処理を行った場合、基準注目領域内投影パターン像検出部90により、基準注目領域内の全域の判定が完了したかを判定する(ステップS50)。   When it is determined that the identified pixel has a maximum (Yes in step S46), the control unit 30 extracts the identified pixel as a peak pixel (step S48). When it is determined that the specified pixel does not show the maximum (No in step S46), or when the process of step S48 is performed, the control unit 30 causes the reference attention area projection pattern image detection unit 90 to perform the reference attention area. It is determined whether the determination of the entire area is completed (step S50).

制御部30は、基準注目領域内の全域の判定が完了していない(ステップS50でNo)と判定した場合、極大画素検索列を極大画素検索列と略直交する方向に移動させ(ステップS52)、ステップS44に戻る。つまり、ピーク画素を検出する基準となる極大画素検索列の位置を画像データの上から下、または下から上に移動させて、上記処理を再び行う。   When it is determined that the determination of the entire region within the reference region of interest has not been completed (No in Step S50), the control unit 30 moves the maximum pixel search sequence in a direction substantially orthogonal to the maximum pixel search sequence (Step S52). Return to step S44. That is, the position of the maximal pixel search string that serves as a reference for detecting the peak pixel is moved from the top to the bottom of the image data or from the bottom to the top, and the above processing is performed again.

制御部30は、基準注目領域内の全域の判定が完了した(ステップS50でYes)と判定した場合、新規注目領域生成判定部92により、ピーク画素の数が閾値以上であるかを判定する(ステップS54)。   When it is determined that the determination of the entire region within the reference region of interest has been completed (Yes in step S50), the control unit 30 determines whether the number of peak pixels is equal to or greater than the threshold by the new region of interest generation determination unit 92 ( Step S54).

制御部30は、ピーク画素の数が閾値以上である(ステップS54でYes)判定した場合、第2の注目領域を生成すると判定する(ステップS56)。制御部30は、ピーク画素の数が閾値未満である(ステップS54でNo)判定した場合、第2の注目領域を生成しないと判定する(ステップS58)。新規注目領域生成判定部92は、さらに、決定されている注目領域の情報に基づいて、検出しているライン光の像に対して既に注目領域が設定されているかを判定し、ライン光の像に対して注目領域が設定されている場合、第2の注目領域を生成しないと判定する。   When it is determined that the number of peak pixels is equal to or greater than the threshold (Yes in Step S54), the control unit 30 determines to generate the second attention area (Step S56). When determining that the number of peak pixels is less than the threshold (No in Step S54), the control unit 30 determines not to generate the second region of interest (Step S58). The new attention area generation determination unit 92 further determines, based on the determined attention area information, whether a attention area has already been set for the detected line light image, and the line light image. If a region of interest is set for, it is determined that a second region of interest is not generated.

ここで、第2の注目領域生成部88は、基準注目領域内投影パターン像検出部90でライン光の像を検出し、ライン光の像の長さに基づいて新規注目領域生成判定部92で第2の注目領域を生成するかを判定してもよい。図10を用いて、ライン光の像の長さに基づいて新規注目領域生成判定部92で第2の注目領域を生成するかを判定する処理について説明する。制御部30は、基準注目領域内投影パターン像検出部90により、基準注目領域の位置設定データ44から基準注目領域データを取得する(ステップS40)。制御部30は、基準注目領域データを取得した後、基準注目領域内投影パターン像検出部90により、画像データの基準注目領域内のライン光の像を検出する(ステップS62)。制御部30は、ライン光の像を検出した後、ライン光の像の長さを検出する(ステップS64)。ライン光の像の長さは、ライン光の像の長手方向の長さである。基準注目領域内投影パターン像検出部90は、画像データを上から下へまたは下から上へ順次検出していったときに、それぞれの極大画素検索列で検出された画素がどこまで連続して存在するかを検出する。基準注目領域内投影パターン像検出部90は、極大画素検索列に直交する方向において、ライン光の像が分断している場合も、ライン光の像が検出されない画素が複数画素分である場合、繋がっているとして長さを検出してもよい。なお、実際には、撮像素子20で取得されるライン状のパターンの像は、必ずしも連続したものではない。被測定物の表面の欠陥などにより一部が欠落してしまう場合があるためである。これらに対して、例えば1、2画素または数画素欠落していても連続して繋がっているようにみなす例外処理を入れてもよい。   Here, the second attention area generation section 88 detects the line light image with the reference in-target area projection pattern image detection section 90, and the new attention area generation determination section 92 based on the length of the line light image. It may be determined whether to generate the second region of interest. A process for determining whether or not the second attention area generation determination unit 92 generates the second attention area based on the length of the line light image will be described with reference to FIG. The control unit 30 acquires reference attention area data from the position setting data 44 of the reference attention area by using the projected pattern image detection section 90 in the reference attention area (step S40). After acquiring the reference attention area data, the control unit 30 causes the reference attention area projection pattern image detection unit 90 to detect the image of the line light in the reference attention area of the image data (step S62). After detecting the line light image, the control unit 30 detects the length of the line light image (step S64). The length of the line light image is the length of the line light image in the longitudinal direction. The reference pattern-of-interest projection pattern image detection unit 90 continuously detects how many pixels are detected in each maximal pixel search sequence when image data is sequentially detected from top to bottom or from bottom to top. Detect what to do. When the line light image is divided in the direction orthogonal to the maximal pixel search sequence, the reference in-region projected pattern image detection unit 90 has a plurality of pixels in which the line light image is not detected. The length may be detected as being connected. Actually, the image of the line pattern acquired by the image sensor 20 is not necessarily continuous. This is because a part of the object to be measured may be lost due to a defect on the surface. For these, for example, an exception process may be inserted in which one or two pixels or a few pixels are missing, assuming that they are continuously connected.

制御部30は、ライン光の像の長さを検出した後、新規注目領域生成判定部92により、ライン光の像の長さが閾値以上であるかを判定する(ステップS64)。制御部30は、ライン光の像の長さが閾値以上である(ステップS66でYes)判定した場合、第2の注目領域を生成すると判定する(ステップS68)。制御部30は、ライン光の像の長さが閾値未満である(ステップS66でNo)判定した場合、第2の注目領域を生成しないと判定する(ステップS69)。   After detecting the length of the line light image, the control unit 30 causes the new attention area generation determination unit 92 to determine whether the length of the line light image is equal to or greater than the threshold (step S64). When it is determined that the length of the line light image is greater than or equal to the threshold (Yes in step S66), the control unit 30 determines to generate the second region of interest (step S68). When it is determined that the length of the line light image is less than the threshold (No in Step S66), the control unit 30 determines that the second region of interest is not generated (Step S69).

このように、制御部30の第2の注目領域生成部88は、ライン光の像の長さに基づいて、第2の注目領域を生成することでも、基準注目領域内のライン光の像に基づいて新しい注目領域を生成することができ、画像データに含まれるライン光の像を抽出する注目領域を設定することができる。   As described above, the second attention area generation unit 88 of the control unit 30 can generate the second attention area based on the length of the line light image, so that the line light image in the reference attention area is also generated. Based on this, a new attention area can be generated, and an attention area from which an image of line light included in the image data is extracted can be set.

図8に戻り、制御部30の処理の説明を続ける。制御部30は、新規注目領域生成判定部92により第2の注目領域を生成する(ステップS22でYes)と判定した場合、第2の注目領域決定部94により、基準注目領域に基づいて、第2の注目領域を決定する(ステップS24)。本実施形態では、基準注目領域に基づいて第2の注目領域を決定したが、基準注目領域に含まれるライン光の像の位置に基づいて第2の注目領域を決定してもよい。   Returning to FIG. 8, the description of the processing of the control unit 30 is continued. When determining that the new attention area generation determination section 92 generates the second attention area (Yes in step S22), the control section 30 causes the second attention area determination section 94 to determine the second attention area based on the reference attention area. The second attention area is determined (step S24). In the present embodiment, the second region of interest is determined based on the reference region of interest. However, the second region of interest may be determined based on the position of the line light image included in the reference region of interest.

制御部30は、新規注目領域生成判定部92により第2の注目領域を生成しない(ステップS22でNo)、または、ステップS24で第2の注目領域を決定したら、注目領域取消判定部89により、注目領域取消判定処理を行う(ステップS26)。ここで、注目領域取消判定部89は、注目領域の位置または大きさに基づいて設定した注目領域を取り消すか否かを判定する。注目領域取消判定部89は、画面データに存在するパターンを中心に、次回撮像装置9で撮影されるタイミングまでに推定される移動距離に基づき設定された注目領域が画面データの視野外に設定されるような場合、当該注目領域を取り消すと判定する。また、注目領域取消判定部89は、画像データ上で設定される注目領域の面積が閾値面積よりも小さい場合、当該注目領域を取り消すと判定する。
注目領域の取り消し判定の判断材料として画像データ上における注目領域の面積としたが、これだけに限られない。たとえば、画像データ上に有効撮影範囲などの範囲情報を設定しておき、有効撮影範囲と注目領域との両方合致した領域の面積などで判定してもよい。特に画像データの周縁領域の像は、結像光学系による諸収差の影響を受けやすいため、パターンの像の短手方向の強度分布が収差の影響を受けて崩れる。これが測定精度に影響を与えるので、このような周縁領域を避け、画像データの中央領域のみ有効撮影範囲を設定するようにしてもよい。
When the second attention area is not generated by the new attention area generation determination section 92 (No in step S22), or the second attention area is determined in step S24, the control section 30 uses the attention area cancellation determination section 89. Attention area cancellation determination processing is performed (step S26). Here, the attention area cancellation determination unit 89 determines whether or not to cancel the attention area set based on the position or size of the attention area. The attention area cancellation determination unit 89 sets the attention area set based on the movement distance estimated by the next imaging device 9 around the pattern existing in the screen data outside the field of view of the screen data. In such a case, it is determined to cancel the attention area. The attention area cancellation determination unit 89 determines that the attention area is canceled when the area of the attention area set on the image data is smaller than the threshold area.
Although the area of the attention area on the image data is used as a material for determining the cancellation of the attention area, the invention is not limited thereto. For example, range information such as an effective shooting range may be set on the image data, and the determination may be made based on the area of an area that matches both the effective shooting range and the attention area. In particular, since the image in the peripheral area of the image data is easily affected by various aberrations caused by the imaging optical system, the intensity distribution in the short direction of the pattern image is broken by the influence of the aberration. Since this affects measurement accuracy, it is possible to avoid such a peripheral area and set an effective photographing range only in the central area of the image data.

制御部30は、注目領域取消判定部89により、取り消す注目領域がある(ステップS28でYes)と判定した場合、注目領域決定部86により対象の注目領域を取り消す(ステップS30)。   When the attention area cancellation determination section 89 determines that there is an attention area to be canceled (Yes in step S28), the control section 30 cancels the target attention area by the attention area determination section 86 (step S30).

制御部30は、注目領域取消判定部89により、取り消す注目領域がない(ステップS28でNo)と判定した場合、または、ステップS30の処理を行った場合、注目領域決定部86で決定し、生成した注目領域を注目領域データに記憶させる(ステップS32)。また、制御部30は、注目領域に移動情報取得部82で取得した光学プローブ3と被測定物の相対位置を対応付けて注目領域データ42に記憶する。   When the attention area cancellation determination section 89 determines that there is no attention area to be canceled (No in step S28), or when the processing of step S30 is performed, the control section 30 determines and generates the attention area determination section 86. The obtained attention area is stored in the attention area data (step S32). In addition, the control unit 30 stores the relative position of the optical probe 3 acquired by the movement information acquisition unit 82 and the measurement target in the attention area data 42 in association with the attention area.

図11及び図12を用いて、より具体的に説明する。図12の例は、画像データ内で、ライン光の像が上方向に移動する場合を示している。まず、形状測定装置1は、基準注目領域の位置設定データ44として、図11に示す画像データの全面と重なる枠400に対して基準注目領域402が設定されたデータを有する。形状測定装置1は、初期設定で注目領域が設定されていない場合を説明する。   A more specific description will be given with reference to FIGS. 11 and 12. The example of FIG. 12 shows a case where the line light image moves upward in the image data. First, the shape measuring apparatus 1 has data in which the reference region of interest 402 is set for the frame 400 that overlaps the entire image data shown in FIG. 11 as the position setting data 44 of the reference region of interest. The shape measuring apparatus 1 will be described with respect to a case where the attention area is not set in the initial setting.

制御部30は、処理が開始されるとステップST101に示すように、画像データF(N−1)を取得する。制御部30は、取得した像データF(N−1)に基準注目領域データ402を重ねて、基準注目領域402に含まれるライン光の像を検出する。ステップST101では、基準注目領域402に含まれるライン光の像がないため、第2の注目領域を生成しない。   When the processing is started, the control unit 30 acquires the image data F (N−1) as shown in step ST101. The control unit 30 superimposes the reference attention area data 402 on the acquired image data F (N−1), and detects an image of the line light included in the reference attention area 402. In step ST101, since there is no line light image included in the reference region of interest 402, the second region of interest is not generated.

制御部30は、ステップST101で画像データF(N−1)に対する注目領域の設定を行った後、ステップST102に示すように、次のフレームとなる画像データF(N)を取得する。画像データF(N)は、光学プローブ3と被測定物Mとの相対位置が画像データF(N−1)で撮影した相対位置から所定距離移動した相対位置で取得した画像である。制御部30は、ステップST101に示すように取得した像データF(N)に基準注目領域データ402を重ねて、基準注目領域402に含まれるライン光の像410を検出する。   After setting the region of interest for the image data F (N−1) in step ST101, the control unit 30 acquires the image data F (N) as the next frame as shown in step ST102. The image data F (N) is an image acquired at a relative position in which the relative position between the optical probe 3 and the object M to be measured is moved by a predetermined distance from the relative position captured by the image data F (N-1). The control unit 30 detects the line light image 410 included in the reference attention area 402 by superimposing the reference attention area data 402 on the acquired image data F (N) as shown in step ST101.

制御部30は、基準注目領域402に含まれるライン光の像410を検出し、ライン光の像410が条件を満たしていることを検出した場合、ステップS103に示すようにライン光の像410の位置を基準として注目領域(第2の注目領域)412を生成する。生成した注目領域412のデータは注目領域データ42に記憶する。   When the control unit 30 detects the line light image 410 included in the reference region of interest 402 and detects that the line light image 410 satisfies the condition, the control unit 30 displays the line light image 410 as shown in step S103. An attention area (second attention area) 412 is generated based on the position. The generated data of the attention area 412 is stored in the attention area data 42.

制御部30は、ステップST103で画像データF(N)に対する注目領域の設定を行った後、ステップST104に示すように、次のフレームとなる画像データF(N+1)を取得する。ステップST104に示すように、画像データF(N+1)に含まれるライン光の像410aは、光学プローブ3と被測定物Mとの相対位置が移動しているため、ライン光の像410よりも注目領域412の縁に近づいた位置となる。制御部30は、ステップST105に示すように、基準注目領域402に含まれるライン光の像410aを検出するが、注目領域412で検出できる対象であるライン光の像であるため、第2の注目領域を生成しない。制御部30は、ステップS106に示すように、ライン光の像410aの位置を基準として注目領域412aを生成する。   After setting the region of interest for the image data F (N) in step ST103, the control unit 30 acquires the image data F (N + 1) as the next frame, as shown in step ST104. As shown in step ST104, the line light image 410a included in the image data F (N + 1) is more focused than the line light image 410 because the relative position of the optical probe 3 and the object M to be measured has moved. The position is close to the edge of the region 412. As shown in step ST105, the control unit 30 detects the line light image 410a included in the reference attention area 402. However, since the control section 30 is an image of line light that is a target that can be detected in the attention area 412, the second attention is paid. Do not generate a region. As shown in step S106, the control unit 30 generates the attention area 412a with reference to the position of the line light image 410a.

制御部30は、次のフレームの画像データを取得するごとにステップST104からステップS106の処理を行う。画像データは、フレームが進むにしたがって、ライン光の像が画面上側に移動する。制御部30は、次のフレームの画像データを取得するごとにステップST104からステップST106の処理を行うことで、ライン光の像の移動に合わせて注目領域の位置を画面上側に移動させる。   The control unit 30 performs the processing from step ST104 to step S106 every time it acquires the image data of the next frame. In the image data, the line light image moves to the upper side of the screen as the frame advances. The control unit 30 performs the processing from step ST104 to step ST106 each time image data of the next frame is acquired, thereby moving the position of the attention area to the upper side of the screen in accordance with the movement of the line light image.

制御部30は、ステップST106の画像データF(N+1)から(m−1)分フレームが進んだ画像データF(N+m)を取得した場合も、ステップST107に示すように、1つ前のフレームの注目領域の情報に基づいてライン光の像を検出し、検出したライン光の像410bを基準として、注目領域412bを生成する。また、制御部30は、基準注目領域402に含まれるライン光の像も並行処理で検出する。   Even when the control unit 30 acquires the image data F (N + m) that has been advanced by (m−1) frames from the image data F (N + 1) in step ST106, as shown in step ST107, the control unit 30 A line light image is detected based on the attention area information, and the attention area 412b is generated with reference to the detected line light image 410b. The control unit 30 also detects line light images included in the reference region of interest 402 by parallel processing.

制御部30は、ステップST107の画像データF(N+m)からさらに進んだ画像データF(N+l−1)を取得した場合もステップS108に示すように、1つ前のフレームの注目領域の情報に基づいてライン光の像を検出し、検出したライン光の像410cを基準として、注目領域412cを生成する。画像データF(N+l−1)では、ライン光の像410cよりも画面下側に別のライン光420がある。   The control unit 30 also acquires the image data F (N + l−1) further advanced from the image data F (N + m) in step ST107, as shown in step S108, based on the information on the attention area of the previous frame. Then, the line light image is detected, and the attention area 412c is generated with reference to the detected line light image 410c. In the image data F (N + l−1), there is another line light 420 below the screen from the line light image 410c.

制御部30は、ステップST108の画像データF(N+l−1)の次のフレームの画像データF(N+l)を取得した場合もステップST109に示すように、1つ前のフレームの注目領域の情報に基づいてライン光の像を検出し、検出したライン光の像410dを基準として、注目領域412dを生成する。画像データF(N+l)では、ライン光の像410cよりも画面下側の別のライン光の像420aが基準注目領域402に含まれる。制御部30は、基準注目領域402に含まれるライン光の像420aを検出し、ライン光の像440aが条件を満たしていることを検出した場合、ステップST110に示すように、ライン光の像420aの位置を基準として注目領域(第2の注目領域)422を生成する。これにより、画像データF(N+l)の場合では注目領域は、撮像素子の撮像エリアまたは撮像素子から取得された画像データ内に2つ注目領域412d、422が設定される。   Even when the control unit 30 acquires the image data F (N + 1) of the next frame of the image data F (N + 1-11) in step ST108, as shown in step ST109, the control unit 30 uses the attention area information of the previous frame as information. Based on this, a line light image is detected, and a region of interest 412d is generated with reference to the detected line light image 410d. In the image data F (N + 1), the reference attention area 402 includes another line light image 420a on the lower side of the screen from the line light image 410c. When the control unit 30 detects the line light image 420a included in the reference region of interest 402 and detects that the line light image 440a satisfies the condition, the line light image 420a is displayed as shown in step ST110. A region of interest (second region of interest) 422 is generated with reference to the position of. Thereby, in the case of the image data F (N + l), as the attention area, two attention areas 412d and 422 are set in the imaging area of the imaging element or the image data acquired from the imaging element.

形状測定装置1は、ライン光の像の位置に基づいて注目領域を設定することで、ライン光の像を含む位置を注目領域とすることができる。つまり、形状測定装置1は、画像データ上のライン光の像の位置の移動に対応して、領域が移動する注目領域を設定することができる。形状測定装置1は、ライン光の像を基準としてライン光の像から設定された距離分、離れた部分も含む領域を、注目領域とすることで、実際の計測時にライン光の像の位置がずれた場合も注目領域内にライン光の像を含めることができる。   The shape measuring apparatus 1 can set a region including the line light image as a region of interest by setting the region of interest based on the position of the line light image. That is, the shape measuring apparatus 1 can set a region of interest where the region moves in response to the movement of the position of the line light image on the image data. The shape measuring apparatus 1 uses a region including a part separated by a distance set from the line light image on the basis of the line light image as a region of interest, so that the position of the line light image can be determined during actual measurement. Even in the case of deviation, an image of line light can be included in the region of interest.

以下、図13を用いて、形状測定装置1の処理動作の一例を説明する。形状測定装置1の制御部30は、例えば、ティーチングモードが選択された場合に、図6に示す画面100を表示し図13に示す処理を実行する。   Hereinafter, an example of the processing operation of the shape measuring apparatus 1 will be described with reference to FIG. For example, when the teaching mode is selected, the control unit 30 of the shape measuring apparatus 1 displays the screen 100 shown in FIG. 6 and executes the processing shown in FIG.

制御部30は、ティーチングモードが選択されると、測定範囲、調光領域、調光領域設定可能範囲を撮像装置8により撮影できる全範囲に予め設定する。次に、撮像装置8から画像データが制御部30に転送され、その画像データがウインドウ102に表示される。画像データがウインドウ120に表示された状態になった時点で、測定範囲の設定がなされたかを判定する(ステップS112)。ここで、制御部30は、撮像装置9で撮影可能な範囲の全範囲よりも小さい範囲、つまり取得した画像データの全範囲よりも小さい範囲が測定範囲として設定されている場合、測定範囲が設定されていると判定する。測定範囲の設定方法は、ウインドウ102上に円形や矩形、楕円形などの任意の形状で画像データの一部を囲むようにして指定することができる。なお、制御部30は、例えば、測定範囲選択点124が選択されボタン130が操作された後、ユーザによって指定された範囲を測定範囲に設定する。また、制御部30は、条件テーブル46に設定されている情報に基づいて測定範囲を設定してもよい。また、制御部30は、撮像装置9が取得した画像から照明光束が投影されたパターンの像を抽出し、当該パターンの像が抽出された範囲を測定範囲としてもよい。   When the teaching mode is selected, the control unit 30 presets the measurement range, the light control region, and the light control region settable range to the entire range that can be imaged by the imaging device 8. Next, the image data is transferred from the imaging device 8 to the control unit 30, and the image data is displayed on the window 102. When the image data is displayed on the window 120, it is determined whether the measurement range has been set (step S112). Here, the control unit 30 sets the measurement range when a range smaller than the entire range that can be captured by the imaging device 9, that is, a range smaller than the entire range of the acquired image data is set as the measurement range. It is determined that The method for setting the measurement range can be specified by enclosing part of the image data in an arbitrary shape such as a circle, rectangle, or ellipse on the window 102. For example, after the measurement range selection point 124 is selected and the button 130 is operated, the control unit 30 sets the range specified by the user as the measurement range. Further, the control unit 30 may set a measurement range based on information set in the condition table 46. Further, the control unit 30 may extract an image of a pattern onto which an illumination light beam is projected from an image acquired by the imaging device 9 and set a range in which the image of the pattern is extracted as a measurement range.

制御部30は、測定範囲の設定がある(ステップS112でYes)と判定した場合、測定範囲設定部36により、画像データの位置座標を基に測定範囲の設定処理を行い、記憶部31の条件テーブル46に書き込む(ステップS114)。制御部30は、撮像装置9で撮影可能な範囲よりも小さい範囲を測定範囲に設定する。また、制御部30は、注目領域を測定範囲とする設定が選択されている場合、注目領域を測定範囲に設定する。   When the control unit 30 determines that the measurement range is set (Yes in step S112), the measurement range setting unit 36 performs the measurement range setting process based on the position coordinates of the image data, and the conditions of the storage unit 31 are determined. Write to the table 46 (step S114). The control unit 30 sets a range smaller than the range that can be captured by the imaging device 9 as the measurement range. Moreover, the control part 30 sets an attention area to a measurement range, when the setting which makes an attention area the measurement range is selected.

制御部30は、測定範囲の設定がない(ステップS112でNo)と判定した場合、または測定範囲の設定処理を行った場合、入力装置6による調光領域の設定があるかを判定する(ステップS116)。   When it is determined that the measurement range is not set (No in step S112), or when the measurement range setting process is performed, the control unit 30 determines whether the dimming area is set by the input device 6 (step S112). S116).

制御部30は、調光領域の設定がある(ステップS116でYes)と判定した場合、調光領域設定部37により、調光領域の設定処理を行う(ステップS118)。制御部30は、注目領域を調光領域とする設定が選択されている場合、注目領域を調光領域に設定する。   When it is determined that there is a dimming area setting (Yes in step S116), the control unit 30 performs dimming area setting processing by the dimming area setting unit 37 (step S118). The control unit 30 sets the attention area as the dimming area when the setting for setting the attention area as the dimming area is selected.

制御部30は、調光領域の設定がない(ステップS116でNo)と判定した場合、または調光領域の設定処理を行った場合、プレスキャンを実行するかを判定する(ステップS120)。ここで、プレスキャンとは、設定された条件に基づいて、光学プローブ3と被測定物を相対的に移動させ、パターン像が投影される位置を移動させ、ライン光の像が投影される位置を表示装置5に表示させる処理である。被測定物を相対的に移動させながら、所定のフレームレートで撮像装置9により取得されたライン状のパターンの像を含む画像データを次々と表示させる。それと同時に、測定範囲150a、150b、調光領域設定可能範囲152、調光領域154を画像データに重畳させながら表示し続けるようにすると良い。制御部30は、プレスキャンを実行する(ステップS120でYes)と判定した場合、プレスキャン処理を実行する(ステップS122)。   When it is determined that there is no light adjustment area setting (No in step S116), or when the light adjustment area setting process is performed, the control unit 30 determines whether to perform pre-scanning (step S120). Here, the pre-scan is a position where the optical probe 3 and the object to be measured are relatively moved based on a set condition, the position where the pattern image is projected is moved, and the line light image is projected. Is displayed on the display device 5. While relatively moving the object to be measured, image data including an image of a line pattern acquired by the imaging device 9 at a predetermined frame rate is displayed one after another. At the same time, the measurement ranges 150a and 150b, the dimming area settable range 152, and the dimming area 154 may be continuously displayed while being superimposed on the image data. When it is determined that the pre-scan is to be executed (Yes in Step S120), the control unit 30 executes the pre-scan process (Step S122).

制御部30は、プレスキャンを実行しない(ステップS120でNo)と判定した場合、またはプレスキャン処理を行った場合、設定が終了したかを判定する(ステップS124)。制御部30は、設定が終了していない(ステップS124でNo)と判定した場合、ステップS112に戻り、上述した処理を再び実行する。   When it is determined that the pre-scan is not performed (No in step S120) or when the pre-scan process is performed, the control unit 30 determines whether the setting is completed (step S124). When it is determined that the setting has not been completed (No in step S124), the control unit 30 returns to step S112 and executes the above-described process again.

制御部30は、記憶部31に記憶された測定範囲の位置情報及び調光範囲の位置情報と、光学プローブ3の走査パスなどの測定条件が設定された後、形状測定プログラムを生成する(ステップS128)。制御部30は、測定範囲、調光領域、調光方式や測定座標算出領域も含めた被測定物Maを測定するための形状測定プログラムを生成し、記憶部31に記憶する。具体的には、制御部30は、各種条件に基づいて測定パス、測定速度を決定し、プローブ移動装置2によるXYZ軸方向の移動経路、保持回転装置7によるZθ方向の回転速度、光学プローブ3による画像の取得タイミング等を決定し、決定した動作の情報と、設定した調光条件の情報と、取得した画像からパターンの像の位置を抽出する測定範囲の情報と、を含む形状測定プログラムを生成する。   The control unit 30 generates the shape measurement program after the measurement range position information and the dimming range position information stored in the storage unit 31 and the measurement conditions such as the scanning path of the optical probe 3 are set (step). S128). The control unit 30 generates a shape measurement program for measuring the object to be measured Ma including the measurement range, the light control region, the light control method, and the measurement coordinate calculation region, and stores the shape measurement program in the storage unit 31. Specifically, the control unit 30 determines the measurement path and the measurement speed based on various conditions, the movement path in the XYZ-axis direction by the probe moving device 2, the rotation speed in the Zθ direction by the holding and rotating device 7, and the optical probe 3. A shape measurement program including information on the determined operation, information on the determined operation, information on the set dimming conditions, and information on a measurement range for extracting the position of the pattern image from the acquired image Generate.

制御部30は、形状測定プログラムを生成した後、測定を実行するかを判定する(ステップS130)。ここで、測定とは、設定された条件に基づいて、光学プローブ3と被測定物Maを相対的に移動させ、パターン像が投影される位置を移動させ、測定領域内でパターン像が投影される位置を検出し、被測定物の各部位の座標値(点群データ)を取得することで、形状を測定する処理である。制御部30は、測定を実行する(ステップS130でYes)と判定した場合、撮像装置8を所定のフレームレートで撮影を繰り返される。調光制御部38は、その撮影された画像データから調光範囲に含まれる各極大画素検索列の極大値となる画素の輝度値を検出し、その輝度値の最大値(最も明るい画素の値)を最大画素値として取得し、調光制御部38は光源装置8や撮像装置9に調光制御の情報を出力する(ステップS131)。次に、その調光条件に基づき、撮像装置9は被測定物Maに投影されたパターンの像を撮像し、そのときの画像データを制御部30の測定部39に送出する(ステップS132)。次に、測定部39では、測定範囲情報に基づき、画像データの中からパターンの像の位置を求め、かつプローブ移動装置2の位置情報とパターンの像の位置情報から被測定物Maのパターンが投影された部分の三次元座標値を算出する(ステップS133)。   After generating the shape measurement program, the control unit 30 determines whether to perform measurement (step S130). Here, the measurement means that the optical probe 3 and the object to be measured Ma are relatively moved based on the set conditions, the position where the pattern image is projected is moved, and the pattern image is projected within the measurement region. This is a process for measuring the shape by obtaining the coordinate value (point group data) of each part of the object to be measured. When it is determined that the measurement is to be performed (Yes in step S130), the control unit 30 repeats imaging of the imaging device 8 at a predetermined frame rate. The dimming control unit 38 detects the luminance value of the pixel having the maximum value in each maximum pixel search sequence included in the dimming range from the captured image data, and the maximum luminance value (the value of the brightest pixel). ) As the maximum pixel value, and the dimming control unit 38 outputs dimming control information to the light source device 8 and the imaging device 9 (step S131). Next, based on the dimming conditions, the imaging device 9 captures an image of the pattern projected on the object Ma to be measured, and sends the image data at that time to the measuring unit 39 of the control unit 30 (step S132). Next, the measurement unit 39 obtains the position of the pattern image from the image data based on the measurement range information, and the pattern of the object to be measured Ma is determined from the position information of the probe moving device 2 and the position information of the pattern image. A three-dimensional coordinate value of the projected portion is calculated (step S133).

本実施形態の制御部30は、注目領域を設定し、注目領域を測定範囲とすることで、ライン光の像を高い精度で抽出することができる。また、ライン光の像を基準として測定範囲を設定できるため、輝線144が測定範囲に含まれることを抑制することができる。これにより、ライン光の像(パターンの像)をより確実に抽出することができる。   The control unit 30 of the present embodiment can extract an image of line light with high accuracy by setting a region of interest and setting the region of interest as a measurement range. In addition, since the measurement range can be set on the basis of the image of the line light, it is possible to suppress the bright line 144 from being included in the measurement range. As a result, the line light image (pattern image) can be more reliably extracted.

本実施形態の制御部30は、注目領域を設定し、注目領域を調光領域とすることで、ライン光の光以外の光が調光領域に入る恐れを低減することができる。これにより、ライン光を検出しやすい調光条件を設定することができる。   The control unit 30 according to the present embodiment sets a region of interest and sets the region of interest as a dimming region, thereby reducing the risk that light other than line light enters the dimming region. Thereby, the light control conditions which are easy to detect a line light can be set.

本実施形態の制御部30は、上述したように画像データに基づいて、ライン光の像の位置に基づいて位置が変化する注目領域を自動で抽出することができる。これにより、光学プローブ3と被測定物Mとの相対位置毎に画像データを確認して、測定範囲、調光領域を設定しなくても、位置が移動する測定範囲、調光領域を設定することができる。   As described above, the control unit 30 of the present embodiment can automatically extract a region of interest whose position changes based on the position of the line light image, based on the image data. Accordingly, the image data is confirmed for each relative position between the optical probe 3 and the object M to be measured, and the measurement range and the light control region in which the position moves can be set without setting the measurement range and the light control region. be able to.

また、本実施形態の制御部30は、プレスキャン処理を実行可能とすることで、被測定物Mと照明光束Lとが相対移動する際の、測定範囲及び調光領域の画像の変動をユーザが目視で確認することができる。これにより、測定範囲及び調光領域をより適切な範囲、領域に設定することができる。   In addition, the control unit 30 according to the present embodiment enables the prescan process to be performed, so that the variation in the image in the measurement range and the dimming area when the object to be measured M and the illumination light beam L move relative to each other can be changed. Can be visually confirmed. Thereby, a measurement range and a light control area | region can be set to a more suitable range and area | region.

上記実施形態の注目領域設定ユニット32は、ライン光の像の位置を基準として、ライン光の像の周囲の設定された範囲を注目領域に設定したが注目領域の設定方法はこれに限定されない。   The attention area setting unit 32 of the above embodiment sets the set range around the line light image as the attention area on the basis of the position of the line light image, but the attention area setting method is not limited to this.

図14は、本実施形態の形状測定装置の注目領域設定動作の一例を示すフローチャートである。図14に示す注目領域設定動作は、一部の処理以外は、図8に示す注目領域設定動作と同様である。図14に示す注目領域設定動作のうち、図8に示す注目領域設定動作と同様の処理については、同一のステップを付して詳細な説明を省略する。この一連の設定動作についても、撮影タイミング毎に実施する。   FIG. 14 is a flowchart illustrating an example of the attention area setting operation of the shape measuring apparatus according to the present embodiment. The attention area setting operation shown in FIG. 14 is the same as the attention area setting operation shown in FIG. 8 except for some processes. Of the attention area setting operation shown in FIG. 14, the same processes as those of the attention area setting operation shown in FIG. 8 are denoted by the same steps, and detailed description thereof is omitted. This series of setting operations is also performed at each photographing timing.

制御部30は、画像データ取得部80により、撮像装置9で撮像した画像データを取得する(ステップS12)。制御部30は、画像データを取得した後、投影パターン像検出部84により、注目領域データ42に記憶されている注目領域データを読み出す(ステップS14)。次に、制御部30は、投影パターン像検出部84により、注目領域内にあるライン光の像を検出する(ステップS16)。   The control unit 30 acquires image data captured by the imaging device 9 by the image data acquisition unit 80 (step S12). After acquiring the image data, the control unit 30 causes the projection pattern image detection unit 84 to read the attention area data stored in the attention area data 42 (step S14). Next, the control unit 30 causes the projection pattern image detection unit 84 to detect an image of line light in the attention area (step S16).

制御部30は、ライン光の像の位置を検出した後、注目領域決定部86により注目領域の縁と検出したライン光の像との距離を検出する(ステップS140)。注目領域決定部86は、注目領域の縁とライン光の像との距離を検出する。注目領域の縁とライン光の像との距離は、設定された複数の代表点について検出しても、全ての位置で検出してもよい。注目領域の縁とライン光の像との距離は、極大画素検索列に沿った方向における距離である。   After detecting the position of the line light image, the control section 30 detects the distance between the edge of the attention area and the detected line light image by the attention area determination section 86 (step S140). The attention area determination unit 86 detects the distance between the edge of the attention area and the line light image. The distance between the edge of the region of interest and the line light image may be detected at a plurality of set representative points or at all positions. The distance between the edge of the region of interest and the line light image is the distance in the direction along the maximum pixel search sequence.

制御部30は、注目領域の縁と検出したライン光の像との距離を検出した後、注目領域決定部86により距離が閾値以内であるかを判定する(ステップS141)。制御部30は、注目領域決定部86により距離が閾値以内である(ステップS141でYes)と判定した場合、つまり、ライン光の像が注目領域の縁に近い場合、ライン光の像の位置に基づいて、注目領域の位置を移動させる(ステップS142)。制御部30は、注目領域決定部86により距離が閾値以内である(ステップS141でYes)と判定した場合、つまり、ライン光の像が注目領域の縁に近い場合、ライン光の像の位置に基づいて、注目領域の位置を移動させる(ステップS142)。注目領域決定部86は、ライン光の像が注目領域の中央に近づく方向に注目領域を移動させる。
制御部30は、注目領域決定部86により距離が閾値以内である(ステップS141でYes)と判定した場合、つまり、ライン光の像が注目領域の縁に近い場合、ライン光の像の位置に基づいて、注目領域の位置を移動させる。
After detecting the distance between the edge of the attention area and the detected line light image, the control section 30 determines whether the distance is within the threshold by the attention area determination section 86 (step S141). When the attention area determination section 86 determines that the distance is within the threshold (Yes in step S141), that is, when the line light image is close to the edge of the attention area, the control section 30 determines the position of the line light image. Based on this, the position of the attention area is moved (step S142). When the attention area determination section 86 determines that the distance is within the threshold (Yes in step S141), that is, when the line light image is close to the edge of the attention area, the control section 30 determines the position of the line light image. Based on this, the position of the attention area is moved (step S142). The attention area determination unit 86 moves the attention area in a direction in which the line light image approaches the center of the attention area.
When the attention area determination section 86 determines that the distance is within the threshold (Yes in step S141), that is, when the line light image is close to the edge of the attention area, the control section 30 determines the position of the line light image. Based on this, the position of the attention area is moved.

制御部30は、ステップS142またステップS144の処理を行った後、注目領域の位置を決定したら、第2の注目領域生成判定処理を行う(ステップS20)。以降の処理は、図8に示す処理と同等である。   After performing the process of step S142 or step S144, after determining the position of the attention area, the control unit 30 performs the second attention area generation determination process (step S20). The subsequent processing is equivalent to the processing shown in FIG.

形状測定装置1は、図14に示すように、注目領域の形状を維持することで、注目領域を設定する処理を簡単にすることができる。   As shown in FIG. 14, the shape measuring apparatus 1 can simplify the process of setting the attention area by maintaining the shape of the attention area.

図15は、制御装置の注目領域設定ユニットと記憶部の概略構成を示すブロック図である。図15は、制御装置4Aの制御部30Aの注目領域設定ユニット32Aと記憶部31Aを示す。   FIG. 15 is a block diagram illustrating a schematic configuration of the attention area setting unit and the storage unit of the control device. FIG. 15 shows an attention area setting unit 32A and a storage unit 31A of the control unit 30A of the control device 4A.

まず、記憶部31Aについて説明する。記憶部31Aは、条件テーブル46と、形状測定プログラム48と、注目領域テンプレートデータ182と、読み出しアドレスデータ184と、画像データ186と、を有する。なお、記憶部31は、これらのプログラム、データ以外にも形状測定装置1の動作の制御に用いる各種プログラム、データを記憶している。   First, the storage unit 31A will be described. The storage unit 31 </ b> A includes a condition table 46, a shape measurement program 48, attention area template data 182, read address data 184, and image data 186. The storage unit 31 stores various programs and data used for controlling the operation of the shape measuring apparatus 1 in addition to these programs and data.

注目領域テンプレートデータ182は、あらかじめユーザが指定することができ、撮像装置9で撮像できる視野に対応して、設定された領域である。この注目領域テンプレートデータは、撮像装置9で撮像できる視野に対して重ね合わせる位置を移動させることができる。   The attention area template data 182 can be designated in advance by the user and is an area set corresponding to the field of view that can be imaged by the imaging device 9. This attention area template data can be moved in a position to be superimposed on the field of view that can be imaged by the imaging device 9.

読み出しアドレスデータ184は、注目領域テンプレートデータ182を画像データのどの位置に重ねるかの情報と、光学プローブ3と被測定物Mとの相対位置との関係を対応付けて記憶する。   The read address data 184 stores information on which position in the image data the attention area template data 182 is superimposed on and the relationship between the relative position between the optical probe 3 and the object M to be measured.

画像データ186は、画像データ取得部80が取得した、撮像装置9で撮像された画像データを記憶する。   The image data 186 stores image data acquired by the image data acquisition unit 80 and captured by the imaging device 9.

注目領域設定ユニット32Aは、注目領域設定部34Aと、距離測定領域設定部178と、重ね合わせ画像生成部179と、を有する。注目領域設定部34Aは、画像データ取得部80と、移動情報取得部82と、投影パターン像検出部84と、検出用注目領域生成部172と、距離測定部174と、注目領域位置決定部176と、から構成した。   The attention area setting unit 32A includes an attention area setting section 34A, a distance measurement area setting section 178, and a superimposed image generation section 179. The attention area setting section 34A includes an image data acquisition section 80, a movement information acquisition section 82, a projection pattern image detection section 84, a detection attention area generation section 172, a distance measurement section 174, and an attention area position determination section 176. And consisted of

検出用注目領域設定部172は、注目領域テンプレートデータ182と読み出しアドレスデータ184とに基づいて、注目領域の設定に使用する検出用注目領域を生成する。検出用注目領域は、注目領域を設定する対象の光学プローブ3と被測定物Mの相対位置に移動直前に取得した画像データに基づいて設定した注目領域の情報となる。   The detection attention area setting unit 172 generates a detection attention area used for setting the attention area based on the attention area template data 182 and the read address data 184. The detection attention area is information on the attention area set based on the image data acquired immediately before the movement to the relative position between the target optical probe 3 and the object M to be set.

距離測定部174は、検出用注目領域に含まれるライン光の像と検出用注目領域との距離を測定する。検出用注目領域とライン光の像との距離は、設定された複数の代表点について検出しても、全ての位置で検出してもよい。検出用注目領域の縁とライン光の像との距離は、極大画素検索列に沿った方向における距離である。注目領域の縁とライン光の像との極大画素検索列に沿った方向における距離は、複数点の代表点の距離の平均でもよいし、注目領域の極大画素検索列に略直交する方向の全域で計測した平均としてもよい。   The distance measuring unit 174 measures the distance between the line light image included in the detection attention area and the detection attention area. The distance between the detection region of interest and the line light image may be detected for a plurality of set representative points or at all positions. The distance between the edge of the region of interest for detection and the image of the line light is the distance in the direction along the maximum pixel search sequence. The distance in the direction along the maximum pixel search sequence between the edge of the region of interest and the line light image may be the average of the distances of the representative points of a plurality of points, or the entire region in the direction substantially orthogonal to the maximum pixel search sequence of the region of interest It is good also as the average measured by.

注目領域位置決定部176は、注目領域テンプレートデータを画像データに対して配置する位置を決定する。注目領域位置決定部176は、決定した位置情報を光学プローブ3と被測定物Mの相対位置に対応付けて、読み出しアドレスデータ184に記憶する。   The attention area position determination unit 176 determines the position where the attention area template data is arranged with respect to the image data. The attention area position determination unit 176 stores the determined position information in the read address data 184 in association with the relative positions of the optical probe 3 and the object M to be measured.

距離測定領域設定部178は、検出用注目領域とライン光の像との距離を計測する位置を設定する。   The distance measurement region setting unit 178 sets a position for measuring the distance between the detection region of interest and the line light image.

重ね合わせ画像生成部179は、光学プローブ3と被測定物Mとを相対移動させつつ、取得した複数の画像データのそれぞれで抽出されたライン光の像の画像を重ね合わせた画像を生成する。重ね合わせ画像生成部179は、注目領域の情報に基づいて、画像データから注目領域の画像のみを抽出することで、ライン光の像の画像を抽出する。   The superimposed image generation unit 179 generates an image in which the image of the line light extracted by each of the plurality of acquired image data is superimposed while the optical probe 3 and the measurement object M are relatively moved. The superimposed image generation unit 179 extracts the image of the line light image by extracting only the image of the attention area from the image data based on the information of the attention area.

図16は、本実施形態の形状測定装置の注目領域設定動作の一例を示すフローチャートである。図17は、注目領域テンプレートデータの一例を示す説明図である。図18及び図19は、注目領域設定動作の一例を説明するための説明図である。図16に示す処理は、制御部30Aの注目領域設定ユニット32Aで処理を実行することで、実現される。また、制御部30Aは、光学プローブ3と被測定物を相対的に移動させ、パターン像が投影される位置毎に図16に示す処理を実行することで、被測定物Mの形状を測定する各位置での注目領域を設定する。   FIG. 16 is a flowchart illustrating an example of the attention area setting operation of the shape measuring apparatus according to the present embodiment. FIG. 17 is an explanatory diagram of an example of attention area template data. 18 and 19 are explanatory diagrams for explaining an example of the attention area setting operation. The process illustrated in FIG. 16 is realized by executing the process in the attention area setting unit 32A of the control unit 30A. Further, the control unit 30A relatively moves the optical probe 3 and the object to be measured, and measures the shape of the object to be measured M by executing the process shown in FIG. 16 for each position where the pattern image is projected. Set the region of interest at each position.

制御部30Aは、画像データ取得部80により、撮像装置9で撮像した画像データを取得する(ステップS212)。制御部30Aは、画像データを取得した後、検出用注目領域生成部172により、注目領域テンプレートデータ182を取得し(ステップS214)、読み出しアドレスデータ184を取得し(ステップS216)、読み出したアドレスと注目領域テンプレートデータとで、検出用注目領域を生成する(ステップS218)。検出用注目領域は、画像データに対して重ねる位置が特定されている注目領域となる。   30 A of control parts acquire the image data imaged with the imaging device 9 by the image data acquisition part 80 (step S212). After acquiring the image data, the control unit 30A acquires the attention region template data 182 by using the detection attention region generation unit 172 (step S214), and acquires the read address data 184 (step S216). A target region for detection is generated with the target region template data (step S218). The detection attention area is an attention area in which a position to be overlapped with the image data is specified.

形状測定装置1は、注目領域テンプレートデータ182として、図17に示す注目領域テンプレート500を有する。注目領域テンプレート500は、2つの注目領域502、504の位置を示すデータである。注目領域テンプレートデータ182は、注目領域テンプレート500は、例えばルックアップテーブルで記憶している。   The shape measuring apparatus 1 has an attention area template 500 shown in FIG. 17 as attention area template data 182. The attention area template 500 is data indicating the positions of the two attention areas 502 and 504. The attention area template data 182 stores the attention area template 500 in, for example, a lookup table.

制御部30Aは、アドレス情報に基づいて、画像データFaに重ねる注目領域テンプレート500の位置を決定する。制御部30は、図18に示すα方向にα1、β方向にβずらすアドレス情報が設定されている場合、画像データFaに対してα方向にα1分の距離、β方向にβ1分の距離ずれた位置に注目領域テンプレート500を重ねた注目領域502、504を有する検出用注目領域を生成する。   The controller 30A determines the position of the attention area template 500 to be overlaid on the image data Fa based on the address information. When the address information that shifts α1 in the α direction and β in the β direction is set as shown in FIG. 18, the control unit 30 shifts the image data Fa by a distance of α1 in the α direction and a distance of β1 in the β direction. A target region for detection having target regions 502 and 504 in which the target region template 500 is superimposed at the determined position is generated.

制御部30Aは、検出用注目領域を生成した後、投影パターン像検出部84により、検出用注目領域内にあるライン光の像を検出する(ステップS220)。制御部30Aは、ライン光の像の位置を検出した後、注目領域の縁とライン光の像との極大画素検索列に沿った方向における距離を検出する(ステップS222)。ここで、注目領域は、検出用注目領域または検出用注目領域の位置を変更した注目領域となる。   30 A of control parts detect the image of the line light in the attention area for a detection by the projection pattern image detection part 84 after producing | generating the attention area for a detection (step S220). After detecting the position of the line light image, the control unit 30A detects the distance in the direction along the maximum pixel search sequence between the edge of the region of interest and the line light image (step S222). Here, the attention area is a detection attention area or a attention area in which the position of the detection attention area is changed.

制御部30Aは、図18に示すように、注目領域502の点P1、P2、P3と、注目領域504の点P4、P5,P6の6点のそれぞれから、極大画素検索列に沿った方向のライン光の像と距離を検出する。注目領域の縁とライン光の像との極大画素検索列に沿った方向における距離は、複数点の代表点の距離の平均でもよいし、注目領域の極大画素検索列に略直交する方向の全域で計測した平均としてもよい。   As illustrated in FIG. 18, the control unit 30 </ b> A has six directions of points P 1, P 2, and P 3 of the attention area 502 and points P 4, P 5, and P 6 of the attention area 504 in the direction along the maximum pixel search sequence. The line light image and distance are detected. The distance in the direction along the maximum pixel search sequence between the edge of the region of interest and the line light image may be the average of the distances of the representative points of a plurality of points, or the entire region in the direction substantially orthogonal to the maximum pixel search sequence of the region of interest It is good also as the average measured by.

制御部30Aは、距離を検出した後、注目領域位置決定部176により検出した距離が閾値範囲内であるかを判定する(ステップS224)。制御部30Aは、距離が閾値以内ではない(ステップS224でNo)と判定した場合、注目領域位置決定部176により注目領域のアドレスを変更し(ステップS226)、アドレスと注目領域テンプレートデータとで画像データに対する位置を変更した注目領域を生成し(ステップS228)、ステップS222に戻る。   After detecting the distance, the control unit 30A determines whether the distance detected by the attention area position determination unit 176 is within the threshold range (step S224). When the control unit 30A determines that the distance is not within the threshold (No in step S224), the attention region position determination unit 176 changes the address of the attention region (step S226), and an image is generated using the address and the attention region template data. A region of interest whose position with respect to the data is changed is generated (step S228), and the process returns to step S222.

制御部30Aは、距離が閾値以内である(ステップS224でYes)と判定した場合、注目領域位置決定部176により、注目領域のアドレスを読み出しアドレスデータ184に記憶する。また、制御部30Aは、注目領域のアドレスに移動情報取得部82で取得した光学プローブ3と被測定物の相対位置を対応付けて読み出しアドレスデータ184に記憶する。   When determining that the distance is within the threshold (Yes in step S224), the control unit 30A causes the attention region position determination unit 176 to read the address of the attention region and store it in the address data 184. In addition, the control unit 30A associates the relative position between the optical probe 3 acquired by the movement information acquisition unit 82 and the measured object with the address of the region of interest and stores it in the read address data 184.

制御装置30Aは、相対位置が移動しながら取得された画像データ、つまり各フレームの画像データについて、アドレス位置を設定することで、図19に示すように注目領域をライン光の像の移動方向の矢印510に沿って移動させることができる。また、制御装置30Aは、所定のタイミングで、注目領域504で検出していたライン光の像を注目領域502で検出するように、注目領域とライン光の像との対応関係を切り換えるようにアドレスを設定することが好ましい。これにより、複数の注目領域で効率よくライン光の像を検出することができる。   The control device 30A sets the address position for the image data acquired while the relative position is moving, that is, the image data of each frame, thereby moving the attention area in the moving direction of the line light image as shown in FIG. It can be moved along the arrow 510. Further, the control device 30A switches the correspondence between the attention area and the line light image so that the line light image detected in the attention area 504 is detected in the attention area 502 at a predetermined timing. Is preferably set. Thereby, it is possible to efficiently detect the line light image in a plurality of attention areas.

また、制御装置30Aは、光学プローブ3と被測定物Mとの相対移動と画像データ上でのライン光の像の移動方向との関係を設定できるようにすることが好ましい。これにより、注目領域に基づいて、ライン光の像を検出する場合にライン光の像を見つけやすくすることができる。   Further, it is preferable that the control device 30A can set the relationship between the relative movement between the optical probe 3 and the object M to be measured and the moving direction of the line light image on the image data. This makes it easier to find the line light image when detecting the line light image based on the region of interest.

図20から図22は、それぞれ注目領域設定動作の一例を説明するための説明図である。また、制御装置30Aは、移動方向を設定する画面に撮像装置9で撮像した画像をあわせて表示させることが好ましい。例えば、図20に示すライン光の像610を含む画像データFcや図21に示すライン光の像610aを含む画像データFdを表示させることが好ましい。ここで、画像データFcは、測定開始時のフレームの画像データである。画像データFcは、測定終了時のフレームの画像データである。制御装置30Aは、画像データFcと画像データFdの両方を表示させることが好ましい。   20 to 22 are explanatory diagrams for explaining an example of the attention area setting operation. Further, it is preferable that the control device 30A displays the image captured by the imaging device 9 together with the screen for setting the moving direction. For example, it is preferable to display the image data Fc including the line light image 610 illustrated in FIG. 20 and the image data Fd including the line light image 610a illustrated in FIG. Here, the image data Fc is image data of a frame at the start of measurement. Image data Fc is image data of a frame at the end of measurement. The control device 30A preferably displays both the image data Fc and the image data Fd.

また、制御装置30Aは、移動方向を設定する画面に重ね合わせ画像生成部179で生成した画像をあわせて表示させることがより好ましい。例えば、制御装置30Aは、図22に示すように、画像データFcと画像データFdの間のフレームのライン光の像も加えて、ライン光の像を重ね合わせた画像データ600を表示させる。画像データ600は、画像データFcのライン光の像610と画像データFdのライン光の像610aの両方を含む。制御装置30Aは、重ね合わせ画像生成部179で生成した画像を表示することで、矢印630の方向を認識しやすい画像を表示することができる。   It is more preferable that the control device 30A displays the image generated by the superimposed image generation unit 179 on the screen for setting the moving direction. For example, as illustrated in FIG. 22, the control device 30 </ b> A adds the line light image of the frame between the image data Fc and the image data Fd, and displays the image data 600 in which the line light images are superimposed. The image data 600 includes both a line light image 610 of the image data Fc and a line light image 610a of the image data Fd. The control device 30A can display an image in which the direction of the arrow 630 can be easily recognized by displaying the image generated by the superimposed image generation unit 179.

形状測定装置1は、上記実施形態のように撮像装置9で取得したライン光の像を含む画像データに基づいてライン光の像の位置を検出し、ライン光の像の位置に基づいて、注目領域を設定することが好ましいが、これに限定されない。形状測定装置1は、画像データを用いずに注目領域を設定してもよい。形状測定装置1は、ライン光が被測定物に投影された時の位置情報に基づいて、注目領域を設定してもよい。一例として、形状測定装置1は、緒元データ49と装置の各種条件に基づいて、シミュレーションを行い、ライン光の像の位置を推定し、推定したライン光の像の位置に基づいて注目領域を設定してもよい。   The shape measuring apparatus 1 detects the position of the line light image based on the image data including the line light image acquired by the imaging device 9 as in the above-described embodiment, and pays attention based on the position of the line light image. Although it is preferable to set an area | region, it is not limited to this. The shape measuring apparatus 1 may set a region of interest without using image data. The shape measuring apparatus 1 may set the region of interest based on position information when the line light is projected onto the object to be measured. As an example, the shape measuring apparatus 1 performs a simulation based on the specification data 49 and various conditions of the apparatus, estimates the position of the line light image, and determines the region of interest based on the estimated position of the line light image. It may be set.

また、形状計測装置1は、ライン光の像の移動方向を検出し、その移動方向に基づいて、画面データ上の注目領域の位置を移動させるようにしてもよい。移動量は、一定としてもよいし、設定した規則で変動するようにしてもよい。また、形状計測装置1は、光学プローブ3と被測定物Mの相対移動に基づいて移動方向を検出し、注目領域を移動させてもよい。   Further, the shape measuring apparatus 1 may detect the moving direction of the line light image and move the position of the region of interest on the screen data based on the moving direction. The movement amount may be constant or may vary according to a set rule. Further, the shape measuring apparatus 1 may detect the moving direction based on the relative movement between the optical probe 3 and the DUT M and move the attention area.

ところで、光学プローブ3の照明光学系13によりライン状のパターンが投影される例で説明したが、本発明はこれだけに限られない。例えば、被測定物Mに対してドット状のスポットパターンが投影される光学系と、このスポットパターンが被測定物Mの表面上で1方向に走査できるように、偏向走査ミラーを具備した照明光学系を用いても良い。この場合は、ライン状のパターンの長手方向が偏向走査ミラーの走査方向に対応する。これにより、ドット状のスポットパターン少なくとも線状の走査範囲内で走査しながら投影し、線状の走査範囲内がライン状のパターンとなる。   Incidentally, although an example in which a line pattern is projected by the illumination optical system 13 of the optical probe 3 has been described, the present invention is not limited to this. For example, an optical system on which a dot-like spot pattern is projected onto the object to be measured M, and illumination optics having a deflection scanning mirror so that the spot pattern can be scanned in one direction on the surface of the object to be measured M. A system may be used. In this case, the longitudinal direction of the line pattern corresponds to the scanning direction of the deflection scanning mirror. Thus, the dot-shaped spot pattern is projected while scanning at least within the linear scanning range, and the linear scanning range becomes a line-shaped pattern.

上記実施形態の形状測定装置1は、1台の装置で処理を行ったが複数組み合わせてもよい。図23は、形状測定装置を有するシステムの構成を示す模式図である。次に、図23を用いて、形状測定装置を有する形状測定システム300について説明する。形状測定システム300は、形状測定装置1と、複数台(図では2台)の形状測定装置1aと、プログラム作成装置302とを、有する。形状測定装置1、1a、プログラム作成装置302は、有線または無線の通信回線で接続されている。形状測定装置1aは、注目領域設定ユニット32を備えていない以外は、形状測定装置1と同様の構成である。プログラム作成装置302は、上述した形状測定装置1の制御装置4で作成する種々の設定やプログラムを作成する。具体的には、プログラム作成装置302は、測定範囲、調光領域設定可能範囲及び調光領域の情報や、測定範囲、調光領域設定可能範囲及び調光領域の情報を含む形状測定プログラム等を作成する。プログラム作成装置302は、作成したプログラムや、データを形状測定装置1、1aに出力する。形状測定装置1aは、領域及び範囲の情報や形状測定プログラムを形状測定装置1や、プログラム作成装置302から取得し、取得したデータ、プログラムを用いて、処理を行う。形状測定システム300は、測定プログラムを形状測定装置1や、プログラム作成装置302で作成したデータ、プログラムを用いて、形状測定装置1aで測定を実行することで、作成したデータ、プログラムを有効活用することができる。また、形状測定装置1aは、注目領域設定ユニット32、さらにその他の設定を行う各部を設けなくても測定を行うことができる。   Although the shape measuring apparatus 1 of the said embodiment processed with one apparatus, you may combine two or more. FIG. 23 is a schematic diagram showing a configuration of a system having a shape measuring apparatus. Next, a shape measuring system 300 having a shape measuring device will be described with reference to FIG. The shape measuring system 300 includes a shape measuring device 1, a plurality (two in the figure) of shape measuring devices 1 a, and a program creation device 302. The shape measuring devices 1 and 1a and the program creating device 302 are connected by a wired or wireless communication line. The shape measuring apparatus 1a has the same configuration as the shape measuring apparatus 1 except that the attention area setting unit 32 is not provided. The program creation device 302 creates various settings and programs created by the control device 4 of the shape measuring device 1 described above. Specifically, the program creation device 302 includes a shape measurement program including information on a measurement range, a dimming area settable range and a dimming area, a measurement range, a dimming area settable range, and information on a dimming area. create. The program creation device 302 outputs the created program and data to the shape measuring devices 1 and 1a. The shape measuring device 1a acquires area and range information and a shape measuring program from the shape measuring device 1 and the program creation device 302, and performs processing using the acquired data and program. The shape measurement system 300 effectively uses the created data and program by executing measurement with the shape measurement device 1a using the data and program created by the shape measurement device 1 and the program creation device 302 as a measurement program. be able to. Moreover, the shape measuring apparatus 1a can perform the measurement without providing the attention area setting unit 32 and each part for performing other settings.

次に、上述した形状測定装置を備えた構造物製造システムについて、図24を参照して説明する。図24は、構造物製造システムのブロック構成図である。本実施形態の構造物製造システム200は、上記の実施形態において説明したような形状測定装置201と、設計装置202と、成形装置203と、制御装置(検査装置)204と、リペア装置205とを備える。制御装置204は、座標記憶部210及び検査部211を備える。   Next, a structure manufacturing system including the above-described shape measuring apparatus will be described with reference to FIG. FIG. 24 is a block diagram of the structure manufacturing system. The structure manufacturing system 200 of this embodiment includes a shape measuring device 201, a design device 202, a forming device 203, a control device (inspection device) 204, and a repair device 205 as described in the above embodiment. Prepare. The control device 204 includes a coordinate storage unit 210 and an inspection unit 211.

設計装置202は、構造物の形状に関する設計情報を作成し、作成した設計情報を成形装置203に送信する。また、設計装置202は、作成した設計情報を制御装置204の座標記憶部210に記憶させる。設計情報は、構造物の各位置の座標を示す情報を含む。   The design device 202 creates design information related to the shape of the structure, and transmits the created design information to the molding device 203. In addition, the design apparatus 202 stores the created design information in the coordinate storage unit 210 of the control apparatus 204. The design information includes information indicating the coordinates of each position of the structure.

成形装置203は、設計装置202から入力された設計情報に基づいて、上記の構造物を作成する。成形装置203の成形は、例えば鋳造、鍛造、切削等が含まれる。形状測定装置201は、作成された構造物(測定対象物)の座標を測定し、測定した座標を示す情報(形状情報)を制御装置204へ送信する。   The molding apparatus 203 creates the above structure based on the design information input from the design apparatus 202. The molding of the molding apparatus 203 includes, for example, casting, forging, cutting, and the like. The shape measuring device 201 measures the coordinates of the created structure (measurement object) and transmits information (shape information) indicating the measured coordinates to the control device 204.

制御装置204の座標記憶部210は、設計情報を記憶する。制御装置204の検査部211は、座標記憶部210から設計情報を読み出す。検査部211は、形状測定装置201から受信した座標を示す情報(形状情報)と、座標記憶部210から読み出した設計情報とを比較する。検査部211は、比較結果に基づき、構造物が設計情報通りに成形されたか否かを判定する。換言すれば、検査部211は、作成された構造物が良品であるか否かを判定する。検査部211は、構造物が設計情報通りに成形されていない場合に、構造物が修復可能であるか否か判定する。検査部211は、構造物が修復できる場合、比較結果に基づいて不良部位と修復量を算出し、リペア装置205に不良部位を示す情報と修復量を示す情報とを送信する。   The coordinate storage unit 210 of the control device 204 stores design information. The inspection unit 211 of the control device 204 reads design information from the coordinate storage unit 210. The inspection unit 211 compares information (shape information) indicating coordinates received from the shape measuring apparatus 201 with design information read from the coordinate storage unit 210. The inspection unit 211 determines whether or not the structure has been molded according to the design information based on the comparison result. In other words, the inspection unit 211 determines whether or not the created structure is a non-defective product. The inspection unit 211 determines whether or not the structure can be repaired when the structure is not molded according to the design information. When the structure can be repaired, the inspection unit 211 calculates a defective portion and a repair amount based on the comparison result, and transmits information indicating the defective portion and information indicating the repair amount to the repair device 205.

リペア装置205は、制御装置204から受信した不良部位を示す情報と修復量を示す情報とに基づき、構造物の不良部位を加工する。   The repair device 205 processes the defective portion of the structure based on the information indicating the defective portion received from the control device 204 and the information indicating the repair amount.

図25は、構造物製造システムによる処理の流れを示したフローチャートである。構造物製造システム200は、まず、設計装置202が構造物の形状に関する設計情報を作成する(ステップS301)。次に、成形装置203は、設計情報に基づいて上記構造物を作成する(ステップS302)。次に、形状測定装置201は、作成された上記構造物の形状を測定する(ステップS303)。次に、制御装置204の検査部211は、形状測定装置201で得られた形状情報と上記の設計情報とを比較することにより、構造物が設計情報通りに作成されたか否か検査する(ステップS304)。   FIG. 25 is a flowchart showing the flow of processing by the structure manufacturing system. In the structure manufacturing system 200, first, the design device 202 creates design information related to the shape of the structure (step S301). Next, the shaping | molding apparatus 203 produces the said structure based on design information (step S302). Next, the shape measuring apparatus 201 measures the shape of the created structure (step S303). Next, the inspection unit 211 of the control device 204 inspects whether or not the structure is created according to the design information by comparing the shape information obtained by the shape measurement device 201 with the design information (step). S304).

次に、制御装置204の検査部211は、作成された構造物が良品であるか否かを判定する(ステップS305)。構造物製造システム200は、作成された構造物が良品であると検査部211が判定した場合(ステップS305でYes)、その処理を終了する。また、検査部211は、作成された構造物が良品でないと判定した場合(ステップS305でNo)、作成された構造物が修復できるか否か判定する(ステップS306)。   Next, the inspection unit 211 of the control device 204 determines whether or not the created structure is a non-defective product (step S305). When the inspection unit 211 determines that the created structure is a non-defective product (Yes in step S305), the structure manufacturing system 200 ends the process. If the inspection unit 211 determines that the created structure is not a non-defective product (No in step S305), the inspection unit 211 determines whether the created structure can be repaired (step S306).

構造物製造システム200は、作成された構造物が修復できると検査部211が判定した場合(ステップS306でYes)、リペア装置205が構造物の再加工を実施し(ステップS307)、ステップS303の処理に戻る。構造物製造システム200は、作成された構造物が修復できないと検査部211が判定した場合(ステップS306でNo)、その処理を終了する。以上で、構造物製造システム200は、図25に示すフローチャートの処理を終了する。   In the structure manufacturing system 200, when the inspection unit 211 determines that the created structure can be repaired (Yes in Step S306), the repair device 205 performs reworking of the structure (Step S307), and the process of Step S303 is performed. Return to processing. When the inspection unit 211 determines that the created structure cannot be repaired (No in step S306), the structure manufacturing system 200 ends the process. Thus, the structure manufacturing system 200 ends the process of the flowchart shown in FIG.

本実施形態の構造物製造システム200は、上記の実施形態における形状測定装置201が構造物の座標を高精度に測定することができるので、作成された構造物が良品であるか否か判定することができる。また、構造物製造システム200は、構造物が良品でない場合、構造物の再加工を実施し、修復することができる。   The structure manufacturing system 200 of the present embodiment can determine whether or not the created structure is a good product because the shape measuring apparatus 201 in the above embodiment can measure the coordinates of the structure with high accuracy. be able to. In addition, the structure manufacturing system 200 can repair the structure by reworking the structure when the structure is not a good product.

なお、本実施形態におけるリペア装置205が実行するリペア工程は、成形装置203が成形工程を再実行する工程に置き換えられてもよい。その際には、制御装置204の検査部211が修復できると判定した場合、成形装置203は、成形工程(鍛造、切削等)を再実行する。具体的には、例えば、成形装置203は、構造物において本来切削されるべき箇所であって切削されていない箇所を切削する。これにより、構造物製造システム200は、構造物を正確に作成することができる。   Note that the repair process executed by the repair device 205 in the present embodiment may be replaced with a process in which the molding device 203 re-executes the molding process. In that case, when it determines with the test | inspection part 211 of the control apparatus 204 being able to repair, the shaping | molding apparatus 203 re-executes a shaping | molding process (forging, cutting, etc.). Specifically, for example, the molding apparatus 203 cuts a portion that should be originally cut but not cut in the structure. Thereby, the structure manufacturing system 200 can create a structure correctly.

以上、添付図面を参照しながら本発明に係る好適な実施形態について説明したが、本発明は係る例に限定されないことは言うまでもない。上述した例において示した各構成部材の諸形状や組み合わせ等は一例であって、本発明の主旨から逸脱しない範囲において設計要求等に基づき種々変更可能である。   As described above, the preferred embodiments according to the present invention have been described with reference to the accompanying drawings, but the present invention is not limited to the examples. Various shapes, combinations, and the like of the constituent members shown in the above-described examples are examples, and various modifications can be made based on design requirements and the like without departing from the gist of the present invention.

例えば、上記実施形態における形状測定装置1は、保持部材55が片持ちで光学プローブ3を保持する構成を例示したが、これに限定されるものではなく、両持ちで保持する構成としてもよい。両持ちで保持することにより、回転時に保持部材55に生じ変形を低減することができ、測定精度の向上を図ることが可能になる。   For example, the shape measuring apparatus 1 in the above embodiment has exemplified the configuration in which the holding member 55 is cantilevered to hold the optical probe 3, but is not limited thereto, and may be configured to be held by both ends. By holding both ends, the deformation generated in the holding member 55 during rotation can be reduced, and the measurement accuracy can be improved.

また、上述実施形態では光学プローブ3から照明光束Lとしてライン光を投影し、被測定物から反射するライン状のパターンを撮像しているが、光学プローブ3の形式はこれに限られない。光学プローブ3から発せられる照明光は、所定の面内に一括で投影する形式でも構わない。例えば、米国特許6075605号に記載さる方式でも構わない。光学プローブから発せられる照明光は、点状のスポット光を投影する形式でも構わない。   In the above-described embodiment, line light is projected from the optical probe 3 as the illumination light beam L and a line pattern reflected from the object to be measured is imaged. However, the type of the optical probe 3 is not limited to this. The illumination light emitted from the optical probe 3 may be projected in a lump on a predetermined plane. For example, the method described in US Pat. No. 6,075,605 may be used. The illumination light emitted from the optical probe may be in the form of projecting point spot light.

また、形状測定装置は、上記実施形態のように、円周方向に繰り返し形状を有しかつ円周方向とは異なる方向に延在した凹凸形状を有する形状の被測定物の測定に好適に用いることができる。形状測定装置は、繰り返し形状の1つについて、測定範囲、調光領域設定可能範囲及び調光領域を設定することで、設定した条件を他の繰り返し形状の測定に用いることができる。なお、被測定物は、円周方向に繰り返し形状を有しかつ円周方向とは異なる方向に延在した凹凸形状を有する形状に限定されず、種々の形状、例えば、繰り返し形状を備えない形状であってもよい。   In addition, the shape measuring apparatus is preferably used for measurement of an object to be measured having a concavo-convex shape having a repeated shape in the circumferential direction and extending in a direction different from the circumferential direction as in the above embodiment. be able to. The shape measuring apparatus can use the set conditions for measuring other repetitive shapes by setting a measurement range, a dimmable region settable range, and a dimming region for one of the repetitive shapes. The object to be measured is not limited to a shape having a repetitive shape in the circumferential direction and having an uneven shape extending in a direction different from the circumferential direction, and various shapes such as a shape not having a repetitive shape. It may be.

1 形状測定装置
2 プローブ移動装置
3 光学プローブ
4 制御装置
5 表示装置
6 入力装置
7 保持回転装置
8 光源装置
9 撮像装置
10 駆動部
11 位置検出部
12 光源
13 照明光学系
20 撮像素子
20a 受光面
21 結像光学系
21a 物体面
30 制御部
31 記憶部
32,32A 注目領域設定ユニット
34 注目領域設定部
36 測定範囲設定部
37 調光領域設定部
38 調光制御部
39 測定部
40 動作制御部
42 注目領域の位置設定データ
44 基準注目領域の位置設定データ
46 条件テーブル
48 形状測定プログラム
49 緒元データ
50X,50Y,50Z 移動部
51X,51Y,51Z ガイド部
52 保持体
53 第1回転部
53a 回転軸線
54 第2回転部
55 保持部材
55A 第1保持部
55B 第2保持部
62,63,64,65,66,68 矢印
71 テーブル
72 回転駆動部
73a,73b 基準球
80 画像データ取得部
82 移動情報取得部
84 投影パターン像検出部
86 注目領域決定部
88 第2の注目領域生成部
89 注目領域取消判定部
90 基準注目領域内投影パターン像検出部
92 新規注目領域生成判定部
94 第2の注目領域決定部
100 画面
102,102a,102b,102c 画像ウインドウ
104,106 ウインドウ
112 測定条件欄
114,128,130 ボタン
120 チェックボックス
122 調光領域選択点
124 測定範囲選択点(点群抽出範囲)
126 範囲欄
140 被測定物
142a,142b,142c ライン光
144 輝線
150a,150b 測定領域
152 調光領域設定可能範囲
154 調光領域
172 検出用注目領域生成部
174 距離測定部
176 注目領域位置決定部
178 距離測定領域設定部
179 重ね合わせ画像生成部
182 注目領域テンプレートデータ
184 読み出しアドレスデータ
186 画像データ
200 構造物製造システム
201 形状測定装置
202 設計装置
203 成形装置
204 制御装置
205 リペア装置
210 座標記憶部
211 検査部
300 形状測定システム
302 プログラム作成装置
AX 回転軸中心
B ベース
M 被測定物
L 照明光束
DESCRIPTION OF SYMBOLS 1 Shape measuring apparatus 2 Probe moving apparatus 3 Optical probe 4 Control apparatus 5 Display apparatus 6 Input apparatus 7 Holding | maintenance rotation apparatus 8 Light source apparatus 9 Imaging apparatus 10 Drive part 11 Position detection part 12 Light source 13 Illumination optical system 20 Imaging element 20a Light-receiving surface 21 Imaging optical system 21a Object surface 30 Control unit 31 Storage unit 32, 32A Attention region setting unit 34 Attention region setting unit 36 Measurement range setting unit 37 Dimming region setting unit 38 Dimming control unit 39 Measuring unit 40 Operation control unit 42 Attention Position setting data of area 44 Position setting data of reference area of interest 46 Condition table 48 Shape measurement program 49 Specification data 50X, 50Y, 50Z Moving section 51X, 51Y, 51Z Guide section 52 Holding body 53 First rotating section 53a Rotating axis line 54 Second rotating portion 55 Holding member 55A First holding portion 55B Second holding Unit 62, 63, 64, 65, 66, 68 Arrow 71 Table 72 Rotation drive unit 73a, 73b Reference sphere 80 Image data acquisition unit 82 Movement information acquisition unit 84 Projection pattern image detection unit 86 Attention area determination unit 88 Second attention Region generation unit 89 Region of interest cancellation determination unit 90 Projection pattern image detection unit in reference region of interest 92 New region of interest generation determination unit 94 Second region of interest determination unit 100 Screen 102, 102a, 102b, 102c Image window 104, 106 Window 112 Measurement condition column 114, 128, 130 Button 120 Check box 122 Dimming area selection point 124 Measurement range selection point (point group extraction range)
126 Range field 140 Device under test 142a, 142b, 142c Line light 144 Bright line 150a, 150b Measurement area 152 Dimming area settable range 154 Dimming area 172 Detection attention area generation section 174 Distance measurement section 176 Attention area position determination section 178 Distance measurement region setting unit 179 Superimposed image generation unit 182 Attention region template data 184 Read address data 186 Image data 200 Structure manufacturing system 201 Shape measurement device 202 Design device 203 Molding device 204 Control device 205 Repair device 210 Coordinate storage unit 211 Inspection Part 300 Shape measurement system 302 Program creation device AX Center of rotation axis B Base M Device under test L Illumination beam

Claims (18)

パターンを測定対象に投影する投影部と、
前記投影部によりパターンが投影された測定対象を撮像する撮像部と、
前記投影部と前記測定対象とを相対移動させて、前記測定対象への前記パターンの前記測定対象上における投影位置を変化させる移動部と、
前記撮像部で撮像される撮像領域の少なくとも一部において前記パターンの像を含むように設定された、前記測定対象の測定に利用される情報を取得するための注目領域の位置を、撮像領域における前記パターンの像の移動に伴い変更する注目領域設定部と、
前記注目領域内の前記パターンの像に基づいて、前記測定対象の形状を測定する測定部と、
を備える形状測定装置。
A projection unit that projects the pattern onto the measurement target;
An imaging unit that images a measurement target on which a pattern is projected by the projection unit;
A moving unit that relatively moves the projection unit and the measurement target to change a projection position of the pattern on the measurement target on the measurement target;
The position of the region of interest for acquiring information used for measurement of the measurement target, which is set to include the image of the pattern in at least a part of the imaging region imaged by the imaging unit, in the imaging region A region-of-interest setting unit that changes with movement of the image of the pattern;
Based on the image of the pattern in the region of interest, a measurement unit that measures the shape of the measurement target;
A shape measuring apparatus comprising:
前記注目領域設定部は、前記移動部による前記投影部と前記測定対象との相対移動に伴う、前記撮像部の撮像領域における前記パターンの像の移動距離と移動方向との少なくとも一方に基づいて、前記注目領域の位置を変更する請求項1に記載の形状測定装置。   The region-of-interest setting unit is based on at least one of a movement distance and a movement direction of the image of the pattern in the imaging region of the imaging unit in association with the relative movement between the projection unit and the measurement target by the moving unit. The shape measuring apparatus according to claim 1, wherein the position of the region of interest is changed. 前記注目領域設定部は、前記注目領域の縁と前記パターンの像との距離に基づいて、前記注目領域の位置を変更する請求項1又は2に記載の形状測定装置。   The shape measurement apparatus according to claim 1, wherein the attention area setting unit changes a position of the attention area based on a distance between an edge of the attention area and an image of the pattern. 前記注目領域設定部は、前記注目領域の縁と前記パターンの像との距離に基づいて、前記注目領域の位置を変更するか否かを判定し、前記距離が所定距離以下の場合、前記距離が所定距離より大きくなるように前記注目領域の位置を変更する請求項3に記載の形状測定装置。   The attention area setting unit determines whether or not to change the position of the attention area based on a distance between an edge of the attention area and the image of the pattern. When the distance is equal to or less than a predetermined distance, the distance The shape measuring apparatus according to claim 3, wherein the position of the region of interest is changed so that is larger than a predetermined distance. 前記注目領域設定部は、前記移動部による前記投影部と前記測定対象との相対移動に伴う、前記撮像部の撮像領域における前記パターンの像の移動距離と移動方向との少なくとも一方について予め推定した情報に基づいて、前記注目領域の位置を変更する請求項1から4のいずれか一項に記載の形状測定装置。   The attention area setting unit preliminarily estimates at least one of a movement distance and a movement direction of the image of the pattern in the imaging region of the imaging unit, which is associated with the relative movement between the projection unit and the measurement target by the moving unit. The shape measuring apparatus according to claim 1, wherein the position of the attention area is changed based on information. 前記注目領域設定部は、前記注目領域の面積に基づいて、前記注目領域を取り消す請求項1から5のいずれか一項に記載の形状測定装置。   The shape measuring apparatus according to claim 1, wherein the attention area setting unit cancels the attention area based on an area of the attention area. 前記注目領域設定部は、前記注目領域の面積に基づいて、前記注目領域を取り消すか否かを判定し、前記面積が所定面積以下の場合、前記注目領域を取り消す請求項6に記載の形状測定装置。   The shape measurement according to claim 6, wherein the attention area setting unit determines whether or not to cancel the attention area based on an area of the attention area, and cancels the attention area when the area is a predetermined area or less. apparatus. 構造物の形状に関する設計情報に基づいて前記構造物を成形する成形装置と、
前記成形装置によって成形された前記構造物の形状を測定する請求項1から7のいずれか一項に記載の形状測定装置と、
前記形状測定装置によって測定された前記構造物の形状を示す形状情報と前記設計情報とを比較する制御装置と、を備える構造物製造システム。
A molding apparatus for molding the structure based on design information relating to the shape of the structure;
The shape measuring device according to any one of claims 1 to 7, which measures the shape of the structure formed by the forming device,
A structure manufacturing system comprising: a control device that compares shape information indicating the shape of the structure measured by the shape measuring device with the design information.
測定対象へパターンを投影し、前記パターンの投影方向とは異なる方向から前記測定対象に投影された前記パターンの像を撮像して画像データを取得し、前記画像データの前記パターンの像に基づいて、前記測定対象の形状を測定する形状測定方法であって、
前記パターンの投影位置が前記測定対象に対して相対移動することと、
撮像領域の少なくとも一部において前記パターンの像を含むように設定された、前記測定対象の測定に利用される情報を取得するための注目領域の位置を、撮像領域における前記パターンの像の移動に伴い変更することと、
前記画像データの前記注目領域内に位置する前記パターンの像に基づいて前記測定対象の形状を測定することと、
を備える形状測定方法。
A pattern is projected onto the measurement target, an image of the pattern projected onto the measurement target from a direction different from the projection direction of the pattern is acquired to obtain image data, and based on the pattern image of the image data A shape measuring method for measuring the shape of the measurement object,
The projected position of the pattern moves relative to the measurement object;
The position of the region of interest that is set to include the image of the pattern in at least a part of the imaging region and that is used to acquire information used for measurement of the measurement object is used to move the image of the pattern in the imaging region. With changes,
Measuring the shape of the measurement object based on an image of the pattern located in the region of interest of the image data;
A shape measuring method comprising:
前記変更することは、前記パターンの投影位置と前記測定対象との相対移動量に応じた、撮像領域における前記パターンの像の移動距離と移動方向との少なくとも一方に基づいて、前記注目領域の位置を変更する請求項9に記載の形状測定方法。   The changing is based on at least one of a movement distance and a movement direction of the image of the pattern in the imaging region according to a relative movement amount between the projection position of the pattern and the measurement target. The shape measuring method according to claim 9, wherein the method is changed. 前記変更することは、前記注目領域の縁と前記パターンの像との距離に基づいて、前記注目領域の位置を変更する請求項9または10に記載の形状測定方法。   The shape measuring method according to claim 9 or 10, wherein the changing includes changing a position of the attention area based on a distance between an edge of the attention area and an image of the pattern. 前記変更することは、前記注目領域の縁と前記パターンの像との距離に基づいて、前記注目領域の位置を変更するか否かを判定し、前記距離が所定距離以下の場合、前記距離が所定距離より大きくなるように前記注目領域の位置を変更する請求項11に記載の形状測定方法。   The changing determines whether to change the position of the region of interest based on the distance between the edge of the region of interest and the image of the pattern. If the distance is equal to or less than a predetermined distance, the distance is The shape measuring method according to claim 11, wherein the position of the region of interest is changed to be larger than a predetermined distance. 前記変更することは、前記パターンの投影位置と前記測定対象との相対移動に伴う、撮像領域における前記パターンの像の移動距離と移動方向との少なくとも一方に関する予め推定した情報に基づいて、前記注目領域の位置を変更する請求項9から12のいずれか一項に記載の形状測定方法。   The changing is based on information estimated in advance regarding at least one of a movement distance and a movement direction of the image of the pattern in the imaging region, which is associated with a relative movement between the projection position of the pattern and the measurement target. The shape measuring method according to claim 9, wherein the position of the region is changed. 前記変更することは、前記注目領域の面積に基づいて、前記注目領域を取り消す請求項9から13のいずれか一項に記載の形状測定方法。   The shape measuring method according to claim 9, wherein the changing includes canceling the attention area based on an area of the attention area. 前記注目領域の面積に基づいて、前記注目領域を取り消すか否かを判定し、前記面積が所定面積以下の場合、前記注目領域を取り消す請求項14に記載の形状測定方法。   The shape measurement method according to claim 14, wherein it is determined whether to cancel the attention area based on the area of the attention area, and the attention area is canceled when the area is equal to or smaller than a predetermined area. 構造物の形状に関する設計情報に基づいて前記構造物を成形することと、
前記成形された前記構造物の形状を請求項9から15のいずれか一項に記載の形状測定方法によって測定することと、
前記測定された前記構造物の形状を示す形状情報と前記設計情報とを比較することと、
を含む構造物製造方法。
Molding the structure based on design information regarding the shape of the structure;
Measuring the shape of the molded structure by the shape measuring method according to any one of claims 9 to 15,
Comparing shape information indicating the shape of the measured structure with the design information;
A structure manufacturing method comprising:
測定対象へパターンを投影し、前記パターンの投影方向とは異なる方向から前記測定対象に投影された前記パターンの像を撮像して画像データを取得し、前記画像データの前記パターンの像に基づいて、前記測定対象の形状を測定することを実行させる形状測定プログラムであって、
コンピュータに、
前記パターンの投影位置が前記測定対象に対して相対移動することと、
撮像領域の少なくとも一部において前記パターンの像を含むように設定された、前記測定対象の測定に利用される情報を取得するための注目領域の位置を、撮像領域における前記パターンの像の移動に伴い変更することと、
前記画像データの前記注目領域内に位置する前記パターンの像に基づいて前記測定対象の形状を測定することと、
を実行させる形状測定プログラム。
A pattern is projected onto the measurement target, an image of the pattern projected onto the measurement target from a direction different from the projection direction of the pattern is acquired to obtain image data, and based on the pattern image of the image data , A shape measurement program for executing measurement of the shape of the measurement object,
On the computer,
The projected position of the pattern moves relative to the measurement object;
The position of the region of interest that is set to include the image of the pattern in at least a part of the imaging region and that is used to acquire information used for measurement of the measurement object is used to move the image of the pattern in the imaging region. With changes,
Measuring the shape of the measurement object based on an image of the pattern located in the region of interest of the image data;
A shape measurement program that executes
請求項17に記載の形状測定プログラムを記録し、コンピュータが読み取り可能な記録媒体。 A recording medium that records the shape measurement program according to claim 17 and is readable by a computer.
JP2018109745A 2018-06-07 2018-06-07 Shape measurement apparatus, structure manufacturing system, shape measurement method, structure manufacturing method, shape measurement program, and recording medium Pending JP2018141810A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018109745A JP2018141810A (en) 2018-06-07 2018-06-07 Shape measurement apparatus, structure manufacturing system, shape measurement method, structure manufacturing method, shape measurement program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018109745A JP2018141810A (en) 2018-06-07 2018-06-07 Shape measurement apparatus, structure manufacturing system, shape measurement method, structure manufacturing method, shape measurement program, and recording medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016527593A Division JP6350657B2 (en) 2014-06-13 2014-06-13 Shape measuring device, structure manufacturing system, shape measuring method, structure manufacturing method, shape measuring program, and recording medium

Publications (1)

Publication Number Publication Date
JP2018141810A true JP2018141810A (en) 2018-09-13

Family

ID=63526589

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018109745A Pending JP2018141810A (en) 2018-06-07 2018-06-07 Shape measurement apparatus, structure manufacturing system, shape measurement method, structure manufacturing method, shape measurement program, and recording medium

Country Status (1)

Country Link
JP (1) JP2018141810A (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63149507A (en) * 1986-12-13 1988-06-22 Kobe Steel Ltd Automatic detection of work line
JPS63229310A (en) * 1987-03-18 1988-09-26 Fujitsu Ltd Pattern inspecting apparatus
JPS6421581A (en) * 1987-07-16 1989-01-24 Omron Tateisi Electronics Co Projector for image processing
JP2001188008A (en) * 1999-12-28 2001-07-10 Yasunaga Corp Height measuring device
JP2008096123A (en) * 2006-10-05 2008-04-24 Keyence Corp Optical displacement gauge, optical displacement measuring method, optical displacement measuring program, computer-readable memory medium and recording equipment
JP2009186216A (en) * 2008-02-04 2009-08-20 Nikon Corp Three-dimensional shape measuring device
JP2012220473A (en) * 2011-04-14 2012-11-12 Yaskawa Electric Corp Three-dimensional shape measurement device and robot system
JP2013234854A (en) * 2012-05-02 2013-11-21 Nikon Corp Shape measuring device, structure manufacturing system, shape measuring method, structure manufacturing method, and program for the same
WO2014057580A1 (en) * 2012-10-12 2014-04-17 株式会社ニレコ Shape measuring method and shape measuring device

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63149507A (en) * 1986-12-13 1988-06-22 Kobe Steel Ltd Automatic detection of work line
JPS63229310A (en) * 1987-03-18 1988-09-26 Fujitsu Ltd Pattern inspecting apparatus
JPS6421581A (en) * 1987-07-16 1989-01-24 Omron Tateisi Electronics Co Projector for image processing
JP2001188008A (en) * 1999-12-28 2001-07-10 Yasunaga Corp Height measuring device
JP2008096123A (en) * 2006-10-05 2008-04-24 Keyence Corp Optical displacement gauge, optical displacement measuring method, optical displacement measuring program, computer-readable memory medium and recording equipment
JP2009186216A (en) * 2008-02-04 2009-08-20 Nikon Corp Three-dimensional shape measuring device
JP2012220473A (en) * 2011-04-14 2012-11-12 Yaskawa Electric Corp Three-dimensional shape measurement device and robot system
JP2013234854A (en) * 2012-05-02 2013-11-21 Nikon Corp Shape measuring device, structure manufacturing system, shape measuring method, structure manufacturing method, and program for the same
WO2014057580A1 (en) * 2012-10-12 2014-04-17 株式会社ニレコ Shape measuring method and shape measuring device

Similar Documents

Publication Publication Date Title
JP6350657B2 (en) Shape measuring device, structure manufacturing system, shape measuring method, structure manufacturing method, shape measuring program, and recording medium
JP5436431B2 (en) Method and apparatus for detecting unevenness of subject
JP5672480B2 (en) Apparatus and method for determining shape of terminal end of bead
JP6184289B2 (en) 3D image processing apparatus, 3D image processing method, 3D image processing program, computer-readable recording medium, and recorded apparatus
CN105190228A (en) Shape measurement device, structure production system, shape measurement method, structure production method, and shape measurement program
EP2463618A1 (en) Surface profile inspection device
JP2009115512A (en) Article inspection method
JP2013064644A (en) Shape-measuring device, shape-measuring method, system for manufacturing structures, and method for manufacturing structures
JP2005121486A (en) Three-dimensional measuring device
JP2014145735A (en) Shape measurement device, structure production system, evaluation device, shape measurement method, structure production method, and shape measurement program
JP6248510B2 (en) Shape measuring device, structure manufacturing system, shape measuring method, structure manufacturing method, shape measuring program, and recording medium
JP2023176008A (en) Image analyzer, analyzer, shape measuring device, image analysis method, measurement condition determination method, shape measuring method, and program
JP6887141B2 (en) Surface shape measuring method and surface shape measuring device
JP7491664B2 (en) Shape measuring device, structure manufacturing system, shape measuring method, and structure manufacturing method
US20170069110A1 (en) Shape measuring method
JP2018141810A (en) Shape measurement apparatus, structure manufacturing system, shape measurement method, structure manufacturing method, shape measurement program, and recording medium
JP7001947B2 (en) Surface shape measurement method
JP6252178B2 (en) Shape measuring device, posture control device, structure manufacturing system, and shape measuring method
JP6820516B2 (en) Surface shape measurement method
JP2005300884A (en) Mask inspection apparatus and mask inspection method
EP1243894A1 (en) A range-image-based method and system for automatic sensor planning
JP2009069063A (en) Measurement method, shape measurement method, measuring device, and shape measuring apparatus
JP2012002605A (en) Defect inspection method of welded surface
JP2005337856A (en) Visual inspection apparatus and visual inspection method
JPH08304040A (en) Three-dimensional shape measuring apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180607

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200309

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200929