JP2020046394A - Three-dimensional shape measuring device and three-dimensional shape measuring program - Google Patents

Three-dimensional shape measuring device and three-dimensional shape measuring program Download PDF

Info

Publication number
JP2020046394A
JP2020046394A JP2018177169A JP2018177169A JP2020046394A JP 2020046394 A JP2020046394 A JP 2020046394A JP 2018177169 A JP2018177169 A JP 2018177169A JP 2018177169 A JP2018177169 A JP 2018177169A JP 2020046394 A JP2020046394 A JP 2020046394A
Authority
JP
Japan
Prior art keywords
dimensional shape
unit
measurement
geometric
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018177169A
Other languages
Japanese (ja)
Other versions
JP7154084B2 (en
Inventor
典男 柴田
Norio Shibata
典男 柴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keyence Corp
Original Assignee
Keyence Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keyence Corp filed Critical Keyence Corp
Priority to JP2018177169A priority Critical patent/JP7154084B2/en
Publication of JP2020046394A publication Critical patent/JP2020046394A/en
Application granted granted Critical
Publication of JP7154084B2 publication Critical patent/JP7154084B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a three-dimensional shape measuring device and a three-dimensional shape measuring program that allow a user to easily and intuitively grasp the relationship between a desired geometric reference and the shape of a measurement object.SOLUTION: Stereoscopic shape data showing a stereoscopic shape of a measurement object is generated. On the basis of the generated stereoscopic shape data, an image including the stereoscopic shape of the measurement object is displayed on a display unit as a stereoscopic shape image SI such that its attitude can be changed. Designation of a geometric reference element is received on the stereoscopic shape image SI. On the basis of the received reference element, a geometric reference for measuring the shape of the measurement object is specified. A distance image having a mode according to the distance between at least portion of the measurement object and the geometric reference is displayed superimposed on the stereoscopic shape image SI on the display unit.SELECTED DRAWING: Figure 19

Description

本発明は、測定対象物の立体形状を測定する三次元形状測定装置および三次元形状測定プログラムに関する。   The present invention relates to a three-dimensional shape measuring device and a three-dimensional shape measuring program for measuring a three-dimensional shape of an object to be measured.

測定対象物の表面形状を把握するために、三次元形状測定装置が用いられる。三次元形状測定装置においては、例えば三角測距の原理を利用して測定対象物の立体形状を示すデータが取得される。取得されたデータが寸法測定用のアプリケーションプログラムにより解析され、測定対象物の形状および寸法等が算出される。   A three-dimensional shape measuring device is used to grasp the surface shape of a measurement object. In a three-dimensional shape measuring apparatus, data indicating a three-dimensional shape of a measurement target is acquired using, for example, the principle of triangulation. The acquired data is analyzed by an application program for dimension measurement, and the shape and dimensions of the measurement target are calculated.

このような三次元形状測定装置として特許文献1に記載された三次元測定装置においては、形状を比較する際の基準となる基準立体形状データが保持される。基準立体形状データとして、例えばCAD(Computer Aided Design)を用いて作成されたCADデータが用いられる。   In the three-dimensional measurement device described in Patent Document 1 as such a three-dimensional shape measurement device, reference three-dimensional shape data serving as a reference when comparing shapes is held. As the reference three-dimensional shape data, for example, CAD data created using CAD (Computer Aided Design) is used.

測定対象物の形状測定によって得られた測定立体形状データの断面プロファイルと、基準立体形状データの断面プロファイルとが、重ね合わされて計測画面に表示される。このとき、測定立体形状データの断面プロファイルと基準立体形状データの断面プロファイルとの差分に応じて両者のプロファイル間の領域が色付けされる。それにより、使用者は予め定められた形状に対する測定対象物の実際の形状の差異を容易に把握することができる。   The cross-sectional profile of the measured three-dimensional shape data obtained by measuring the shape of the measurement object and the cross-sectional profile of the reference three-dimensional shape data are superimposed and displayed on the measurement screen. At this time, the area between the two profiles is colored according to the difference between the cross-sectional profile of the measured three-dimensional shape data and the cross-sectional profile of the reference three-dimensional shape data. Thereby, the user can easily grasp the difference between the actual shape of the measurement object and the predetermined shape.

特開2018−31746号公報JP 2018-31746 A

しかしながら、特許文献1の三次元測定装置においては、使用者は、測定立体形状データを用いて測定対象物の形状を解析する前に、予め基準立体形状データを用意する必要がある。このような基準立体形状データの作成および用意は、使用者にとって面倒である。また、上記の例に限らず、測定対象物の各部の形状について、所望の幾何基準からのずれを把握することができれば、三次元測定装置の利便性が向上する。   However, in the three-dimensional measurement device of Patent Document 1, the user needs to prepare reference three-dimensional shape data in advance before analyzing the shape of the measurement target using the measured three-dimensional shape data. Creating and preparing such reference three-dimensional shape data is troublesome for the user. Further, the present invention is not limited to the above example, and if the deviation of the shape of each part of the measurement target from a desired geometric reference can be grasped, the convenience of the three-dimensional measuring device is improved.

本発明の目的は、所望の幾何基準と測定対象物の形状との関係を使用者が容易かつ直感的に把握することを可能にする三次元形状測定装置および三次元形状測定プログラムを提供することである。   An object of the present invention is to provide a three-dimensional shape measuring apparatus and a three-dimensional shape measuring program that enable a user to easily and intuitively grasp a relationship between a desired geometric reference and the shape of a measurement object. It is.

(1)第1の発明に係る三次元形状測定装置は、測定対象物の立体形状を示す立体形状データを生成する形状データ生成部と、形状データ生成部により生成された立体形状データに基づいて、測定対象物の立体形状を含む画像を立体形状画像として姿勢変更可能に表示部に表示させる表示制御部と、表示部に表示された立体形状画像上で、幾何要素の指定を受け付ける要素受付部と、要素受付部により受け付けられた幾何要素に基づいて、測定対象物の立体形状に関する幾何的な基準を幾何基準として特定する特定部とを備え、表示制御部は、測定対象物の少なくとも一部分と特定部により特定された幾何基準との間の距離に応じて、立体形状画像のうちの少なくとも一部分に対応する部分の表示態様を設定する。   (1) A three-dimensional shape measuring apparatus according to a first aspect of the invention is based on a shape data generation unit that generates three-dimensional shape data indicating a three-dimensional shape of a measurement target, and a three-dimensional shape data generated by the shape data generation unit. A display control unit for displaying an image including the three-dimensional shape of the measurement object as a three-dimensional shape image on a display unit so that the posture can be changed, and an element receiving unit for receiving designation of a geometric element on the three-dimensional shape image displayed on the display unit And, based on the geometric element received by the element receiving unit, comprising a specifying unit that specifies a geometric reference relating to the three-dimensional shape of the measurement target as a geometric reference, the display control unit, at least a part of the measurement target A display mode of a part corresponding to at least a part of the three-dimensional image is set according to a distance from the geometric reference specified by the specifying unit.

その三次元形状測定装置においては、測定対象物の立体形状データが生成され、生成された立体形状データに基づく立体形状画像が表示部に表示される。立体形状画像上で幾何要素の指定が受け付けられ、受け付けられた幾何要素に基づいて幾何基準が特定される。測定対象物の少なくとも一部分と幾何基準との間の距離に応じて、立体形状画像のうち測定対象物の少なくとも一部分に対応する部分の表示態様が設定される。   In the three-dimensional shape measuring device, three-dimensional shape data of the measurement target is generated, and a three-dimensional shape image based on the generated three-dimensional shape data is displayed on the display unit. The specification of the geometric element is received on the three-dimensional shape image, and the geometric reference is specified based on the received geometric element. A display mode of a part of the three-dimensional image corresponding to at least a part of the measurement target is set according to a distance between at least a part of the measurement target and the geometric reference.

それにより、使用者は、測定対象物の立体形状画像上で幾何要素を指定し、表示部に表示される立体形状画像を視認することにより、所望の幾何基準と測定対象物の形状との関係を容易かつ直感的に把握することが可能になる。   Thereby, the user specifies a geometric element on the three-dimensional shape image of the measurement target object, and visually recognizes the three-dimensional shape image displayed on the display unit, thereby displaying a relationship between the desired geometric reference and the shape of the measurement target object. Can be grasped easily and intuitively.

なお、立体形状画像の部分の表示態様を設定するとは、立体形状画像の部分の表示態様を予め定められた本来の表示態様から上記の距離に応じた表示態様に切り替えることを意味する。換言すれば、立体形状画像の部分の表示態様を設定するとは、立体形状画像の部分の表示態様を予め定められた本来の表示態様から上記の距離に応じた表示態様に変更することを意味する。さらに換言すれば、立体形状画像の部分の表示態様を設定するとは、立体形状画像の部分の表示態様を予め定められた本来の表示態様から上記の距離に応じた表示態様にすることを意味する。   Setting the display mode of the part of the three-dimensional image means switching the display mode of the part of the three-dimensional image from a predetermined original display mode to a display mode corresponding to the distance. In other words, setting the display mode of the portion of the three-dimensional image means changing the display mode of the portion of the three-dimensional image from a predetermined original display mode to a display mode corresponding to the distance. . In other words, setting the display mode of the portion of the three-dimensional image means that the display mode of the portion of the three-dimensional image is changed from a predetermined original display mode to a display mode corresponding to the distance. .

(2)特定部は、要素受付部により受け付けられた幾何要素に基づいて、表示態様が設定されるべき少なくとも一部分をさらに特定してもよい。   (2) The specifying unit may further specify at least a part of the display mode to be set based on the geometric element received by the element receiving unit.

この場合、使用者は、測定対象物の立体形状画像上で幾何要素を指定することにより、所望の幾何要素と測定対象物の所望の部分の形状との関係を容易かつ直感的に把握することが可能になる。   In this case, the user can easily and intuitively grasp the relationship between the desired geometric element and the shape of the desired portion of the measurement object by specifying the geometric element on the three-dimensional shape image of the measurement object. Becomes possible.

(3)表示態様は、少なくとも一部分と幾何基準との間の距離に応じた色であってもよい。   (3) The display mode may be a color corresponding to a distance between at least a part and the geometric reference.

この場合、使用者は、所望の幾何基準と測定対象物の少なくとも一部分の形状との関係をより直感的に把握することが可能になる。   In this case, the user can more intuitively grasp the relationship between the desired geometric reference and the shape of at least a part of the measurement target.

(4)表示制御部は、少なくとも一部分と特定部により特定された幾何基準との幾何的な対比結果を表す指標を表示部に表示させるとともに、表示部に表示される指標が対比結果を強調して表すように、指標の表示態様を調整可能であってもよい。   (4) The display control unit causes the display unit to display an index representing a geometric comparison result between at least a part and the geometric reference specified by the specifying unit, and the index displayed on the display unit emphasizes the comparison result. As shown, the display mode of the index may be adjustable.

この場合、使用者は、所望の幾何基準と測定対象物の少なくとも一部分の形状との幾何的な対比結果をより直感的に把握することが可能になる。   In this case, the user can more intuitively grasp the geometric comparison result between the desired geometric reference and the shape of at least a part of the measurement target.

(5)三次元形状測定装置は、ステージ保持部と、ステージ保持部により保持され、測定対象物が載置されるステージと、ステージに載置される測定対象物にパターンを有する測定光を照射する投光部と、測定対象物により反射された測定光を受光して受光量を表す受光信号を出力する受光部とを含むヘッド部と、ヘッド部とステージ保持部とを固定的に連結する連結部とをさらに備え、形状データ生成部は、受光部により出力される受光信号に基づいて、測定対象物の立体形状を表す点群データを立体形状データとして生成してもよい。   (5) The three-dimensional shape measuring apparatus irradiates a stage holding unit, a stage held by the stage holding unit, on which the measurement target is mounted, and measurement light having a pattern on the measurement target mounted on the stage. A head unit including a light projecting unit for emitting light, a light receiving unit for receiving the measurement light reflected by the object to be measured, and outputting a light receiving signal indicating a received light amount, and fixedly connecting the head unit and the stage holding unit. The shape data generation unit may further include a connection unit, and the shape data generation unit may generate, as the three-dimensional shape data, point cloud data representing the three-dimensional shape of the measurement target based on the light receiving signal output by the light receiving unit.

上記の構成によれば、投光部、受光部およびステージ保持部が一体的に設けられているので、受光部とステージとの位置関係が一義的に定まる。そのため、高い精度で点群データを得ることができる。したがって、立体形状データに基づいて高い精度で測定対象物の形状測定を行うことができる。   According to the above configuration, since the light projecting unit, the light receiving unit, and the stage holding unit are provided integrally, the positional relationship between the light receiving unit and the stage is uniquely determined. Therefore, point cloud data can be obtained with high accuracy. Therefore, the shape of the measurement object can be measured with high accuracy based on the three-dimensional shape data.

(6)三次元形状測定装置は、立体形状データに基づいて少なくとも一部分と幾何基準との間の距離を算出するとともに算出された距離に基づいて表示態様と距離との対応関係を設定する対応関係設定部をさらに備え、表示制御部は、対応関係設定部により設定された対応関係に基づいて、立体形状画像のうちの少なくとも一部分に対応する部分の表示態様の設定を行ってもよい。   (6) The three-dimensional shape measurement device calculates a distance between at least a part and the geometric reference based on the three-dimensional shape data, and sets a correspondence between the display mode and the distance based on the calculated distance. The display control unit may further include a setting unit, and the display control unit may set a display mode of a part corresponding to at least a part of the three-dimensional image based on the correspondence set by the correspondence setting unit.

この場合、使用者は、表示態様と距離との対応関係を定める必要がない。また、上記の構成によれば、立体形状データに基づいてより適切な対応関係の設定が可能になる。   In this case, the user does not need to determine the correspondence between the display mode and the distance. Further, according to the above configuration, it is possible to set more appropriate correspondence based on the three-dimensional shape data.

(7)三次元形状測定装置は、一の測定対象物について一の幾何基準を特定するための一の幾何要素を指定するために使用者により操作される操作部と、使用者による操作部の操作手順をテンプレート情報として記憶するテンプレート記憶部と、他の測定対象物について、一の幾何基準に対応する他の幾何基準を特定するための他の幾何要素を、一の測定対象物の立体形状データと、当該他の測定対象物の立体形状データと、テンプレート記憶部に記憶されたテンプレート情報とに基づいて指定するテンプレート指定部とをさらに備えてもよい。   (7) The three-dimensional shape measuring device includes an operation unit operated by a user to specify one geometric element for specifying one geometric reference for one measurement object, and an operation unit operated by the user. A template storage unit that stores an operation procedure as template information, and for another measurement target, another geometric element for specifying another geometric reference corresponding to one geometric reference, a three-dimensional shape of one measurement target. The image processing apparatus may further include a template specifying unit that specifies based on the data, the three-dimensional shape data of the other measurement object, and the template information stored in the template storage unit.

この場合、使用者は、共通の形状を有する複数の測定対象物について、互いに対応する幾何基準を設定したい場合に、測定対象物ごとに幾何要素をそれぞれ指定する必要がなくなる。   In this case, when the user wants to set mutually corresponding geometric references for a plurality of measurement objects having a common shape, the user does not need to specify a geometric element for each measurement object.

(8)第2の発明に係る三次元形状測定プログラムは、処理装置により実行可能な三次元形状測定プログラムであって、測定対象物の立体形状を示す立体形状データを生成する処理と、生成された立体形状データに基づいて、測定対象物の立体形状を含む画像を立体形状画像として姿勢変更可能に表示部に表示させる処理と、表示部に表示された立体形状画像上で、幾何要素の指定を受け付ける処理と、受け付けられた幾何要素に基づいて、測定対象物の立体形状に関する幾何的な基準を幾何基準として特定する処理とを、処理装置に実行させ、表示部に表示させる処理は、測定対象物の少なくとも一部分と特定された幾何基準との間の距離に応じて、立体形状画像のうちの少なくとも一部分に対応する部分の表示態様を設定する処理を含む。   (8) A three-dimensional shape measurement program according to a second aspect of the invention is a three-dimensional shape measurement program executable by a processing device, and includes a process of generating three-dimensional shape data indicating a three-dimensional shape of a measurement object. Processing for displaying an image including the three-dimensional shape of the measurement object on the display unit as a three-dimensional shape image based on the obtained three-dimensional shape data so that the posture can be changed, and specifying a geometric element on the three-dimensional shape image displayed on the display unit The processing for causing the processing device to execute the process of receiving the received information and the process of specifying the geometric reference regarding the three-dimensional shape of the measurement target as the geometric reference based on the received geometric element, Including a process of setting a display mode of a part corresponding to at least a part of the three-dimensional image according to a distance between at least a part of the target object and the specified geometric reference

その三次元形状測定プログラムによれば、測定対象物の立体形状データが生成され、生成された立体形状データに基づく立体形状画像が表示部に表示される。立体形状画像上で幾何要素の指定が受け付けられ、受け付けられた幾何要素に基づいて幾何基準が特定される。測定対象物の少なくとも一部分と幾何基準との間の距離に応じて、立体形状画像のうち測定対象物の少なくとも一部分に対応する部分の表示態様が設定される。   According to the three-dimensional shape measurement program, three-dimensional shape data of the measurement target is generated, and a three-dimensional shape image based on the generated three-dimensional shape data is displayed on the display unit. The specification of the geometric element is received on the three-dimensional shape image, and the geometric reference is specified based on the received geometric element. A display mode of a part of the three-dimensional image corresponding to at least a part of the measurement target is set according to a distance between at least a part of the measurement target and the geometric reference.

それにより、使用者は、測定対象物の立体形状画像上で幾何要素を指定し、表示部に表示される立体形状画像を視認することにより、所望の幾何基準と測定対象物の形状との関係を容易かつ直感的に把握することが可能になる。   Thereby, the user specifies a geometric element on the three-dimensional shape image of the measurement target object, and visually recognizes the three-dimensional shape image displayed on the display unit, thereby displaying a relationship between the desired geometric reference and the shape of the measurement target object. Can be grasped easily and intuitively.

本発明によれば、所望の幾何基準と測定対象物の形状との関係を容易かつ直感的に把握することが可能になる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to grasp | ascertain the relationship between a desired geometric reference | standard and the shape of a measurement object easily and intuitively.

本発明の一実施の形態に係る三次元形状測定装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of a three-dimensional shape measuring device according to an embodiment of the present invention. 図1の三次元形状測定装置の測定部の構成を示す模式図である。FIG. 2 is a schematic diagram illustrating a configuration of a measurement unit of the three-dimensional shape measurement device in FIG. 1. 測定部の模式的な外観斜視図である。It is a typical external appearance perspective view of a measurement part. 図3の測定部の模式的側面図である。FIG. 4 is a schematic side view of the measurement unit in FIG. 3. 三角測距方式の原理を説明するための図である。It is a figure for explaining the principle of a triangulation method. 複数の方向から測定対象物を撮像することにより複数の立体形状データを生成する例を説明するための図である。FIG. 4 is a diagram for describing an example of generating a plurality of three-dimensional shape data by capturing an image of a measurement target from a plurality of directions. 形状測定の準備の手順を示すフローチャートである。It is a flowchart which shows the procedure of preparation of shape measurement. 形状測定処理のフローチャートである。It is a flowchart of a shape measurement process. 計測条件の設定例を説明するための図である。FIG. 9 is a diagram for describing a setting example of a measurement condition. 計測条件の設定例を説明するための図である。FIG. 9 is a diagram for describing a setting example of a measurement condition. 計測条件の設定例を説明するための図である。FIG. 9 is a diagram for describing a setting example of a measurement condition. 計測条件の設定例を説明するための図である。FIG. 9 is a diagram for describing a setting example of a measurement condition. 測定対象物の一例を示す外観斜視図である。It is an appearance perspective view showing an example of a measuring object. 表示態様設定機能の一使用例を説明するための図である。FIG. 7 is a diagram for describing one usage example of a display mode setting function. 表示態様設定機能の一使用例を説明するための図である。FIG. 7 is a diagram for describing one usage example of a display mode setting function. 表示態様設定機能の一使用例を説明するための図である。FIG. 7 is a diagram for describing one usage example of a display mode setting function. 表示態様設定機能の一使用例を説明するための図である。FIG. 7 is a diagram for describing one usage example of a display mode setting function. 表示態様設定機能の一使用例を説明するための図である。FIG. 7 is a diagram for describing one usage example of a display mode setting function. 表示態様設定機能の一使用例を説明するための図である。FIG. 7 is a diagram for describing one usage example of a display mode setting function. 表示態様設定機能の一使用例を説明するための図である。FIG. 7 is a diagram for describing one usage example of a display mode setting function. 表示態様設定機能の一使用例を説明するための図である。FIG. 7 is a diagram for describing one usage example of a display mode setting function. 表示態様設定機能の一使用例を説明するための図である。FIG. 7 is a diagram for describing one usage example of a display mode setting function. 表示態様設定機能の一使用例を説明するための図である。FIG. 7 is a diagram for describing one usage example of a display mode setting function. 表示態様設定機能の一使用例を説明するための図である。FIG. 7 is a diagram for describing one usage example of a display mode setting function. 表示態様設定機能の一使用例を説明するための図である。FIG. 7 is a diagram for describing one usage example of a display mode setting function. 表示態様設定機能の他の使用例を説明するための図である。It is a figure for explaining other examples of use of a display mode setting function. 表示態様設定機能の他の使用例を説明するための図である。It is a figure for explaining other examples of use of a display mode setting function. 表示態様設定機能の他の使用例を説明するための図である。It is a figure for explaining other examples of use of a display mode setting function. 表示態様設定機能の他の使用例を説明するための図である。It is a figure for explaining other examples of use of a display mode setting function. 表示態様設定機能の他の使用例を説明するための図である。It is a figure for explaining other examples of use of a display mode setting function. 表示態様設定機能のさらに他の使用例を説明するための図である。FIG. 14 is a diagram for explaining still another use example of the display mode setting function. 表示態様設定機能のさらに他の使用例を説明するための図である。FIG. 14 is a diagram for explaining still another use example of the display mode setting function. 表示態様設定機能のさらに他の使用例を説明するための図である。FIG. 14 is a diagram for explaining still another use example of the display mode setting function. 本発明の一実施の形態に係る表示態様設定機能を実現するためのCPUの機能ブロック図である。FIG. 3 is a functional block diagram of a CPU for realizing a display mode setting function according to one embodiment of the present invention. 表示態様設定プログラムに基づく表示態様設定処理の基本的な流れを示すフローチャートである。It is a flowchart which shows the basic flow of the display mode setting process based on a display mode setting program. 平行面抽出機能を説明するための幾何要素設定画面の一例を示す図である。It is a figure showing an example of a geometrical element setting screen for explaining a parallel plane extraction function. 平行面抽出機能を説明するための幾何要素設定画面の一例を示す図である。It is a figure showing an example of a geometrical element setting screen for explaining a parallel plane extraction function. 垂直面抽出機能を説明するための幾何要素設定画面の一例を示す図である。It is a figure showing an example of a geometric element setting screen for explaining a vertical plane extraction function. 垂直面抽出機能を説明するための幾何要素設定画面の一例を示す図である。It is a figure showing an example of a geometric element setting screen for explaining a vertical plane extraction function. 領域抽出機能を説明するための幾何要素設定画面の一例を示す図である。It is a figure showing an example of a geometrical element setting screen for explaining an area extraction function. 領域抽出機能を説明するための幾何要素設定画面の一例を示す図である。It is a figure showing an example of a geometrical element setting screen for explaining an area extraction function. 表示部に表示される合わせこみ画面の一例を示す図である。FIG. 7 is a diagram illustrating an example of an alignment screen displayed on a display unit. 表示部に表示される合わせこみ画面の一例を示す図である。FIG. 7 is a diagram illustrating an example of an alignment screen displayed on a display unit. 測定対象物の他の例を示す外観斜視図である。It is an appearance perspective view showing other examples of a measuring object. 対比強調表示機能の一使用例を説明するための図である。FIG. 11 is a diagram for describing one use example of a contrast highlighting function. 対比強調表示機能の一使用例を説明するための図である。FIG. 11 is a diagram for describing one use example of a contrast highlighting function. 対比強調表示機能の一使用例を説明するための図である。FIG. 11 is a diagram for describing one use example of a contrast highlighting function.

以下、本発明の実施の形態に係る三次元形状測定装置について図面を参照しながら説明する。   Hereinafter, a three-dimensional shape measuring apparatus according to an embodiment of the present invention will be described with reference to the drawings.

[1]三次元形状測定装置の構成
図1は、本発明の一実施の形態に係る三次元形状測定装置の構成を示すブロック図である。図2は、図1の三次元形状測定装置500の測定部の構成を示す模式図である。以下、本実施の形態に係る三次元形状測定装置500について、図1および図2を参照しながら説明する。図1に示すように、三次元形状測定装置500は、測定部100、PC(パーソナルコンピュータ)200、制御部300および表示部400を備える。測定部100は、例えば投受光一体の撮像デバイスであり、投光部110、受光部120、照明光出力部130、ステージ140および制御基板150を含む。
[1] Configuration of Three-Dimensional Shape Measuring Apparatus FIG. 1 is a block diagram showing a configuration of a three-dimensional shape measuring apparatus according to one embodiment of the present invention. FIG. 2 is a schematic diagram showing a configuration of a measuring unit of the three-dimensional shape measuring apparatus 500 of FIG. Hereinafter, a three-dimensional shape measuring apparatus 500 according to the present embodiment will be described with reference to FIGS. 1 and 2. As shown in FIG. 1, the three-dimensional shape measuring apparatus 500 includes a measuring unit 100, a PC (personal computer) 200, a control unit 300, and a display unit 400. The measurement unit 100 is, for example, an imaging device integrated with light emission and light reception, and includes a light emission unit 110, a light reception unit 120, an illumination light output unit 130, a stage 140, and a control board 150.

測定部100は、複数の投光部110を含んでもよい。また、測定部100は複数の受光部120を含んでもよい。本実施の形態では、測定部100は2つの投光部110および2つの受光部120を含む。以下、2つの投光部110を区別する場合は、一方の投光部110を投光部110Aと呼び、他方の投光部110を投光部110Bと呼ぶ。また、2つの受光部120を区別する場合は、一方の受光部120を受光部120Aと呼び、他方の受光部120を受光部120Bと呼ぶ。   The measurement unit 100 may include a plurality of light emitting units 110. Further, measuring section 100 may include a plurality of light receiving sections 120. In the present embodiment, measurement unit 100 includes two light emitting units 110 and two light receiving units 120. Hereinafter, when distinguishing the two light emitting units 110, one light emitting unit 110 is referred to as a light emitting unit 110A and the other light emitting unit 110 is referred to as a light emitting unit 110B. When distinguishing the two light receiving units 120, one light receiving unit 120 is called a light receiving unit 120A and the other light receiving unit 120 is called a light receiving unit 120B.

図2では、2つの投光部110および2つの受光部120のうち、2つの投光部110および1つの受光部120が示される。投光部110および受光部120は、ステージ140の斜め上方の位置で一方向に並ぶように配置される。投光部110および受光部120の配置の詳細については後述する。図2に示すように、各投光部110は、測定光源111、パターン生成部112および複数のレンズ113,114を含む。受光部120は、カメラ121およびレンズ122を含む。ステージ140上には、測定対象物Sが載置される。   FIG. 2 shows two light emitting units 110 and one light receiving unit 120 among the two light emitting units 110 and two light receiving units 120. The light projecting unit 110 and the light receiving unit 120 are arranged so as to be arranged in one direction at a position obliquely above the stage 140. Details of the arrangement of the light projecting unit 110 and the light receiving unit 120 will be described later. As shown in FIG. 2, each light projecting unit 110 includes a measurement light source 111, a pattern generation unit 112, and a plurality of lenses 113 and 114. The light receiving unit 120 includes a camera 121 and a lens 122. An object S to be measured is placed on the stage 140.

各投光部110A,110Bの測定光源111は、例えば青色LED(発光ダイオード)である。測定光源111は、ハロゲンランプ等の他の光源であってもよい。測定光源111から出射された光(以下、測定光と呼ぶ。)は、レンズ113により適切に集光された後、パターン生成部112に入射する。   The measurement light source 111 of each of the light emitting units 110A and 110B is, for example, a blue LED (light emitting diode). The measurement light source 111 may be another light source such as a halogen lamp. Light emitted from the measurement light source 111 (hereinafter, referred to as measurement light) is appropriately condensed by the lens 113, and then enters the pattern generation unit 112.

パターン生成部112は、例えばDMD(デジタルマイクロミラーデバイス)である。パターン生成部112は、LCD(液晶ディスプレイ)、LCOS(Liquid Crystal on Silicon:反射型液晶素子)またはマスクであってもよい。パターン生成部112に入射した測定光は、予め設定されたパターンおよび予め設定された強度(明るさ)に変換されて出射される。パターン生成部112から出射された測定光は、レンズ114により測定対象物Sの寸法よりも大きい径を有する光に変換された後、ステージ140上の測定対象物Sに照射される。   The pattern generation unit 112 is, for example, a DMD (digital micromirror device). The pattern generation unit 112 may be an LCD (Liquid Crystal Display), an LCOS (Liquid Crystal on Silicon), or a mask. The measurement light that has entered the pattern generation unit 112 is converted into a predetermined pattern and a predetermined intensity (brightness) and emitted. The measurement light emitted from the pattern generation unit 112 is converted into light having a diameter larger than the size of the measurement target S by the lens 114, and is then applied to the measurement target S on the stage 140.

投光部110Aの測定光源111、レンズ113およびパターン生成部112は、受光部120の光軸と略平行に並ぶように配置される。同様に、投光部110Bの測定光源111、レンズ113およびパターン生成部112は、受光部120の光軸と略平行に並ぶように配置される。一方、各投光部110A,110Bのレンズ114は、測定光源111、レンズ113およびパターン生成部112に対してオフセットするように配置される。これにより、投光部110A,110Bの光軸が受光部120の光軸に対して傾斜し、受光部120の両側方からそれぞれ測定対象物Sに向けて測定光が出射される。   The measurement light source 111, the lens 113, and the pattern generation unit 112 of the light projecting unit 110A are arranged so as to be substantially parallel to the optical axis of the light receiving unit 120. Similarly, the measurement light source 111, the lens 113, and the pattern generation unit 112 of the light projecting unit 110B are arranged so as to be substantially parallel to the optical axis of the light receiving unit 120. On the other hand, the lenses 114 of the light projecting units 110A and 110B are arranged so as to be offset with respect to the measurement light source 111, the lens 113, and the pattern generating unit 112. Accordingly, the optical axes of the light projecting units 110A and 110B are inclined with respect to the optical axis of the light receiving unit 120, and the measurement light is emitted from both sides of the light receiving unit 120 toward the measurement target S, respectively.

測定対象物Sによりステージ140の上方に反射された測定光は、受光部120のレンズ122により集光および結像され、カメラ121の撮像素子121aにより受光される。   The measurement light reflected by the measurement target S above the stage 140 is condensed and imaged by the lens 122 of the light receiving unit 120, and is received by the imaging element 121 a of the camera 121.

受光部120の撮像視野を広くするため、一定の画角を有するように受光部120が構成される。本実施の形態においては、受光部120の撮像視野とは、受光部120により撮像が可能な空間上の領域を意味する。受光部120の画角は、例えば、撮像素子121aの寸法およびレンズ122の焦点距離により定まる。広い視野を必要としない場合には、テレセントリック光学系が受光部120に用いられてもよい。ここで、測定部100に設けられる2つの受光部120のレンズ122の倍率は互いに異なる。それにより、2つの受光部120を選択的に用いることにより、測定対象物Sを互いに異なる2種類の倍率で撮像することができる。2つの受光部120は、2つの受光部120の光軸が互いに平行となるように配置されることが好ましい。   In order to widen the field of view of the light receiving unit 120, the light receiving unit 120 is configured to have a certain angle of view. In the present embodiment, the imaging field of view of the light receiving unit 120 means a region in space where imaging can be performed by the light receiving unit 120. The angle of view of the light receiving unit 120 is determined by, for example, the dimensions of the image sensor 121a and the focal length of the lens 122. If a wide field of view is not required, a telecentric optical system may be used for the light receiving unit 120. Here, the magnifications of the lenses 122 of the two light receiving units 120 provided in the measuring unit 100 are different from each other. Thus, by selectively using the two light receiving units 120, the measurement target S can be imaged at two different magnifications. The two light receiving units 120 are preferably arranged such that the optical axes of the two light receiving units 120 are parallel to each other.

カメラ121は、例えばCCD(電荷結合素子)カメラである。撮像素子121aは、例えばモノクロCCD(電荷結合素子)である。撮像素子121aは、CMOS(相補性金属酸化膜半導体)イメージセンサ等の他の撮像素子であってもよい。撮像素子121aの各画素からは、受光量に対応するアナログの電気信号(以下、受光信号と呼ぶ。)が制御基板150に出力される。   The camera 121 is, for example, a CCD (Charge Coupled Device) camera. The imaging device 121a is, for example, a monochrome CCD (charge coupled device). The image sensor 121a may be another image sensor such as a CMOS (complementary metal oxide semiconductor) image sensor. From each pixel of the image sensor 121a, an analog electric signal corresponding to the amount of received light (hereinafter, referred to as a received light signal) is output to the control board 150.

照明光出力部130は、測定対象物Sに赤色波長の光、緑色波長の光および青色波長の光を時分割で出射する。この構成によれば、モノクロCCDを用いた受光部120により測定対象物Sのカラー画像を撮像することができる。   The illumination light output unit 130 emits red wavelength light, green wavelength light, and blue wavelength light to the measurement target S in a time-division manner. According to this configuration, a color image of the measurement target S can be captured by the light receiving unit 120 using the monochrome CCD.

なお、カラーCCDが十分な分解能および感度を有する場合には、撮像素子121aは、カラーCCDであってもよい。この場合、照明光出力部130は、測定対象物Sに赤色波長の光、緑色波長の光および青色波長の光を時分割で照射する必要はなく、白色光を測定対象物Sに照射する。そのため、照明光源320の構成を単純にすることができる。   When the color CCD has sufficient resolution and sensitivity, the image sensor 121a may be a color CCD. In this case, the illumination light output unit 130 does not need to irradiate the measurement target S with red, green, and blue wavelength light in a time-division manner, and irradiates the measurement target S with white light. Therefore, the configuration of the illumination light source 320 can be simplified.

制御基板150には、図示しないA/D変換器(アナログ/デジタル変換器)およびFIFO(First In First Out)メモリが実装される。カメラ121から出力される受光信号は、制御部300による制御に基づいて、制御基板150のA/D変換器により一定のサンプリング周期でサンプリングされるとともにデジタル信号に変換される。A/D変換器から出力されるデジタル信号は、FIFOメモリに順次蓄積される。FIFOメモリに蓄積されたデジタル信号は画素データとして順次PC200に転送される。ここで、カメラ121が、例えば、モノクロCMOSカメラであって、撮像素子121aの各画素から受光量に対応するデジタルの電気信号が制御基板150へ出力される場合、A/D変換器は必ずしも必要ではない。   An A / D converter (analog / digital converter) and a FIFO (First In First Out) memory (not shown) are mounted on the control board 150. The light receiving signal output from the camera 121 is sampled at a constant sampling cycle by the A / D converter of the control board 150 and converted into a digital signal under the control of the control unit 300. Digital signals output from the A / D converter are sequentially stored in a FIFO memory. The digital signals stored in the FIFO memory are sequentially transferred to the PC 200 as pixel data. Here, when the camera 121 is, for example, a monochrome CMOS camera, and a digital electric signal corresponding to the amount of received light is output from each pixel of the image sensor 121a to the control board 150, the A / D converter is necessarily required. is not.

図1に示すように、PC200は、CPU(中央演算処理装置)210、ROM(リードオンリメモリ)220、作業用メモリ230、記憶装置240および操作部250を含む。操作部250は、キーボードおよびポインティングデバイスを含む。ポインティングデバイスとしては、マウスまたはジョイスティック等が用いられる。   As shown in FIG. 1, the PC 200 includes a CPU (central processing unit) 210, a ROM (read only memory) 220, a working memory 230, a storage device 240, and an operation unit 250. The operation unit 250 includes a keyboard and a pointing device. As the pointing device, a mouse or a joystick is used.

ROM220には、システムプログラムが記憶される。作業用メモリ230は、RAM(ランダムアクセスメモリ)からなり、種々のデータの処理のために用いられる。記憶装置240は、ハードディスク等からなる。記憶装置240には、三次元形状測定プログラムが記憶される。三次元形状測定プログラムには、後述する形状測定プログラムおよび表示態様設定プログラムが含まれる。また、記憶装置240は、制御基板150から与えられる画素データ等の種々のデータを保存するために用いられる。   The ROM 220 stores a system program. The working memory 230 is composed of a RAM (random access memory) and is used for processing various data. The storage device 240 is composed of a hard disk or the like. The storage device 240 stores a three-dimensional shape measurement program. The three-dimensional shape measurement program includes a shape measurement program and a display mode setting program described later. The storage device 240 is used to store various data such as pixel data provided from the control board 150.

CPU210は、制御基板150から与えられる画素データに基づいて画像データを生成する。また、CPU210は、生成した画像データに作業用メモリ230を用いて各種処理を行うとともに、画像データに基づく画像を表示部400に表示させる。さらに、CPU210は、後述するステージ駆動部146に制御基板150を通して駆動信号を与える。表示部400は、例えばLCDパネルまたは有機EL(エレクトロルミネッセンス)パネルにより構成される。表示部400には、例えば受光部120のカメラ121によりリアルタイムで取得される画像データに基づく画像(以下、ライブ画像と呼ぶ。)が表示される。   CPU 210 generates image data based on pixel data provided from control board 150. Further, the CPU 210 performs various processes on the generated image data using the work memory 230, and causes the display unit 400 to display an image based on the image data. Further, the CPU 210 gives a drive signal to the later-described stage drive unit 146 through the control board 150. The display unit 400 is configured by, for example, an LCD panel or an organic EL (electroluminescence) panel. The display unit 400 displays an image (hereinafter, referred to as a live image) based on image data acquired in real time by the camera 121 of the light receiving unit 120, for example.

図2に示すように、ステージ140は、ステージベース141およびステージプレート142を含む。ステージベース141上にステージプレート142が配置される。ステージプレート142は、測定対象物Sが載置される載置面を有する。ステージプレート142には、クランプまたは治具等を取り付けるための取付部(例えばねじ孔)が設けられてもよい。本実施の形態に係るステージプレート142は円板形状を有する。   As shown in FIG. 2, the stage 140 includes a stage base 141 and a stage plate 142. The stage plate 142 is disposed on the stage base 141. The stage plate 142 has a mounting surface on which the measurement target S is mounted. The stage plate 142 may be provided with a mounting portion (for example, a screw hole) for mounting a clamp or a jig. Stage plate 142 according to the present embodiment has a disk shape.

ステージプレート142上の空間には、略円柱状の有効領域MRが設定される。有効領域MRは、投光部110A,110Bにより測定光を照射可能でかつ受光部120により撮像可能な領域である。受光部120の撮像視野は、その受光部120が有するレンズ122の倍率、焦点深度および画角等により定まる。   A substantially cylindrical effective region MR is set in the space above the stage plate 142. The effective region MR is a region that can be irradiated with measurement light by the light projecting units 110A and 110B and can be imaged by the light receiving unit 120. The imaging field of view of the light receiving unit 120 is determined by the magnification, depth of focus, angle of view, and the like of the lens 122 included in the light receiving unit 120.

ステージ140は回転機構143に取り付けられる。回転機構143は、後述する設置部161(図4)に固定されている。また、回転機構143は、例えばエンコーダおよびステッピングモータを含む。また、回転機構143は、図1のステージ操作部145またはステージ駆動部146により駆動され、ステージ140をその中心を通るとともに鉛直方向に延びる回転軸Axの周りで回転させる。使用者は、ステージ操作部145を手動で操作することにより、ステージ140を回転させることができる。また、ステージ駆動部146は、PC200より制御基板150を通して与えられる駆動信号に基づいて、回転機構143に電流を供給することにより、ステージプレート142の載置面を受光部120に相対的に回転させることができる。   The stage 140 is attached to the rotation mechanism 143. The rotation mechanism 143 is fixed to an installation section 161 (FIG. 4) described later. Further, the rotation mechanism 143 includes, for example, an encoder and a stepping motor. The rotating mechanism 143 is driven by the stage operating unit 145 or the stage driving unit 146 in FIG. 1, and rotates the stage 140 around a rotation axis Ax that passes through the center thereof and extends in the vertical direction. The user can rotate the stage 140 by manually operating the stage operation unit 145. The stage driving unit 146 rotates the mounting surface of the stage plate 142 relative to the light receiving unit 120 by supplying a current to the rotation mechanism 143 based on a driving signal given from the PC 200 through the control board 150. be able to.

ステージ140の回転時には、回転機構143のエンコーダから出力される信号が、制御基板150を通してPC200に送られる。それにより、図1のCPU210は、予め定められた基準角度からのステージプレート142の回転量(回転位置)を検出する。   When the stage 140 rotates, a signal output from the encoder of the rotation mechanism 143 is sent to the PC 200 through the control board 150. Thereby, CPU 210 in FIG. 1 detects the amount of rotation (rotational position) of stage plate 142 from a predetermined reference angle.

制御部300は、制御基板310および照明光源320を含む。制御基板310には、図示しないCPUが実装される。制御基板310のCPUは、PC200のCPU210からの指令に基づいて、投光部110、受光部120および制御基板150を制御する。制御基板310および照明光源320は、測定部100に搭載されてもよい。   The control unit 300 includes a control board 310 and an illumination light source 320. A CPU (not shown) is mounted on the control board 310. The CPU of the control board 310 controls the light emitting unit 110, the light receiving unit 120, and the control board 150 based on a command from the CPU 210 of the PC 200. The control board 310 and the illumination light source 320 may be mounted on the measurement unit 100.

照明光源320は、例えば赤色光、緑色光および青色光を出射する3つのLEDを含む。各LEDから出射される光の輝度を制御することにより、照明光源320から任意の色の光を発生することができる。照明光源320から発生される光(以下、照明光と呼ぶ。)は、導光部材(ライトガイド)330を通して測定部100の照明光出力部130から出力される。なお、制御部300に照明光源320を設けずに、測定部100に照明光源320を設けてもよい。この場合、導光部材330は必要ない。   Illumination light source 320 includes, for example, three LEDs that emit red light, green light, and blue light. By controlling the brightness of the light emitted from each LED, light of any color can be generated from the illumination light source 320. Light generated from the illumination light source 320 (hereinafter, referred to as illumination light) is output from the illumination light output unit 130 of the measurement unit 100 through a light guide member (light guide) 330. Note that the illumination light source 320 may be provided in the measurement unit 100 without providing the illumination light source 320 in the control unit 300. In this case, the light guide member 330 is not required.

ここで、測定部100においては、複数の投光部110、複数の受光部120、照明光出力部130およびステージ140の位置関係が一定に固定されるように、これらの構成要素が連結される。   Here, in the measuring unit 100, these components are connected so that the positional relationship among the plurality of light emitting units 110, the plurality of light receiving units 120, the illumination light output unit 130, and the stage 140 is fixed. .

図3は、測定部100の模式的な外観斜視図である。図3では、測定部100の外観が太い実線で示されるとともに、測定部100の内部に設けられる一部の構成要素が点線で示される。図3に示すように、測定部100は台座170を含む。台座170には、2つの投光部110、2つの受光部120、照明光出力部130および制御基板150が取り付けられる。この状態で、2つの投光部110、2つの受光部120、照明光出力部130の位置関係が台座170により固定される。2つの受光部120は上下に並ぶように配置されている。また、照明光出力部130は、楕円筒形状を有し、2つの受光部120を取り囲むように配置されている。照明光出力部130の一端部には、楕円形状を有する照明光の出射口131が形成されている。さらに、2つの投光部110は、2つの受光部120および照明光出力部130を挟んで並ぶように配置される。   FIG. 3 is a schematic external perspective view of the measuring unit 100. In FIG. 3, the appearance of the measurement unit 100 is indicated by a thick solid line, and some components provided inside the measurement unit 100 are indicated by a dotted line. As shown in FIG. 3, measuring section 100 includes pedestal 170. The pedestal 170 is provided with two light emitting units 110, two light receiving units 120, an illumination light output unit 130, and a control board 150. In this state, the positional relationship among the two light emitting units 110, the two light receiving units 120, and the illumination light output unit 130 is fixed by the pedestal 170. The two light receiving units 120 are arranged so as to be vertically arranged. Further, the illumination light output unit 130 has an elliptical cylindrical shape, and is arranged so as to surround the two light receiving units 120. At one end of the illumination light output unit 130, an illumination light exit 131 having an elliptical shape is formed. Further, the two light emitting units 110 are arranged so as to be arranged side by side with the two light receiving units 120 and the illumination light output unit 130 interposed therebetween.

台座170には、さらに2つの投光部110、2つの受光部120、照明光出力部130および制御基板150の一部を収容するヘッドケーシング180が取り付けられる。2つの投光部110、2つの受光部120、照明光出力部130、制御基板150、台座170およびヘッドケーシング180によりヘッド部190が構成される。   The pedestal 170 is further provided with a head casing 180 that accommodates two light projecting units 110, two light receiving units 120, an illumination light output unit 130, and a part of the control board 150. The head unit 190 is configured by the two light emitting units 110, the two light receiving units 120, the illumination light output unit 130, the control board 150, the pedestal 170, and the head casing 180.

測定部100は、さらに設置部161およびスタンド部162を含む。設置部161は、平坦な底面を有するとともに略一定幅で一方向に延びるように形成されている。設置部161は、テーブルの上面等の水平な設置面上に設置される。   The measurement section 100 further includes an installation section 161 and a stand section 162. The installation portion 161 has a flat bottom surface and is formed to extend in one direction with a substantially constant width. The installation section 161 is installed on a horizontal installation surface such as the upper surface of a table.

スタンド部162は、設置部161の一端部に接続され、設置部161の一端部から上方に延びるように形成される。設置部161の他端部近傍の位置に図2の回転機構143が固定されている。回転機構143によりステージ140が回転可能に保持される。   The stand 162 is connected to one end of the installation part 161 and is formed to extend upward from one end of the installation part 161. The rotation mechanism 143 of FIG. 2 is fixed at a position near the other end of the installation section 161. The stage 140 is rotatably held by the rotation mechanism 143.

台座170は、スタンド部162の上端に着脱可能に構成されている。スタンド部162にヘッド部190の台座170が取り付けられることにより、ヘッド部190と設置部161とがスタンド部162により固定的に連結される。これにより、ステージ140、2つの投光部110および2つの受光部120の位置関係が一定に保持される。   The pedestal 170 is configured to be detachable from the upper end of the stand 162. By mounting the pedestal 170 of the head unit 190 to the stand unit 162, the head unit 190 and the installation unit 161 are fixedly connected by the stand unit 162. Thereby, the positional relationship between the stage 140, the two light emitting units 110, and the two light receiving units 120 is kept constant.

各投光部110は、測定光の照射される照射領域がステージ140およびその上方の空間を含むように位置決めされる。測定光は、各投光部110から測定対象物Sに対して斜め下方に導かれる。さらに、各受光部120は、光軸が斜め下方に延びるようにかつ図2のカメラ121の撮像視野がステージ140およびその上方の空間を含むように位置決めされる。図3では、各投光部110の照射領域IRが二点鎖線で示されるとともに、一方の受光部120Aの撮像視野TR1が一点鎖線で示される。各受光部120A,120Bは、その光学系の光軸(図2のレンズ122の光軸)がステージプレート142の載置面に対して予め定められた角度(例えば45度)をなす状態で固定される。   Each light projecting unit 110 is positioned such that an irradiation area irradiated with the measurement light includes the stage 140 and a space above the stage 140. The measurement light is guided obliquely downward from the respective light projecting units 110 with respect to the measurement target S. Further, each light receiving unit 120 is positioned such that the optical axis extends obliquely downward and the imaging field of view of camera 121 in FIG. 2 includes stage 140 and the space above it. In FIG. 3, the irradiation region IR of each light projecting unit 110 is indicated by a two-dot chain line, and the imaging field of view TR1 of one light receiving unit 120A is indicated by a single dot chain line. Each of the light receiving units 120A and 120B is fixed in a state where the optical axis of the optical system (the optical axis of the lens 122 in FIG. 2) forms a predetermined angle (for example, 45 degrees) with respect to the mounting surface of the stage plate 142. Is done.

図3に示すように、2つの投光部110A,110Bの照射領域IRの一部と受光部120Aの撮像視野TR1の一部とは、ステージ140の上方の空間内で重なり合う。投光部110A,110Bの照射領域IRと受光部120Aの撮像視野TR1とが重なり合う位置に、受光部120Aに対応する有効領域MR1が設定される。   As shown in FIG. 3, a part of the irradiation region IR of the two light projecting units 110A and 110B and a part of the imaging field of view TR1 of the light receiving unit 120A overlap in the space above the stage 140. An effective area MR1 corresponding to the light receiving unit 120A is set at a position where the irradiation regions IR of the light projecting units 110A and 110B and the imaging field of view TR1 of the light receiving unit 120A overlap.

本例の測定部100に設けられる2つの受光部120A,120Bは、レンズ122の倍率、焦点深度および画角が互いに異なる。具体的には、受光部120Bのレンズ122の倍率は受光部120Aのレンズ122の倍率よりも高い。また、受光部120Bのレンズ122の焦点深度は受光部120Aのレンズ122の焦点深度よりも小さい。さらに、受光部120Bのレンズ122の画角は受光部120Aのレンズ122の画角よりも小さい。この場合、受光部120Bの撮像視野は、受光部120Aの撮像視野TR1よりも小さくなる。それにより、一方の受光部120Aに対応する有効領域MR1はステージ140上に比較的広い範囲で設定される。これに対して、他方の受光部120Bに対応する有効領域は、受光部120Aに対応する有効領域MR1よりも狭い範囲でステージ140上に設定される。   The two light receiving units 120A and 120B provided in the measuring unit 100 of this example are different from each other in magnification, depth of focus, and angle of view of the lens 122. Specifically, the magnification of the lens 122 of the light receiving unit 120B is higher than the magnification of the lens 122 of the light receiving unit 120A. Further, the depth of focus of the lens 122 of the light receiving unit 120B is smaller than the depth of focus of the lens 122 of the light receiving unit 120A. Further, the angle of view of the lens 122 of the light receiving unit 120B is smaller than the angle of view of the lens 122 of the light receiving unit 120A. In this case, the imaging field of view of the light receiving unit 120B is smaller than the imaging field of view TR1 of the light receiving unit 120A. Thereby, the effective area MR1 corresponding to one light receiving unit 120A is set on the stage 140 in a relatively wide range. On the other hand, the effective area corresponding to the other light receiving section 120B is set on the stage 140 in a range narrower than the effective area MR1 corresponding to the light receiving section 120A.

図4は、図3の測定部100の模式的側面図である。図4では、受光部120Aの光学系の光軸A1が太い一点鎖線で示され、受光部120Aの有効領域MR1が太い点線で示される。また、受光部120Bの光学系の光軸A2が一点鎖線で示され、受光部120Bの有効領域MR2が点線で示される。   FIG. 4 is a schematic side view of the measuring unit 100 of FIG. In FIG. 4, the optical axis A1 of the optical system of the light receiving unit 120A is indicated by a thick dashed line, and the effective area MR1 of the light receiving unit 120A is indicated by a thick dotted line. The optical axis A2 of the optical system of the light receiving unit 120B is indicated by a dashed line, and the effective area MR2 of the light receiving unit 120B is indicated by a dotted line.

本実施の形態に係る測定部100においては、図4に示すように、光軸A2が光軸A1よりも下方に位置する。また、光軸A1,A2は互いに平行である。受光部120Aに対応する有効領域MR1は、例えばステージ140の回転軸Axと受光部120Aの光学系の焦点面との交点F1を中心として設定される。受光部120Bに対応する有効領域MR2は、例えばステージ140の回転軸Axと受光部120Bの光学系の焦点面との交点F2を中心として設定される。   In the measuring section 100 according to the present embodiment, as shown in FIG. 4, the optical axis A2 is located lower than the optical axis A1. The optical axes A1 and A2 are parallel to each other. The effective area MR1 corresponding to the light receiving unit 120A is set, for example, around an intersection F1 between the rotation axis Ax of the stage 140 and the focal plane of the optical system of the light receiving unit 120A. The effective area MR2 corresponding to the light receiving unit 120B is set, for example, around an intersection F2 between the rotation axis Ax of the stage 140 and the focal plane of the optical system of the light receiving unit 120B.

図3および図4に示される測定部100においては、有効領域MR1,MR2を含むステージ140上の空間に、測定部100に固有の三次元座標系(以下、装置座標系と呼ぶ。)が定義される。本例の装置座標系は、原点と互いに直交するX軸、Y軸およびZ軸とを含む。以下の説明では、装置座標系のX軸に平行な方向をX方向と呼び、Y軸に平行な方向をY方向と呼び、Z軸に平行な方向をZ方向と呼ぶ。さらに、Z軸に平行な軸の周りで回転する方向をθ方向と呼ぶ。X方向およびY方向は、ステージプレート142の載置面に平行な面内で互いに直交する。Z方向は、ステージプレート142の載置面に平行な面に対して直交する。図3および図4では、X方向、Y方向、Z方向およびθ方向が矢印で示される。   In the measuring unit 100 shown in FIGS. 3 and 4, a three-dimensional coordinate system (hereinafter, referred to as an apparatus coordinate system) unique to the measuring unit 100 is defined in a space on the stage 140 including the effective regions MR1 and MR2. Is done. The apparatus coordinate system of the present example includes an X axis, a Y axis, and a Z axis that are orthogonal to the origin. In the following description, a direction parallel to the X axis of the apparatus coordinate system is called an X direction, a direction parallel to the Y axis is called a Y direction, and a direction parallel to the Z axis is called a Z direction. Further, the direction rotating about an axis parallel to the Z axis is referred to as a θ direction. The X direction and the Y direction are orthogonal to each other in a plane parallel to the mounting surface of the stage plate 142. The Z direction is orthogonal to a plane parallel to the mounting surface of the stage plate 142. 3 and 4, the X direction, the Y direction, the Z direction, and the θ direction are indicated by arrows.

[2]測定対象物の立体形状を示す立体形状データ
(1)三角測距方式による形状測定
測定部100においては、三角測距方式により測定対象物Sの形状が測定される。図5は、三角測距方式の原理を説明するための図である。図5には、装置座標系とともに定義されるX方向、Y方向、Z方向およびθ方向がそれぞれ矢印で示される。
[2] Three-dimensional shape data indicating the three-dimensional shape of the object to be measured (1) Shape measurement by triangular ranging method In the measuring unit 100, the shape of the measuring object S is measured by the triangular ranging method. FIG. 5 is a diagram for explaining the principle of the triangulation method. In FIG. 5, the X direction, the Y direction, the Z direction, and the θ direction defined together with the device coordinate system are indicated by arrows.

図5に示すように、投光部110から出射される測定光の光軸と受光部120に入射する測定光の光軸(受光部120の光軸)との間の角度αが予め設定される。角度αは、0度よりも大きく90度よりも小さい。   As shown in FIG. 5, the angle α between the optical axis of the measurement light emitted from the light projecting unit 110 and the optical axis of the measurement light incident on the light receiving unit 120 (the optical axis of the light receiving unit 120) is set in advance. You. The angle α is larger than 0 degree and smaller than 90 degrees.

ステージ140上に測定対象物Sが載置されない場合、投光部110から出射される測定光は、ステージ140の載置面の点Oにより反射され、受光部120に入射する。一方、ステージ140上に測定対象物Sが載置される場合、投光部110から出射される測定光は、測定対象物Sの表面の点Aにより反射され、受光部120に入射する。   When the measurement target S is not mounted on the stage 140, the measurement light emitted from the light projecting unit 110 is reflected by the point O on the mounting surface of the stage 140 and enters the light receiving unit 120. On the other hand, when the measurement target S is placed on the stage 140, the measurement light emitted from the light projecting unit 110 is reflected by the point A on the surface of the measurement target S and enters the light receiving unit 120.

点Oと点Aとの間のX方向における距離をdとすると、ステージ140の載置面に対する測定対象物Sの点Aの高さhは、h=d÷tan(α)により与えられる。図1のPC200のCPU210は、制御基板150により与えられる測定対象物Sの画素データに基づいて、X方向における点Oと点Aとの間の距離dを測定する。また、CPU210は、測定された距離dに基づいて、測定対象物Sの表面の点Aの高さhを算出する。測定対象物Sの表面の全ての点の高さを算出することにより、測定光が照射された全ての点について装置座標系で表される座標を特定することができる。それにより、測定対象物Sの三次元的な形状が測定される。   Assuming that the distance between the point O and the point A in the X direction is d, the height h of the point A of the measurement target S with respect to the mounting surface of the stage 140 is given by h = d ÷ tan (α). The CPU 210 of the PC 200 in FIG. 1 measures the distance d between the point O and the point A in the X direction based on the pixel data of the measurement target S provided by the control board 150. Further, the CPU 210 calculates a height h of the point A on the surface of the measurement target S based on the measured distance d. By calculating the heights of all points on the surface of the measurement target S, it is possible to specify the coordinates expressed in the apparatus coordinate system for all points irradiated with the measurement light. Thereby, the three-dimensional shape of the measurement target S is measured.

測定対象物Sの表面の全ての点に測定光を照射するために、図2の投光部110からは種々のパターンを有する測定光が出射される。測定光のパターンは、図2のパターン生成部112により制御される。   In order to irradiate all points on the surface of the measurement target S with measurement light, measurement lights having various patterns are emitted from the light projecting unit 110 in FIG. The pattern of the measurement light is controlled by the pattern generation unit 112 in FIG.

例えば第1のパターンとして、Y方向に平行な直線状の断面を有する測定光(以下、ライン状測定光と呼ぶ。)が投光部110から出射される。また、第2のパターンとして、Y方向に平行な直線状の断面を有しかつX方向に強度が正弦波状に変化するパターンを有する測定光(以下、正弦波状測定光と呼ぶ。)が投光部110から複数回(本例においては4回)出射される。さらに、第3のパターンとして、Y方向に平行でかつX方向に並ぶような直線状の断面を有する測定光(以下、縞状測定光と呼ぶ。)が投光部110から複数回(本例においては16回)出射される。さらに、第4のパターンとして、Y方向に平行な直線状の断面を有しかつ明部分と暗部分とがX方向に並ぶ測定光(以下、コード状測定光と呼ぶ。)が投光部110から複数回(本例においては4回)出射される。コード状測定光の明部分および暗部分の割合は、それぞれ50%である。   For example, as the first pattern, measurement light having a linear cross section parallel to the Y direction (hereinafter, referred to as linear measurement light) is emitted from the light projecting unit 110. As the second pattern, measurement light (hereinafter, referred to as sinusoidal measurement light) having a linear cross section parallel to the Y direction and having a pattern in which the intensity changes sinusoidally in the X direction is projected. The light is emitted from the unit 110 a plurality of times (four times in this example). Further, as a third pattern, measurement light having a linear cross section parallel to the Y direction and arranged in the X direction (hereinafter, referred to as stripe measurement light) is emitted from the light projecting unit 110 a plurality of times (this example). Are emitted 16 times). Further, as a fourth pattern, a measuring light (hereinafter, referred to as a code-like measuring light) having a linear cross section parallel to the Y direction and having a bright portion and a dark portion arranged in the X direction is projected. (In this example, four times). The proportions of the bright and dark portions of the coded measurement light are 50%, respectively.

上述のライン状測定光を測定対象物S上で走査する方法は一般に光切断法と呼ばれる。一方、正弦波状測定光、縞状測定光またはコード状測定光を測定対象物Sに照射する方法は、パターン投影法に分類される。また、パターン投影法の中でも、正弦波状測定光または縞状測定光を測定対象物Sに照射する方法は位相シフト法に分類され、コード状測定光を測定対象物Sに照射する方法は空間コード法に分類される。   The above-described method of scanning the linear measurement light on the measurement target S is generally called a light-section method. On the other hand, a method of irradiating the measurement target S with the sine wave measurement light, the stripe measurement light, or the code measurement light is classified as a pattern projection method. Among the pattern projection methods, a method of irradiating the measurement target S with the sine wave measurement light or the stripe measurement light is classified as a phase shift method, and a method of irradiating the measurement target S with the code measurement light is a space code. Classified into laws.

本実施の形態に係る測定部100においては、ステージ140上に載置される測定対象物Sに対して互いに異なる複数(本例では2つ)の方向から測定光を投光することができる。それにより、投光部110Aから投光される測定光により測定不可能な部分がある場合に、その測定不可能な部分の形状を投光部110Bから投光される測定光を用いて測定することができる。同様に、投光部110Bから投光される測定光により測定不可能な部分がある場合に、その測定不可能な部分の形状を投光部110Aから投光される測定光を用いて測定することができる。これらの結果、測定対象物Sにおける測定不可能な部分を低減することができる。   In measurement section 100 according to the present embodiment, measurement light can be projected from a plurality of (two in this example) directions different from each other on measurement object S mounted on stage 140. Thereby, when there is a part that cannot be measured by the measuring light projected from the light projecting unit 110A, the shape of the unmeasurable part is measured using the measuring light projected from the light projecting unit 110B. be able to. Similarly, when there is a part that cannot be measured by the measuring light projected from the light projecting unit 110B, the shape of the unmeasurable part is measured using the measuring light projected from the light projecting unit 110A. be able to. As a result, unmeasurable portions of the measurement target S can be reduced.

上記の光切断法、パターン投影法、位相シフト法および空間コード法は、各々短所および長所を有しているが、いずれも三角測距の原理を用いている点は共通である。所定パターンを有する測定光が投影された測定対象物Sの画像データ(以下、パターン画像データと呼ぶ。)に基づいて、測定対象物Sの立体形状を表す点群(ポイントクラウド)データが生成される。   Although the above-described light sectioning method, pattern projection method, phase shift method, and space code method each have disadvantages and advantages, they all have in common that they use the principle of triangulation. Based on image data (hereinafter, referred to as pattern image data) of the measurement target S onto which the measurement light having the predetermined pattern is projected, point cloud (point cloud) data representing a three-dimensional shape of the measurement target S is generated. You.

以下の説明では、測定対象物Sの立体形状を表す点群データを立体形状データと呼ぶ。立体形状データは、測定対象物Sの表面上の複数の点の位置データを含む。位置データは、例えば、X方向、Y方向およびZ方向における座標を表す。この場合、立体形状データのうち任意の点のデータをPn(nは自然数)とすると、Pnは、例えば装置座標系の座標値を用いて(Xn,Yn,Zn)で表すことができる。なお、立体形状データは、点群データに基づいて生成される面情報データにより構成されてもよく、ポリゴンメッシュ等の他の形式のデータを含んでもよい。立体形状データに基づいて、測定対象物Sの立体形状を表す画像を表示することができる。以下、立体形状データに基づいて表示される測定対象物Sの立体形状を含む画像を立体形状画像と呼ぶ。   In the following description, the point cloud data representing the three-dimensional shape of the measurement target S will be referred to as three-dimensional shape data. The three-dimensional shape data includes position data of a plurality of points on the surface of the measurement target S. The position data represents, for example, coordinates in the X, Y, and Z directions. In this case, assuming that data of an arbitrary point in the three-dimensional shape data is Pn (n is a natural number), Pn can be represented by (Xn, Yn, Zn) using, for example, a coordinate value of a device coordinate system. Note that the three-dimensional shape data may be constituted by surface information data generated based on the point cloud data, and may include data in another format such as a polygon mesh. An image representing the three-dimensional shape of the measurement target S can be displayed based on the three-dimensional shape data. Hereinafter, an image including the three-dimensional shape of the measurement target S displayed based on the three-dimensional shape data is referred to as a three-dimensional shape image.

本実施の形態においては、立体形状画像は、二次元座標系が定義された任意の平面上に立体形状データが投影された状態を示す画像であり、使用者による計測箇所の指定を受け付けるための画像である。使用者は、測定対象物Sを見る方向(測定対象物Sに対する受光部120の位置)として立体形状データが投影される平面を指定することができる。それにより、立体形状画像により表される測定対象物Sの姿勢(向き)が変化する。   In the present embodiment, the three-dimensional shape image is an image showing a state in which the three-dimensional shape data is projected on an arbitrary plane in which a two-dimensional coordinate system is defined, and is used to receive designation of a measurement location by a user. It is an image. The user can designate a plane on which the three-dimensional shape data is projected as a direction in which the measurement target S is viewed (the position of the light receiving unit 120 with respect to the measurement target S). Thereby, the posture (direction) of the measurement target S represented by the three-dimensional shape image changes.

(2)複数の立体形状データの合成
投光部110および受光部120に対する測定対象物Sの位置および姿勢が一定であると、測定対象物Sの一部にしか測定光が照射されない。また、測定対象物Sの一部で反射される光しか受光部120に入射しない。そのため、測定対象物Sの表面の広範囲に渡る立体形状データを求めることができない。そこで、測定対象物Sの位置または姿勢を変化させることにより、互いに異なる複数の方向から測定対象物Sを撮像し、複数の撮像方向にそれぞれ対応する複数の立体形状データを取得し、取得された複数の立体形状データを合成してもよい。
(2) Synthesis of a plurality of three-dimensional shape data If the position and orientation of the measurement target S with respect to the light projecting unit 110 and the light receiving unit 120 are constant, only a part of the measurement target S is irradiated with the measurement light. Further, only light reflected by a part of the measurement target S enters the light receiving unit 120. Therefore, it is not possible to obtain three-dimensional shape data over a wide range of the surface of the measurement target S. Therefore, by changing the position or orientation of the measurement target S, the measurement target S is imaged from a plurality of different directions, and a plurality of three-dimensional shape data respectively corresponding to the plurality of imaging directions is acquired. A plurality of three-dimensional shape data may be combined.

図6は、複数の方向から測定対象物Sを撮像することにより複数の立体形状データを生成する例を説明するための図である。例えば、図6(a)に示すように、使用者により測定対象物Sの位置および姿勢がステージ140上で調整された後、測定光を用いて測定対象物Sが撮像されることにより最初の立体形状データが生成される。これにより取得される立体形状画像の一例が図6(d)に示される。立体形状データは、測定対象物Sの表面で反射して受光部120に入射する測定光に基づいて生成される。そのため、測定対象物Sの表面のうち受光部120の位置から視認可能な部分については立体形状データが生成されるが、測定対象物Sの表面のうち受光部120の位置から視認不可能な部分については立体形状データを生成することができない。   FIG. 6 is a diagram illustrating an example in which a plurality of three-dimensional shape data is generated by imaging the measurement target S from a plurality of directions. For example, as shown in FIG. 6A, after the position and orientation of the measurement target S are adjusted on the stage 140 by the user, the measurement target S is first imaged by using the measurement light. Three-dimensional shape data is generated. FIG. 6D shows an example of the three-dimensional shape image obtained as a result. The three-dimensional shape data is generated based on the measurement light reflected on the surface of the measurement target S and incident on the light receiving unit 120. Therefore, three-dimensional shape data is generated for a portion of the surface of the measurement target S that is visible from the position of the light receiving unit 120, but a portion of the surface of the measurement target S that is not visible from the position of the light receiving unit 120. Cannot generate three-dimensional shape data.

そこで、図6(b)に示すように、図2の回転機構143によりステージ140が一定角度回転された後、測定光を用いて測定対象物Sが撮像されることにより2番目の立体形状データが生成される。図6(b)の例では、ステージ140を上方から見た場合に、ステージ140が図6(a)の状態から反時計回りに約45度回転されている。これにより取得される立体形状画像の一例が図6(e)に示される。上記のように、ステージ140が回転すると、その回転に伴って測定対象物Sの表面のうち受光部120の位置から視認可能な部分および視認不可能な部分も変化する。その結果、最初の撮像時には取得されなかった部分を含む立体形状データが生成される。   Therefore, as shown in FIG. 6B, after the stage 140 is rotated by a fixed angle by the rotation mechanism 143 of FIG. 2, the measurement object S is imaged using the measurement light, so that the second three-dimensional shape data is obtained. Is generated. In the example of FIG. 6B, when the stage 140 is viewed from above, the stage 140 is rotated approximately 45 degrees counterclockwise from the state of FIG. 6A. FIG. 6E shows an example of the three-dimensional shape image acquired by the above. As described above, when the stage 140 rotates, a portion of the surface of the measurement target S that is visible from the position of the light receiving unit 120 and a portion that is not visible also change with the rotation. As a result, three-dimensional shape data including a part not acquired at the time of the first imaging is generated.

さらに、図6(c)に示すように、図2の回転機構143によりステージ140が一定角度回転された後、測定光を用いて測定対象物Sが撮像されることにより3番目の立体形状データが生成される。図6(c)の例では、ステージ140を上方から見た場合に、ステージ140が図6(b)の状態から反時計回りに約45度回転されている。これにより取得される立体形状画像の一例が図6(f)に示される。   Further, as shown in FIG. 6C, after the stage 140 is rotated by a fixed angle by the rotation mechanism 143 of FIG. 2, the measurement object S is imaged using the measurement light, so that the third three-dimensional shape data is obtained. Is generated. In the example of FIG. 6C, when the stage 140 is viewed from above, the stage 140 is rotated approximately 45 degrees counterclockwise from the state of FIG. 6B. FIG. 6F shows an example of the three-dimensional shape image acquired thereby.

このようにして、ステージ140の回転および測定対象物Sの撮像が繰り返されることにより、複数の撮像方向にそれぞれ対応する複数の立体形状データが生成される。   By repeating the rotation of the stage 140 and the imaging of the measurement target S in this manner, a plurality of three-dimensional shape data respectively corresponding to a plurality of imaging directions are generated.

上記の複数の撮像時には、ステージ140の回転位置(回転角度)が図1のCPU210により検出される。2つの投光部110および2つの受光部120とステージ140の回転軸Axとの位置関係は一定に保持されている。これらの相対位置を表すパラメータ(以下、機器パラメータ)が、例えば図1の記憶装置240に予め記憶される。機器パラメータは、例えば装置座標系で表される。   At the time of the plurality of imagings, the rotation position (rotation angle) of the stage 140 is detected by the CPU 210 in FIG. The positional relationship between the two light emitting units 110 and two light receiving units 120 and the rotation axis Ax of the stage 140 is kept constant. Parameters (hereinafter, device parameters) indicating these relative positions are stored in advance in, for example, the storage device 240 in FIG. The device parameters are represented, for example, in a device coordinate system.

この場合、機器パラメータとステージ140の回転位置とに基づいて、複数の立体形状データに含まれる位置データがステージ140の一部を基準とする仮想的な共通の三次元座標系で表されるように、各立体形状データの座標変換を実行することができる。   In this case, based on the device parameters and the rotational position of the stage 140, the position data included in the plurality of three-dimensional shape data may be represented by a virtual common three-dimensional coordinate system based on a part of the stage 140. Then, coordinate conversion of each three-dimensional shape data can be executed.

本例では、上記のように、複数の立体形状データが共通の三次元座標系で表されるように座標変換され、座標変換された複数の立体形状データが互いに重複する部分のパターンマッチングにより合成される。それにより、測定対象物Sの外表面の広範囲に渡る立体形状データが生成される。   In this example, as described above, a plurality of three-dimensional shape data is coordinate-transformed so as to be represented by a common three-dimensional coordinate system, and the plurality of coordinate-converted three-dimensional shape data are synthesized by pattern matching of a portion overlapping each other. Is done. Thereby, the three-dimensional shape data over a wide range of the outer surface of the measurement target S is generated.

[3]測定対象物の外観を表すテクスチャ画像データ
測定部100においては、照明光出力部130から測定対象物Sに照明光が照射された状態または投光部110A,110Bから測定対象物Sに均一な測定光が照射された状態で、測定対象物Sの外観(表面状態)を表す画像データ(以下、テクスチャ画像データと呼ぶ。)が生成される。均一な測定光とは、パターンを有さない測定光であり、照明光の代わりに用いることができる。以下、このような測定光を均一測定光と呼ぶ。測定対象物Sの表面状態は、例えば模様または色彩を含む。以下、テクスチャ画像データにより表される画像をテクスチャ画像と呼ぶ。
[3] Texture Image Data Representing the Appearance of the Measurement Object In the measurement unit 100, the illumination light output unit 130 irradiates the measurement object S with illumination light, or the light projecting units 110A and 110B transmit the measurement object S to the measurement object S. Image data (hereinafter, referred to as texture image data) representing the appearance (surface state) of the measurement target S is generated in a state where the uniform measurement light is irradiated. The uniform measurement light is measurement light having no pattern and can be used instead of illumination light. Hereinafter, such measurement light is referred to as uniform measurement light. The surface state of the measurement target S includes, for example, a pattern or a color. Hereinafter, an image represented by the texture image data is referred to as a texture image.

テクスチャ画像データの種々の例について説明する。例えば、測定対象物Sに対して受光部120の焦点位置が相対的に変化されつつ複数のテクスチャ画像データが取得されてもよい。この場合、複数のテクスチャ画像データを合成することにより、測定対象物Sの表面の全体に焦点が合ったテクスチャ画像データ(以下、全焦点テクスチャ画像データと呼ぶ。)が生成される。なお、全焦点テクスチャ画像データを生成する場合、測定部100には、受光部120の焦点位置を移動させる焦点移動機構が設けられる必要がある。   Various examples of the texture image data will be described. For example, a plurality of texture image data may be acquired while the focal position of the light receiving unit 120 is relatively changed with respect to the measurement target S. In this case, by combining a plurality of texture image data, texture image data in which the entire surface of the measurement target S is in focus (hereinafter, referred to as all-focus texture image data) is generated. When generating all-focus texture image data, the measuring unit 100 needs to be provided with a focal point moving mechanism that moves the focal position of the light receiving unit 120.

また、異なる複数の撮像条件で複数のテクスチャ画像データが取得されてもよい。撮像条件は、例えば、受光部120の露光時間、照明光出力部130からの照明光の強度(明るさ)または投光部110からの均一測定光の強度(明るさ)等を含む。この場合、取得された複数のテクスチャ画像データを用いて公知のハイダイナミック(HDR)合成を行うことにより、黒つぶれおよび白とび等が抑制されたテクスチャ画像データ(以下、HDRテクスチャ画像データと呼ぶ。)が生成される。   Also, a plurality of texture image data may be acquired under a plurality of different imaging conditions. The imaging conditions include, for example, the exposure time of the light receiving unit 120, the intensity (brightness) of the illumination light from the illumination light output unit 130, the intensity (brightness) of the uniform measurement light from the light projecting unit 110, and the like. In this case, by performing a well-known high dynamic (HDR) synthesis using the obtained plurality of texture image data, texture image data in which blackout and overexposure are suppressed (hereinafter, referred to as HDR texture image data). ) Is generated.

また、焦点位置が変化されるとともに撮像条件が変化されてもよい。具体的には、測定対象物Sに対して受光部120の焦点が複数の位置へ相対的に変化されるとともに、各位置において互いに異なる複数の撮像条件でテクスチャ画像データが取得される。取得された複数のテクスチャ画像データを合成することにより、測定対象物Sの表面の全体に焦点が合いかつ黒つぶれおよび白とび等が抑制されたテクスチャ画像データが生成される。   Further, the imaging condition may be changed while the focal position is changed. Specifically, the focus of the light receiving unit 120 is relatively changed to a plurality of positions with respect to the measurement target S, and texture image data is acquired at each position under a plurality of different imaging conditions. By synthesizing the plurality of acquired texture image data, texture image data in which the entire surface of the measurement target S is in focus and blackouts and overexposures are suppressed is generated.

各テクスチャ画像データは、測定対象物Sの各点の色または輝度を表すテクスチャ情報(光学的表面状態を表す情報)を含む。一方、上記の立体形状データは、測定対処物Sの光学的表面状態の情報を含まない。そこで、立体形状データといずれかのテクスチャ画像データとが合成されることにより、立体形状データにテクスチャ情報が付与されたテクスチャ付き立体形状データが生成される。   Each texture image data includes texture information (information representing an optical surface state) representing the color or luminance of each point of the measurement target S. On the other hand, the above-mentioned three-dimensional shape data does not include information on the optical surface state of the measured object S. Therefore, by combining the three-dimensional shape data and any of the texture image data, three-dimensional shape data with texture in which texture information is added to the three-dimensional shape data is generated.

テクスチャ付き立体形状データは、測定対象物Sの表面上の複数の点の位置データを含むとともに各点の位置データに対応付けられた当該点の色または輝度を示すデータを含む。この場合、テクスチャ付き立体形状データのうち任意の点のデータをTPn(nは自然数)とすると、TPnは、例えば装置座標系の座標値と、赤色、緑色および青色の三原色の成分(R,G,B)とを用いて(Xn,Yn,Zn,Rn,Gn,Bn)で表すことができる。または、TPnは、例えば装置座標系の座標値と、輝度値(I)とを用いて(Xn,Yn,Zn,In)で表すことができる。テクスチャ付き立体形状データは、点群データに基づいて生成される面情報データにより構成されてもよい。   The textured three-dimensional shape data includes position data of a plurality of points on the surface of the measurement target S and data indicating the color or luminance of the point associated with the position data of each point. In this case, assuming that data of an arbitrary point in the textured three-dimensional shape data is TPn (n is a natural number), TPn is, for example, a coordinate value of a device coordinate system and components of three primary colors of red, green, and blue (R, G , B) and (Xn, Yn, Zn, Rn, Gn, Bn). Alternatively, TPn can be represented by (Xn, Yn, Zn, In) using, for example, a coordinate value of a device coordinate system and a luminance value (I). The textured three-dimensional shape data may be configured by surface information data generated based on the point cloud data.

以下の説明では、一定の焦点位置および撮像条件で取得されたテクスチャ画像データにより表されるテクスチャ画像を通常テクスチャ画像と呼び、全焦点テクスチャ画像データにより表される画像を全焦点テクスチャ画像と呼び、HDRテクスチャ画像データにより表される画像をHDRテクスチャ画像と呼ぶ。また、テクスチャ付き立体形状データにより表される画像をテクスチャ付き立体形状画像と呼ぶ。   In the following description, a texture image represented by texture image data acquired at a constant focus position and imaging conditions is referred to as a normal texture image, an image represented by all-focus texture image data is referred to as an all-focus texture image, An image represented by HDR texture image data is called an HDR texture image. The image represented by the textured three-dimensional shape data is called a textured three-dimensional shape image.

本実施の形態においては、テクスチャ付き立体形状画像は、二次元座標系が定義された任意の平面上にテクスチャ付き立体形状データが投影された状態を示す画像であり、使用者による計測箇所の指定を受け付けるための画像である。使用者は、測定対象物Sを見る方向(測定対象物Sに対する受光部120の位置)としてテクスチャ付き立体形状データが投影される平面を指定することができる。それにより、テクスチャ付き立体形状画像により表される測定対象物Sの向きが変化する。   In the present embodiment, the textured three-dimensional shape image is an image showing a state where the textured three-dimensional shape data is projected on an arbitrary plane in which a two-dimensional coordinate system is defined, and the user designates a measurement location. This is an image for accepting. The user can specify a plane on which the textured three-dimensional shape data is projected as a direction in which the measurement target S is viewed (the position of the light receiving unit 120 with respect to the measurement target S). Accordingly, the direction of the measurement target S represented by the textured three-dimensional shape image changes.

上記のように、テクスチャ画像データを生成するために、照明光または均一測定光を用いて測定対象物Sが撮像される。ここで、上記のように、照明光出力部130は、2つの受光部120を取り囲むように形成された照明光の出射口131を有する。このような構成により、出射口131から出射される照明光の少なくとも一部は受光部120の光軸とほぼ平行な状態で測定対象物Sに照射される。それにより、照明光を用いて測定対象物Sが撮像される場合には、生成されるテクスチャ画像データに影の成分が発生しにくい。したがって、テクスチャ画像データの生成時には照明光を用いることが好ましい。   As described above, in order to generate the texture image data, the measurement target S is imaged using the illumination light or the uniform measurement light. Here, as described above, the illumination light output unit 130 has the illumination light exit 131 formed so as to surround the two light receiving units 120. With such a configuration, at least a part of the illumination light emitted from the emission port 131 irradiates the measurement target S in a state substantially parallel to the optical axis of the light receiving unit 120. Accordingly, when the measurement target S is imaged using the illumination light, a shadow component is not easily generated in the generated texture image data. Therefore, it is preferable to use illumination light when generating texture image data.

なお、図6の例で示されるように、測定対象物Sについて複数の方向から撮像を行うことにより複数の立体形状データを生成する場合には、測定光を用いた撮像とともに照明光または均一測定光を用いた撮像を行ってもよい。この場合、複数の立体形状データにそれぞれ対応する複数のテクスチャ画像データを生成することができる。したがって、複数の立体形状データおよび複数のテクスチャ画像データを合成することにより、測定対象物Sの外表面の広い範囲に渡って立体形状および表面状態を表すテクスチャ付き立体形状データを生成することができる。   As shown in the example of FIG. 6, when a plurality of three-dimensional shape data is generated by imaging the measurement target S from a plurality of directions, illumination light or uniform measurement is performed together with imaging using the measurement light. Imaging using light may be performed. In this case, a plurality of texture image data respectively corresponding to the plurality of three-dimensional shape data can be generated. Therefore, by combining a plurality of three-dimensional shape data and a plurality of texture image data, textured three-dimensional shape data representing a three-dimensional shape and a surface state over a wide range of the outer surface of the measurement target S can be generated. .

[4]形状測定
(1)形状測定の準備
まず使用者は、測定対象物Sの測定を行う前に、形状測定の準備を行う。図7は、形状測定の準備の手順を示すフローチャートである。以下、図1、図2および図7を参照しながら形状測定の準備の手順を説明する。まず、使用者は、測定対象物Sをステージ140上に載置する(ステップS1)。次に、使用者は、投光部110から測定対象物Sに測定光を照射する(ステップS2)。このとき測定対象物Sのライブ画像が表示部400に表示される。続いて、使用者は、表示部400に表示されたライブ画像を見ながら、取得されるライブ画像の明るさ、ならびに測定対象物Sの位置および姿勢の調整(以下、第1の調整と呼ぶ。)を行う(ステップS3)。ステップS3において取得されるライブ画像の明るさは、測定光の光量および受光部120の露光時間のうち少なくとも一方を変化させることにより調整することができる。本実施の形態では、測定光を用いて取得されるライブ画像の明るさを観察に適した明るさにするために、測定光の光量または受光部120の露光時間のうち一方が調整される。
[4] Shape Measurement (1) Preparation for Shape Measurement First, the user prepares for shape measurement before measuring the measurement target S. FIG. 7 is a flowchart showing a procedure for preparing for shape measurement. Hereinafter, the procedure for preparing for shape measurement will be described with reference to FIGS. 1, 2, and 7. FIG. First, the user places the measurement target S on the stage 140 (Step S1). Next, the user irradiates the measurement target S with measurement light from the light projecting unit 110 (step S2). At this time, a live image of the measurement target S is displayed on the display unit 400. Subsequently, the user adjusts the brightness of the acquired live image and the position and orientation of the measurement target S while viewing the live image displayed on the display unit 400 (hereinafter, referred to as first adjustment). Is performed (step S3). The brightness of the live image acquired in step S3 can be adjusted by changing at least one of the amount of measurement light and the exposure time of the light receiving unit 120. In the present embodiment, one of the light amount of the measurement light and the exposure time of the light receiving unit 120 is adjusted in order to make the brightness of the live image acquired using the measurement light suitable for observation.

ステップS2では、上記の第1〜第4のパターンの測定光のいずれかが測定対象物Sに照射されてもよく、均一測定光が測定対象物Sに照射されてもよい。ステップS3において、測定対象物Sの計測すべき箇所(以下、計測箇所と呼ぶ)に影が発生していない場合、使用者は、測定対象物Sの位置および姿勢の調整を行う必要はなく、測定光の光量または受光部120の露光時間の調整を行えばよい。   In step S2, any of the above-described first to fourth patterns of measurement light may be applied to the measurement target S, or the uniform measurement light may be applied to the measurement target S. In step S3, when no shadow is generated at a location to be measured on the measurement target S (hereinafter, referred to as a measurement location), the user does not need to adjust the position and orientation of the measurement target S, The light amount of the measurement light or the exposure time of the light receiving unit 120 may be adjusted.

次に、使用者は、測定光の照射を停止するとともに、照明光出力部130から測定対象物Sに照明光を照射する(ステップS4)。このとき、測定対象物Sのライブ画像が表示部400に表示される。続いて、使用者は、表示部400に表示されたライブ画像を見ながら、取得されるライブ画像の明るさの調整(以下、第2の調整と呼ぶ。)を行う(ステップS5)。ステップS5において取得されるライブ画像の明るさは、基本的にステップS3の例と同様に、照明光の光量および受光部120の露光時間のうち少なくとも一方を変化させることにより調整することができる。本実施の形態では、照明光を用いて取得されるライブ画像の明るさを観察に適した明るさにするために、照明光の光量または受光部120の露光時間のうち一方が調整される。   Next, the user stops the irradiation of the measurement light and irradiates the measurement target S with the illumination light from the illumination light output unit 130 (step S4). At this time, a live image of the measurement target S is displayed on the display unit 400. Subsequently, the user adjusts the brightness of the acquired live image (hereinafter, referred to as a second adjustment) while viewing the live image displayed on the display unit 400 (Step S5). The brightness of the live image acquired in step S5 can be adjusted by changing at least one of the amount of illumination light and the exposure time of the light receiving unit 120, similarly to the example of step S3. In the present embodiment, one of the amount of illumination light and the exposure time of the light receiving unit 120 is adjusted in order to make the brightness of a live image obtained using illumination light suitable for observation.

次に、使用者は、表示部400に表示されたライブ画像を確認し、光量、受光部120の露光時間、測定対象物Sの位置および姿勢(以下、観察状態と呼ぶ。)が適切であるか否かを判定する(ステップS6)。ステップS6においては、測定対象物Sに測定光が照射されてもよく、照明光が照射されてもよく、または測定光および照明光が順に照射されてもよい。   Next, the user checks the live image displayed on the display unit 400, and the light amount, the exposure time of the light receiving unit 120, and the position and orientation of the measurement target S (hereinafter, referred to as an observation state) are appropriate. It is determined whether or not this is the case (step S6). In step S6, the measurement target S may be irradiated with the measurement light, the illumination light may be irradiated, or the measurement light and the illumination light may be sequentially irradiated.

ステップS6において、観察状態が適切でないと判定した場合、使用者は、ステップS2の処理に戻る。一方、ステップS6において、観察状態が適切であると判定した場合、使用者は、形状測定の準備を終了する。   If it is determined in step S6 that the observation state is not appropriate, the user returns to the processing in step S2. On the other hand, if it is determined in step S6 that the observation state is appropriate, the user ends the preparation for shape measurement.

なお、上記の例では、第1の調整の後に第2の調整が行われるが、第2の調整の後に第1の調整が行われてもよい。この場合、使用者は、第2の調整において測定対象物Sの位置および姿勢を調整し、第1の調整時に測定対象物Sの所望の部分に測定光が照射されていることを確認してもよい。測定対象物Sの所望の部分に測定光が照射されていない場合には、測定対象物Sの位置および姿勢を再調整し、再度第2の調整として照明光の光量または受光部120の露光時間の調整等を行ってもよい。   In the above example, the second adjustment is performed after the first adjustment, but the first adjustment may be performed after the second adjustment. In this case, the user adjusts the position and orientation of the measurement target S in the second adjustment, and confirms that a desired portion of the measurement target S is irradiated with the measurement light during the first adjustment. Is also good. If the desired portion of the measurement target S is not irradiated with the measurement light, the position and orientation of the measurement target S are readjusted, and the light amount of the illumination light or the exposure time of the light receiving unit 120 is again adjusted as a second adjustment. May be adjusted.

ここで、ステップS5の第2の調整時に、使用者は、取得されるべきテクスチャ画像の種類を選択してもよい。テクスチャ画像の種類は、例えば、通常テクスチャ画像、全焦点テクスチャ画像、HDRテクスチャ画像を含む。この場合、第2の調整が行われることにより、選択されたテクスチャ画像のテクスチャ画像データを生成するために最適な照明光の光量条件、または照明光に対応する受光部120の露光時間の条件が自動設定されてもよい。   Here, at the time of the second adjustment in step S5, the user may select the type of the texture image to be acquired. The types of texture images include, for example, a normal texture image, an all-focus texture image, and an HDR texture image. In this case, by performing the second adjustment, the optimal light amount condition of the illumination light for generating the texture image data of the selected texture image or the condition of the exposure time of the light receiving unit 120 corresponding to the illumination light is satisfied. It may be set automatically.

(2)形状測定処理
使用者による図7の形状測定の準備の後、測定対象物Sの形状測定処理が行われる。図8は、形状測定処理のフローチャートである。形状測定処理は、図1のCPU210が使用者による形状測定処理の開始の指示に応答して形状測定プログラムを実行することにより開始される。
(2) Shape Measurement Processing After the user prepares for the shape measurement in FIG. 7, the shape measurement processing of the measurement target S is performed. FIG. 8 is a flowchart of the shape measurement process. The shape measurement process is started by the CPU 210 of FIG. 1 executing a shape measurement program in response to a user's instruction to start the shape measurement process.

まず、CPU210は、測定対象物Sに測定光を照射し、パターン画像データを取得する(ステップS41)。取得されたパターン画像データは、作業用メモリ230に記憶される。   First, the CPU 210 irradiates the measurement target S with measurement light to acquire pattern image data (step S41). The acquired pattern image data is stored in the working memory 230.

次に、CPU210は、取得したパターン画像データを所定のアルゴリズムで処理することにより、測定対象物Sの立体形状を示す立体形状データを生成する(ステップS42)。生成された立体形状データは、作業用メモリ230に記憶される。   Next, the CPU 210 generates three-dimensional shape data indicating the three-dimensional shape of the measurement target S by processing the acquired pattern image data using a predetermined algorithm (step S42). The generated three-dimensional shape data is stored in the working memory 230.

次に、CPU210は、測定対象物Sに照明光または均一測定光を照射し、テクスチャ画像データを取得する(ステップS43)。取得されたテクスチャ画像データは、作業用メモリ230に記憶される。   Next, the CPU 210 irradiates the measurement target S with illumination light or uniform measurement light, and acquires texture image data (step S43). The acquired texture image data is stored in the working memory 230.

次に、CPU210は、ステップS42で生成された立体形状データとステップS43で取得されたテクスチャ画像データとを合成することにより、テクスチャ付き立体形状データを生成する(ステップS44)。   Next, the CPU 210 generates textured three-dimensional shape data by combining the three-dimensional shape data generated in step S42 with the texture image data obtained in step S43 (step S44).

ここで、形状測定処理の開始前には、予め定められたデータの生成条件が図1の記憶装置240に記憶されている。データの生成条件には、形状測定処理において生成されるべき立体形状データに関する情報が含まれる。例えば、図6の例で示したように、複数の方向から撮像を行うことにより得られる複数の立体形状データを合成して1つの立体形状データを生成する場合には、複数の立体形状データを生成するためにステージ140(図2)を回転させる必要がある。そこで、撮像ごとのステージ140の回転位置、ステージ140の回転方向および撮像回数等がデータの生成条件として記憶装置240に記憶されている。   Here, before the start of the shape measurement processing, predetermined data generation conditions are stored in the storage device 240 of FIG. The data generation condition includes information on three-dimensional shape data to be generated in the shape measurement process. For example, as shown in the example of FIG. 6, when a plurality of three-dimensional shape data obtained by performing imaging from a plurality of directions is combined to generate one three-dimensional shape data, the plurality of three-dimensional shape data is Stage 140 (FIG. 2) needs to be rotated to generate. Therefore, the rotation position of the stage 140, the rotation direction of the stage 140, the number of times of imaging, and the like for each imaging are stored in the storage device 240 as data generation conditions.

CPU210は、ステップS44の処理後、予め設定された生成条件に基づいて、測定対象物Sについての全ての撮像が終了したか否かを判定する(ステップS45)。全ての撮像が終了していない場合、CPU210は、生成条件に基づいてステージ140(図2)を予め定められたピッチ分回転させ(ステップS46)、ステップS41の処理に戻る。   After the process of step S44, the CPU 210 determines whether or not all imaging of the measurement target S has been completed based on a preset generation condition (step S45). If not all imaging has been completed, the CPU 210 rotates the stage 140 (FIG. 2) by a predetermined pitch based on the generation conditions (step S46), and returns to the process of step S41.

ステップS45において全ての撮像が終了すると、CPU210は、ステップS42の処理が複数繰り返されることにより生成された複数の立体形状データの合成を行うとともに、ステップS44の処理が複数繰り返されることにより生成された複数のテクスチャ付き立体形状データの合成を行う(ステップS47)。なお、ステップS41〜S45の処理が1度しか実行されていない場合、ステップS47の処理は省略される。このようにして、測定対象物Sの計測に用いる立体形状データおよびテクスチャ付き立体形状データが生成される。   When all imaging is completed in step S45, the CPU 210 synthesizes a plurality of pieces of three-dimensional shape data generated by repeating the processing of step S42 a plurality of times, and generates the data by repeating the processing of step S44 a plurality of times. A plurality of textured three-dimensional shape data is synthesized (step S47). If the processes of steps S41 to S45 have been performed only once, the process of step S47 is omitted. In this way, three-dimensional shape data and three-dimensional shape data with texture used for measurement of the measurement target S are generated.

次に、CPU210は、生成された立体形状データまたはテクスチャ付き立体形状データに基づいて、測定対象物Sの立体形状画像またはテクスチャ付き立体形状画像を表示部400に表示させる(ステップS48)。この場合、使用者は、表示部400に表示すべき画像として立体形状画像またはテクスチャ付き立体形状画像のいずれかを適宜選択することができる。   Next, based on the generated three-dimensional shape data or textured three-dimensional shape data, CPU 210 causes display unit 400 to display a three-dimensional shape image or textured three-dimensional shape image of measurement target S (step S48). In this case, the user can appropriately select either the three-dimensional image or the three-dimensional image with texture as the image to be displayed on the display unit 400.

その後、CPU210は、使用者による図1の操作部250の操作に応答して計測条件の設定を行うとともに設定された計測条件に基づいて計測箇所の計測を行う(ステップS49)。計測条件の設定については後述する。これにより、形状測定処理が終了する。   Thereafter, the CPU 210 sets the measurement conditions in response to the operation of the operation unit 250 in FIG. 1 by the user, and measures the measurement location based on the set measurement conditions (step S49). The setting of the measurement condition will be described later. Thus, the shape measurement processing ends.

上記の形状測定処理においては、ステップS41〜S45,S47,S48の処理が主として後述する図34の形状データ生成部211により実行される。   In the shape measurement processing described above, the processing of steps S41 to S45, S47, and S48 is mainly performed by the shape data generation unit 211 in FIG.

(3)計測条件の設定
計測条件は、計測箇所および計測項目を含む。計測条件の設定時には、上記のステップS48の処理により、例えば立体形状画像が表示部400に表示されている。使用者は、図1の操作部250を操作することにより、測定対象物Sを見る方向(測定対象物Sに対する受光部120の位置)を指定することができる。この場合、CPU210は、使用者による方向の指定に応答して、指定された方向から測定対象物Sを見た状態が再現されるように、表示部400上に観察対象物Sの向きが調整された立体形状画像を表示する。
(3) Setting of measurement conditions The measurement conditions include measurement locations and measurement items. When the measurement condition is set, for example, a three-dimensional shape image is displayed on the display unit 400 by the processing in step S48 described above. The user can specify the direction in which the measurement target S is viewed (the position of the light receiving unit 120 with respect to the measurement target S) by operating the operation unit 250 in FIG. In this case, the CPU 210 adjusts the orientation of the observation target S on the display unit 400 so that the state of viewing the measurement target S from the specified direction is reproduced in response to the designation of the direction by the user. The displayed three-dimensional shape image is displayed.

使用者は、立体形状画像を視認することにより、測定対象物Sの各部の形状を大まかに把握しつつ立体形状画像上で計測箇所を指定する。このとき、使用者は、計測箇所を特定するために、計測箇所を含む幾何形状(例えば、点、直線、円、面、球、円筒および円錐等)を指定することができる。また、使用者は、指定した幾何形状についての計測項目を指定することができる。計測項目は、使用者により指定される測定対象物Sの計測箇所において計測されるべきパラメータの種類であり、距離、高さ、直径および面積等を含む。   By visually recognizing the three-dimensional shape image, the user designates a measurement location on the three-dimensional shape image while roughly grasping the shape of each part of the measurement target S. At this time, the user can specify a geometric shape (for example, a point, a straight line, a circle, a surface, a sphere, a cylinder, a cone, or the like) including the measurement location in order to specify the measurement location. In addition, the user can specify measurement items for the specified geometric shape. The measurement item is a type of a parameter to be measured at a measurement location of the measurement target S specified by the user, and includes a distance, a height, a diameter, an area, and the like.

図9〜図12は、計測条件の設定例を説明するための図である。図9に、基板上に1つの素子が実装された測定対象物Sについて、上記のステップS48の処理で表示部400に表示される立体形状画像SIの一例が示される。図9の立体形状画像SIにおいては、測定対象物Sのうち基板および素子をそれぞれ示す画像B1I,B2Iが明りょうに区別される。   9 to 12 are diagrams for explaining examples of setting measurement conditions. FIG. 9 shows an example of a three-dimensional shape image SI displayed on the display unit 400 in the process of step S48 for the measurement target S on which one element is mounted on the substrate. In the three-dimensional shape image SI of FIG. 9, images B1I and B2I of the measurement target S that indicate the substrate and the element, respectively, are clearly distinguished.

例えば、使用者は、表示部400の画面上に表示されるポインタPIを操作することにより、図10に示すように、素子の上面に対応する画像B2Iの部分を計測箇所として指定する。次に、使用者は、ポインタPIを操作することにより、図11に示すように、基板の上面に対応する画像B1Iの部分を計測箇所として指定する。   For example, by operating the pointer PI displayed on the screen of the display unit 400, the user designates a portion of the image B2I corresponding to the upper surface of the element as a measurement location, as shown in FIG. Next, the user operates the pointer PI to designate a portion of the image B1I corresponding to the upper surface of the board as a measurement location, as shown in FIG.

ここで、計測条件の設定時には、使用者により指定された計測箇所が他の部分とは異なる態様で表示されることが好ましい。図10および図11の例では、使用者により指定された計測箇所にハッチングが施されている。これにより、使用者は、自己の指定した計測箇所を容易に識別することができる。   Here, at the time of setting the measurement conditions, it is preferable that the measurement location specified by the user is displayed in a different mode from other portions. In the examples of FIG. 10 and FIG. 11, the measurement points designated by the user are hatched. This allows the user to easily identify the measurement location specified by the user.

続いて、使用者は、計測項目として指定された2つの計測箇所(平面)間の距離を指定する。それにより、基板の上面に対応する点群データと素子の上面に対応する点群データとに基づいて、基板の上面と素子の上面との間の距離が算出される。その結果、図12に示すように、算出結果が計測結果として表示部400に表示される。図12の例では、基板の上面と素子の上面との間の距離として、“zz(mm)”が表示される。   Subsequently, the user specifies a distance between two measurement points (planes) specified as measurement items. Thus, the distance between the upper surface of the substrate and the upper surface of the element is calculated based on the point cloud data corresponding to the upper surface of the substrate and the point cloud data corresponding to the upper surface of the element. As a result, as shown in FIG. 12, the calculation result is displayed on the display unit 400 as a measurement result. In the example of FIG. 12, “zz (mm)” is displayed as the distance between the upper surface of the substrate and the upper surface of the element.

[5]表示態様設定機能
(1)表示態様設定機能の概略
三次元形状測定装置500は、形状測定処理のステップS41〜S47の処理により得られる立体形状データまたはテクスチャ付き立体形状データを用いて測定対象物Sの各部の形状をより正確に把握するための表示態様設定機能を有する。
[5] Display Mode Setting Function (1) Outline of Display Mode Setting Function The three-dimensional shape measuring apparatus 500 measures using three-dimensional shape data or textured three-dimensional shape data obtained by the processing of steps S41 to S47 of the shape measurement process. It has a display mode setting function for more accurately grasping the shape of each part of the object S.

表示態様設定機能は、立体形状データが生成された測定対象物Sについて、測定対象物Sの立体形状に関する幾何的な基準(以下、幾何基準と呼ぶ。)を設定するとともに、設定された幾何基準に基づいて測定対象物Sの立体形状画像の少なくとも一部の表示態様を設定する機能である。本実施の形態において、立体形状画像の少なくとも一部の表示態様を設定するとは、立体形状画像の少なくとも一部の表示態様を予め定められた本来の表示態様から幾何基準に基づいて定められる他の表示態様に切り替えることを意味する。換言すれば、立体形状画像の少なくとも一部の表示態様を設定するとは、立体形状画像の少なくとも一部の表示態様を予め定められた本来の表示態様から幾何基準に基づいて定められる他の表示態様に変更することを意味する。さらに換言すれば、立体形状画像の少なくとも一部の表示態様を設定するとは、立体形状画像の少なくとも一部の表示態様を予め定められた本来の表示態様から幾何基準に基づいて定められる他の表示態様にすることを意味する。   The display mode setting function sets a geometric reference (hereinafter, referred to as a geometric reference) regarding the three-dimensional shape of the measurement target S for the measurement target S for which the three-dimensional shape data has been generated, and sets the set geometric reference. Is a function for setting the display mode of at least a part of the three-dimensional shape image of the measurement target S based on. In the present embodiment, setting at least a part of the display mode of the three-dimensional image means that at least a part of the display mode of the three-dimensional image is determined based on a geometric reference from a predetermined original display mode. It means to switch to the display mode. In other words, setting at least a part of the display mode of the three-dimensional image refers to another display mode in which at least a part of the display mode of the three-dimensional image is determined based on a geometric reference from a predetermined original display mode. Means to change. In other words, setting at least a part of the display mode of the three-dimensional image means that at least a part of the display mode of the three-dimensional image is determined based on a geometrical reference from a predetermined original display mode. It means to make an embodiment.

その表示態様設定機能によれば、立体形状画像のうちの測定対象物Sの少なくとも一部分に対応する部分の表示態様を、測定対象物Sの当該少なくとも一部分と設定された幾何基準との間の距離(以下、対比距離と呼ぶ。)に応じて異なるように設定することができる。本実施の形態では、表示態様として対比距離に応じた色が設定される。   According to the display mode setting function, the display mode of a portion corresponding to at least a part of the measurement target S in the three-dimensional shape image is determined by a distance between the at least a part of the measurement target S and the set geometric reference. (Hereinafter, referred to as a comparison distance). In the present embodiment, a color corresponding to the comparison distance is set as the display mode.

幾何基準は、装置座標系で表される点、線または面からなる幾何的な基準である。さらに、表示態様設定機能においては、表示態様の設定対象となる測定対象物Sの部分(以下、測定対象部分と呼ぶ。)を設定することもできる。測定対象部分は、測定対象物Sの一部分であってもよいし、測定対象物Sの全体であってもよい。   The geometric criterion is a geometric criterion composed of points, lines, or planes represented in the device coordinate system. Further, in the display mode setting function, it is also possible to set a portion of the measurement target S to be set as a display mode (hereinafter, referred to as a measurement target portion). The measurement target portion may be a part of the measurement target S or may be the entire measurement target S.

(2)表示態様設定機能の一使用例
以下、表示態様設定機能の基本的な使用例について説明する。図13は、測定対象物Sの一例を示す外観斜視図である。図13の測定対象物Sは、略直方体形状を有する部材の上面に段差が形成されるとともに、その上面の中央部に上方に向いて開口する窪みが形成された構造を有する。
(2) One usage example of display mode setting function Hereinafter, a basic usage example of the display mode setting function will be described. FIG. 13 is an external perspective view illustrating an example of the measurement target S. The measurement object S in FIG. 13 has a structure in which a step is formed on the upper surface of a member having a substantially rectangular parallelepiped shape, and a hollow that opens upward is formed in the center of the upper surface.

上面は、互いに平行な上段面s11および下段面s12を含む。窪みは、上段面s11および下段面s12に平行な矩形の底面s21を有する。底面s21の一辺から上段面s11にかけて垂直面s22が形成されている。底面s21の一辺に対向する他辺から下段面s12にかけて傾斜面s23が形成されている。垂直面s22は底面s21に対して垂直であり、傾斜面s23は底面s21に対して傾斜している。さらに、測定対象物Sは、その長手方向において互いに対向する一端面s31および他端面s32を有する。垂直面s22、一端面s31および他端面s32は互いに平行である。   The upper surface includes an upper step surface s11 and a lower step surface s12 parallel to each other. The dent has a rectangular bottom surface s21 parallel to the upper step surface s11 and the lower step surface s12. A vertical surface s22 is formed from one side of the bottom surface s21 to the upper step surface s11. An inclined surface s23 is formed from the other side facing one side of the bottom surface s21 to the lower step surface s12. The vertical surface s22 is perpendicular to the bottom surface s21, and the inclined surface s23 is inclined with respect to the bottom surface s21. Further, the measurement target S has one end face s31 and the other end face s32 facing each other in the longitudinal direction. The vertical surface s22, the one end surface s31, and the other end surface s32 are parallel to each other.

図14〜図25は、表示態様設定機能の一使用例を説明するための図である。本例では、図13の測定対象物Sについて、例えば上段面s11、下段面s12、底面s21、垂直面s22および傾斜面s23の位置関係の詳細を把握するために、使用者が表示態様設定機能を使用する場合を想定する。なお、図13の測定対象物Sの立体形状データは、予め図1の記憶装置240に記憶されているものとする。   14 to 25 are diagrams for explaining one usage example of the display mode setting function. In this example, the user sets the display mode setting function for the measurement target S in FIG. 13 in order to grasp the details of the positional relationship between the upper surface s11, the lower surface s12, the bottom surface s21, the vertical surface s22, and the inclined surface s23. It is assumed that is used. It is assumed that the three-dimensional shape data of the measurement target S in FIG. 13 is stored in the storage device 240 in FIG. 1 in advance.

使用者による表示態様設定機能の使用の指示に応答して、図14に示すように、図1の表示部400に幾何要素設定画面SC1が表示される。幾何要素設定画面SC1は、上記の幾何基準または測定対象部分を特定するための幾何的な要素(以下、幾何要素と呼ぶ。)を、使用者が立体形状画像SI上で指定するための画面である。   In response to the user's instruction to use the display mode setting function, a geometric element setting screen SC1 is displayed on the display section 400 of FIG. 1 as shown in FIG. The geometric element setting screen SC1 is a screen on which a user specifies a geometric element (hereinafter, referred to as a geometric element) for specifying the geometric reference or the measurement target portion on the three-dimensional shape image SI. is there.

幾何要素設定画面SC1においては、表示部400の表示領域が、主表示領域maおよび副表示領域saに分割されている。幾何要素設定画面SC1において、主表示領域maおよび副表示領域saは左右に並ぶ。   In the geometric element setting screen SC1, the display area of the display unit 400 is divided into a main display area ma and a sub display area sa. In the geometric element setting screen SC1, the main display area ma and the sub display area sa are arranged side by side.

主表示領域maには立体形状画像SIが表示される。使用者は、主表示領域ma上でドラッグ操作等を行うことにより、立体形状画像SIにおける測定対象物Sの姿勢を所望の姿勢に変更することができる。   The three-dimensional shape image SI is displayed in the main display area ma. The user can change the posture of the measurement target S in the three-dimensional shape image SI to a desired posture by performing a drag operation or the like on the main display area ma.

副表示領域saには、要素種類選択欄es、名称入力欄f01、戻るボタンb01、設定ボタンb02および表示態様ボタンb03が表示される。要素種類選択欄esには、複数の幾何的な要素の種類にそれぞれ対応する複数の項目アイコンicが表示される。幾何的な要素の種類には、平面、円筒、円錐、球および点が含まれる。   In the sub-display area sa, an element type selection field es, a name input field f01, a return button b01, a setting button b02, and a display mode button b03 are displayed. In the element type selection field es, a plurality of item icons ic respectively corresponding to a plurality of geometric element types are displayed. Types of geometric elements include planes, cylinders, cones, spheres and points.

本例では、使用者は、幾何的な要素の種類、設定対象となる要素の装置座標系上の位置および名称を指定することにより、幾何要素の設定を行う。具体的には、使用者は、要素種類選択欄esに表示される複数の項目アイコンicのうちいずれかを操作することにより要素の種類を指定する。このとき、指定された項目アイコンicは例えばハイライト表示される。なお、図14の例では、平面に対応する項目アイコンicが操作されることにより、当該項目アイコンicがハイライト表示されている様子がハッチングで示される。   In this example, the user sets the geometric element by specifying the type of the geometric element, the position and the name of the element to be set on the device coordinate system. Specifically, the user designates the type of the element by operating one of the plurality of item icons ic displayed in the element type selection field es. At this time, the designated item icon ic is highlighted, for example. In the example of FIG. 14, when the item icon ic corresponding to the plane is operated, the state where the item icon ic is highlighted is indicated by hatching.

次に、使用者は、名称入力欄f01に設定対象となる要素について所望の名称を入力する。なお、名称入力欄f01には、指定された要素の種類に応じて予め定められた方法に従う名称が自動入力されてもよい。   Next, the user inputs a desired name for the element to be set in the name input field f01. In the name input field f01, a name according to a method predetermined according to the type of the designated element may be automatically input.

さらに、使用者は、主表示領域maに表示された立体形状画像SI上で、要素の位置を指定する。例えば、使用者は、要素の種類として平面が指定された状態で、測定対象物Sの3以上の複数の部分にそれぞれ対応する立体形状画像SI上の複数の部分をシングルクリック操作により指定する。この場合、測定対象物Sの3以上の複数の部分により規定される装置座標系上の平面の位置および大きさが定められる。3以上の複数の部分により規定される装置座標系上の平面は、複数の部分を含む平面であってもよいし、複数の部分にフィッティングされた平面であってもよい。   Further, the user specifies the position of the element on the three-dimensional shape image SI displayed in the main display area ma. For example, the user specifies a plurality of portions on the three-dimensional shape image SI corresponding to three or more portions of the measurement target S by a single click operation in a state where the plane is specified as the type of the element. In this case, the position and size of a plane on the device coordinate system defined by three or more portions of the measurement target S are determined. The plane on the device coordinate system defined by the three or more parts may be a plane including a plurality of parts, or may be a plane fitted to the plurality of parts.

あるいは、使用者は、要素の種類として平面が指定された状態で、測定対象物Sの所望の平面部分に対応する立体形状画像SI上の部分をダブルクリック操作により指定する。この場合、測定対象物Sの当該平面部分に対応する装置座標系上の平面の位置および大きさが定められる。   Alternatively, the user specifies a portion on the three-dimensional shape image SI corresponding to a desired flat portion of the measurement target S by a double-click operation in a state where the plane is specified as the element type. In this case, the position and size of a plane on the device coordinate system corresponding to the plane portion of the measurement target S are determined.

戻るボタンb01は、使用者が表示態様設定機能の使用の取り消しを指令するためのボタンである。使用者は、表示部400に幾何要素設定画面SC1が表示された状態で戻るボタンb01を操作する。それにより、表示部400の表示状態が通常の形状計測時の状態(例えば図9〜図12に示される状態)に戻る。   The return button b01 is a button for the user to instruct cancellation of use of the display mode setting function. The user operates the return button b01 while the geometric element setting screen SC1 is displayed on the display unit 400. Thereby, the display state of the display unit 400 returns to the state at the time of normal shape measurement (for example, the state shown in FIGS. 9 to 12).

設定ボタンb02は、使用者が幾何要素の設定を指令するためのボタンである。使用者は、上記のように、幾何的な要素の種類、設定対象となる要素の装置座標系上の位置および名称を指定した後、設定ボタンb02を操作する。それにより、指定された一連の内容が、幾何要素ごとに図1の記憶装置240に記憶される(幾何要素の設定)。   The setting button b02 is a button for the user to instruct the setting of the geometric element. As described above, the user operates the setting button b02 after designating the type of the geometric element, the position and the name of the element to be set on the device coordinate system. Thereby, a series of specified contents is stored in the storage device 240 of FIG. 1 for each geometric element (geometric element setting).

幾何要素の設定時には、図15に点線およびハッチングで示すように、設定された幾何要素を示す画像が主表示領域maの立体形状画像SI上に重畳表示される。それにより、使用者は、自己が設定した幾何要素を容易に把握することができる。本例では、図13の測定対象物Sの上段面s11、下段面s12、底面s21、垂直面s22および傾斜面s23にそれぞれ対応する幾何要素「平面1」、「平面2」、「平面0」、「平面3」および「平面4」が設定されている。   When the geometric element is set, an image indicating the set geometric element is superimposed and displayed on the three-dimensional shape image SI in the main display area ma, as indicated by a dotted line and hatching in FIG. Thereby, the user can easily grasp the geometric element set by the user. In this example, the geometric elements “plane 1”, “plane 2”, and “plane 0” respectively corresponding to the upper surface s11, the lower surface s12, the bottom surface s21, the vertical surface s22, and the inclined surface s23 of the measurement target S in FIG. , “Plane 3” and “Plane 4” are set.

表示態様ボタンb03は、使用者が主表示領域maに表示されている立体形状画像SIについて上記の対比距離に応じた表示態様の設定を指令するためのボタンである。対比距離に応じた表示態様の設定は、幾何要素設定画面SC1において設定された1または複数の幾何要素に基づいて行われる。   The display mode button b03 is a button for the user to instruct the setting of the display mode according to the above-mentioned comparison distance for the three-dimensional shape image SI displayed in the main display area ma. The setting of the display mode according to the comparison distance is performed based on one or a plurality of geometric elements set on the geometric element setting screen SC1.

使用者は、所望の幾何要素を設定した後、表示態様ボタンb03を操作する。それにより、図16に示すように、表示部400に表示される画面が幾何要素設定画面SC1から表示態様設定画面SC2に切り替わる。表示態様設定画面SC2においても、幾何要素設定画面SC1の例と同様に、表示部400の表示領域は、主表示領域maおよび副表示領域saに分割されている。   After setting a desired geometric element, the user operates the display mode button b03. Thereby, as shown in FIG. 16, the screen displayed on the display unit 400 switches from the geometric element setting screen SC1 to the display mode setting screen SC2. In the display mode setting screen SC2, as in the example of the geometric element setting screen SC1, the display area of the display unit 400 is divided into a main display area ma and a sub-display area sa.

画面の切り替わり直後においては、主表示領域maの表示状態は切り替わり前の表示状態で維持される。一方、副表示領域saには、対応関係設定欄dc、対象プルダウンメニューm11、基準プルダウンメニューm12、戻るボタンb04、OKボタンb05および幾何要素ボタンb06が表示される。   Immediately after the screen switching, the display state of the main display area ma is maintained at the display state before the switching. On the other hand, in the sub-display area sa, a correspondence setting column dc, a target pull-down menu m11, a reference pull-down menu m12, a return button b04, an OK button b05, and a geometric element button b06 are displayed.

上記のように、本実施の形態に係る表示態様設定機能においては、立体形状画像のうちの測定対象物Sの少なくとも一部分に対応する部分の表示態様として、対比距離に応じた色の設定が行われる。対応関係設定欄dcには、対比距離と色との対応関係を設定するためのボタンおよびスライダ等が表示される。   As described above, in the display mode setting function according to the present embodiment, color setting according to the comparison distance is performed as a display mode of a portion corresponding to at least a part of the measurement target S in the three-dimensional shape image. Will be The correspondence setting column dc displays buttons, sliders, and the like for setting the correspondence between the comparison distance and the color.

具体的には、対応関係設定欄dcには、色表示バー411、距離基準調整バー412、色レンジ調整バー413、その他設定ボタン414および対応自動設定ボタン415が表示される。   Specifically, a color display bar 411, a distance reference adjustment bar 412, a color range adjustment bar 413, other setting buttons 414, and a corresponding automatic setting button 415 are displayed in the correspondence setting column dc.

色表示バー411においては、立体形状画像SIにおいて表示可能な複数種類の色が、複数種類の表示態様として予め対応付けられた対比距離に応じた並びで表示される。図16以降の所定の図面においては、立体形状画像SIにおいて表示される複数種類の色の代わりに、互いに異なる複数種類のドットパターンが示される。図16に示される色表示バー411には、段階的に濃度が異なる6種類のドットパターンが示される。これらのドットパターンは、濃度が濃いものから濃度が薄くなる順に、例えば青色、水色、緑色、黄色、橙色および赤色を表す。このように、色表示バー411にスペクトル順に並ぶ色の中心に位置する色を基準色と呼ぶ。   In the color display bar 411, a plurality of types of colors that can be displayed in the three-dimensional image SI are displayed in a row corresponding to a comparison distance previously associated as a plurality of types of display modes. In the predetermined drawings after FIG. 16, a plurality of different types of dot patterns are shown instead of the plurality of types of colors displayed in the three-dimensional image SI. A color display bar 411 shown in FIG. 16 shows six types of dot patterns having different densities stepwise. These dot patterns represent, for example, blue, light blue, green, yellow, orange, and red in order of decreasing density from decreasing density. Thus, the color located at the center of the colors arranged in the color display bar 411 in the order of spectrum is referred to as a reference color.

距離基準調整バー412はスライダを含む。使用者は、距離基準調整バー412のスライダを操作することにより、基準色に対応する対比距離の基準値(以下、基準色距離と呼ぶ。)を設定することができる。例えば、幾何基準として水平な平面が設定されかつ基準色距離が10.00mmに設定される場合には、測定対象部分が当該平面から上方に10.00mm離間しているときに当該測定対象部分の画像が基準色で表されることになる。   Distance reference adjustment bar 412 includes a slider. By operating the slider of the distance reference adjustment bar 412, the user can set a reference value (hereinafter, referred to as a reference color distance) of the comparison distance corresponding to the reference color. For example, when a horizontal plane is set as the geometric reference and the reference color distance is set to 10.00 mm, when the measurement target portion is separated from the plane by 10.00 mm, the measurement target portion is separated from the measurement target portion by 10.00 mm. The image will be represented by the reference color.

色レンジ調整バー413はスライダを含む。使用者は、色レンジ調整バー413のスライダを操作することにより、色表示バー411に表示される複数種類の色により表現されるべき対比距離の範囲を設定することができる。例えば、対比距離の範囲として5.00mmが設定される場合には、上記の基準色距離を中心として±5.00mmの範囲が色表示バー411に表示されたいずれかの色に対応付けられる。   The color range adjustment bar 413 includes a slider. By operating the slider of the color range adjustment bar 413, the user can set the range of the comparison distance to be represented by a plurality of types of colors displayed on the color display bar 411. For example, when 5.00 mm is set as the range of the comparison distance, a range of ± 5.00 mm around the reference color distance is associated with any of the colors displayed on the color display bar 411.

対応自動設定ボタン415は、対比距離と表示態様(本例では色)との対応関係を自動設定すべきことを使用者が指令するためのボタンである。後述する対象プルダウンメニューm11および基準プルダウンメニューm12が操作されることにより幾何基準および測定対象部分が設定されると、測定対象物Sの立体形状データに基づいて対比距離が算出される。対応自動設定ボタン415が操作されると、算出される対比距離の最小値および最大値が少なくとも色表示バー411に表示されたいずれかの色で表示されるように、対比距離の基準値および表現されるべき対比距離の範囲が図1のCPU210により自動設定される。   The automatic correspondence setting button 415 is a button for the user to instruct that the correspondence between the comparison distance and the display mode (color in this example) should be automatically set. When a geometric reference and a measurement target portion are set by operating a target pull-down menu m11 and a reference pull-down menu m12 described later, a comparison distance is calculated based on the three-dimensional shape data of the measurement target S. When the corresponding automatic setting button 415 is operated, the reference value and the expression of the comparison distance are displayed so that the calculated minimum value and maximum value of the comparison distance are displayed in at least one of the colors displayed on the color display bar 411. The range of the comparison distance to be performed is automatically set by the CPU 210 of FIG.

その他設定ボタン414は、幾何基準に対する対比距離の扱い、色の反転および対比距離の補正に関する設定を行うためのボタンである。その他設定ボタン414が操作されると、図17に示すその他設定ウィンドウSWが表示態様設定画面SC2上に表示される。その他設定ウィンドウSWには、3つのチェックボックス421,422,423が表示される。   The other setting button 414 is a button for setting the handling of the contrast distance with respect to the geometric reference, the inversion of the color, and the correction of the contrast distance. When the other setting button 414 is operated, the other setting window SW shown in FIG. 17 is displayed on the display mode setting screen SC2. In the other setting window SW, three check boxes 421, 422, and 423 are displayed.

幾何基準として平面が設定される場合に、通常、その平面から測定対象物Sの部分までの対比距離は当該平面を基準として正の値または負の値で算出される。そのため、例えば基準色距離が10.00mmに設定されかつ対比距離の範囲として5.00mmが設定される場合には、図18(a)にハッチングで示すように、幾何基準となる平面を基準として正の値で算出される対比距離にのみ色表示バー411に表される色が対応付けられる。   When a plane is set as a geometric reference, the contrast distance from the plane to the portion of the measuring object S is usually calculated as a positive or negative value with respect to the plane. Therefore, for example, when the reference color distance is set to 10.00 mm and the range of the comparison distance is set to 5.00 mm, as shown by hatching in FIG. Only the comparison distance calculated with a positive value is associated with the color shown in the color display bar 411.

一方、幾何基準として平面が設定される場合に、その平面から測定対象物Sの部分までの距離として算出される値の絶対値を対比距離とする。この場合、当該平面を基準として正の値で算出される対比距離に色表示バー411に表される色が対応付けられるとともに、本来的に負の値で算出される対比距離にも色表示バー411に表される色が対応付けられる。そのため、例えば基準色距離が10.00mmに設定されかつ対比距離の範囲として5.00mmが設定される場合には、図18(b)にハッチングで示すように、幾何基準となる平面を基準として5.00mm〜15.00mmの範囲および−15.00mm〜−5.00mmの範囲で算出される対比距離に色表示バー411で表される色が対応付けられる。   On the other hand, when a plane is set as a geometric reference, an absolute value of a value calculated as a distance from the plane to the portion of the measurement target S is set as a comparison distance. In this case, the color represented by the color display bar 411 is associated with the comparison distance calculated with a positive value based on the plane, and the color display bar is also associated with the comparison distance originally calculated with a negative value. The color represented by 411 is associated with the color. Therefore, for example, when the reference color distance is set to 10.00 mm and the range of the comparison distance is set to 5.00 mm, as shown by hatching in FIG. The color represented by the color display bar 411 is associated with the comparison distance calculated in the range of 5.00 mm to 15.00 mm and in the range of -15.00 mm to -5.00 mm.

このように、チェックボックス421は、幾何基準として平面が設定される場合に、算出される対比距離を絶対値に変換して用いるか否かを設定するために用いられる。   As described above, the check box 421 is used to set whether or not to convert the calculated comparison distance into an absolute value and use it when the plane is set as the geometric reference.

チェックボックス422は、幾何基準として平面が設定される場合に、予め対応付けられた対比距離に対する色の対応関係を反転させるために用いられる。   The check box 422 is used, when a plane is set as a geometric reference, to invert the correspondence of a color to a previously associated contrast distance.

チェックボックス423は、幾何基準として円錐の軸(中心軸)が設定される場合に、算出される対比距離を補正するために用いられる。チェックボックス423がチェックされることにより行われる対比距離の補正を円錐補正と呼ぶ。円錐補正の詳細は後述する。   The check box 423 is used to correct the calculated comparison distance when a cone axis (center axis) is set as a geometric reference. The correction of the comparison distance performed by checking the check box 423 is called cone correction. Details of the cone correction will be described later.

図16の対象プルダウンメニューm11は、使用者が測定対象部分を特定するための幾何要素(以下、対象要素と呼ぶ。)を指定する際に用いられる。対象プルダウンメニューm11においては、使用者の操作に応答して、予め設定されている1または複数の幾何要素が表示される。さらに、設定されている1または複数の幾何要素の組み合わせ等が表示される。これにより、使用者は、対象プルダウンメニューm11を操作することにより、所望の対象要素を指定することができる。なお、対象プルダウンメニューm11においては、使用者の操作に応答して、測定対象物Sの全体が対象要素の候補として表示されてもよい。   The target pull-down menu m11 in FIG. 16 is used when the user specifies a geometric element (hereinafter, referred to as a target element) for specifying the measurement target portion. In the target pull-down menu m11, one or more preset geometric elements are displayed in response to a user operation. Further, a combination of one or more set geometric elements and the like are displayed. Thus, the user can specify a desired target element by operating the target pull-down menu m11. In the target pull-down menu m11, the entire measurement target S may be displayed as a target element candidate in response to a user operation.

基準プルダウンメニューm12は、使用者が幾何基準を特定するための幾何要素(以下、基準要素と呼ぶ。)を指定する際に用いられる。基準プルダウンメニューm12においては、使用者の操作に応答して、予め設定されている1または複数の幾何要素が表示される。さらに、設定されている幾何要素に固有の関係を有する幾何要素が表示される。例えば円筒の幾何要素が予め設定されている場合には、当該円筒の軸(中心軸)等が表示される。また、互いに平行な2つの平面の幾何要素が予め設定されている場合には、その2つの平面の中間に位置する面(中面)等が表示される。これにより、使用者は、基準プルダウンメニューm12を操作することにより、所望の基準要素を指定することができる。   The reference pull-down menu m12 is used when a user specifies a geometric element (hereinafter, referred to as a reference element) for specifying a geometric reference. In the reference pull-down menu m12, one or more preset geometric elements are displayed in response to a user operation. Further, a geometric element having a specific relationship with the set geometric element is displayed. For example, when a geometric element of a cylinder is set in advance, the axis (center axis) of the cylinder and the like are displayed. If geometric elements of two planes parallel to each other are set in advance, a plane (middle plane) located between the two planes is displayed. Thus, the user can specify a desired reference element by operating the reference pull-down menu m12.

戻るボタンb04は、図14の戻るボタンb01と同様に、使用者が表示態様設定機能の使用の取り消しを指令するためのボタンである。幾何要素ボタンb06は、使用者が新たな幾何要素を設定することを指令するためのボタンである。使用者は、表示態様設定画面SC2が表示された状態で、新たな幾何要素を設定したい場合に、幾何要素ボタンb06を操作する。それにより、表示部400に表示される画面が表示態様設定画面SC2から再度幾何要素設定画面SC1に切り替わる。   The return button b04 is a button for the user to instruct to cancel the use of the display mode setting function, like the return button b01 in FIG. The geometric element button b06 is a button for instructing the user to set a new geometric element. When the user wants to set a new geometric element while the display mode setting screen SC2 is displayed, the user operates the geometric element button b06. Thereby, the screen displayed on the display unit 400 switches from the display mode setting screen SC2 to the geometric element setting screen SC1 again.

OKボタンb05は、使用者が測定対象部分に対応する立体形状画像SIの部分に対応関係設定欄dcにおいて設定された表示態様を適用することを指令するためのボタンである。使用者は、距離と色との対応関係を設定し、対象要素を指定し、基準要素を指定した後、OKボタンb05を操作する。それにより、設定された対応関係、指定された対象要素および基準要素に基づいて、測定対象部分に対応する立体形状画像SIの部分の色が対比距離に応じた色に変更される。   The OK button b05 is a button for instructing the user to apply the display mode set in the correspondence setting column dc to the part of the three-dimensional shape image SI corresponding to the measurement target part. The user sets the correspondence between the distance and the color, specifies the target element, specifies the reference element, and then operates the OK button b05. Thereby, the color of the part of the three-dimensional image SI corresponding to the measurement target part is changed to a color corresponding to the comparison distance based on the set correspondence relationship, the specified target element, and the reference element.

図19に、基準要素として図15の幾何要素「平面0」が指定されるとともに対象要素として図15の幾何要素「平面0」、「平面1」、「平面2」、「平面3」および「平面4」(設定された幾何要素の全て)が指定され、OKボタンb05が操作された場合の立体形状画像SIの表示例が示される。   In FIG. 19, the geometric element “plane 0” in FIG. 15 is designated as the reference element, and the geometric elements “plane 0”, “plane 1”, “plane 2”, “plane 3” and “plane 3” in FIG. A display example of the three-dimensional shape image SI when “plane 4” (all of the set geometric elements) is designated and the OK button b05 is operated is shown.

上記のように、図13の測定対象物Sにおいて幾何要素「平面1」、「平面2」および「平面0」にそれぞれ対応する上段面s11、下段面s12および底面s21は、互いに平行である。それにより、立体形状画像SIにおいては、幾何要素「平面1」、「平面2」および「平面0」により特定される各部分の画像が単色で表示される。   As described above, the upper surface s11, the lower surface s12, and the bottom surface s21 corresponding to the geometric elements “plane 1”, “plane 2”, and “plane 0” in the measurement target S in FIG. 13 are parallel to each other. Thereby, in the three-dimensional shape image SI, the image of each part specified by the geometric elements “plane 1”, “plane 2”, and “plane 0” is displayed in a single color.

一方、図13の測定対象物Sにおいて幾何要素「平面3」に対応する垂直面s22は底面s21に対して垂直であり、幾何要素「平面4」に対応する傾斜面s23は底面s21に対して傾斜している。それにより、立体形状画像SIにおいては、幾何要素「平面3」および「平面4」により特定される各部分の画像が一方向に並ぶ複数種類の色で表示される。   On the other hand, the vertical surface s22 corresponding to the geometric element “plane 3” in the measurement target S of FIG. 13 is perpendicular to the bottom surface s21, and the inclined surface s23 corresponding to the geometric element “plane 4” is relative to the bottom surface s21. It is inclined. Thereby, in the three-dimensional shape image SI, the images of the respective parts specified by the geometric elements “plane 3” and “plane 4” are displayed in a plurality of colors arranged in one direction.

この状態で、使用者は、図20および図21に示すように、立体形状画像SIにおける測定対象物Sの姿勢を変更することができる。それにより、互いに異なる複数の視点で、幾何要素「平面0」を基準とした場合の測定対象物Sの各部の位置関係を容易に把握することができる。   In this state, the user can change the posture of the measurement target S in the three-dimensional shape image SI as shown in FIGS. Thereby, it is possible to easily grasp the positional relationship of each part of the measurement target S based on the geometric element “plane 0” from a plurality of different viewpoints.

使用者は、図19〜図21の表示状態で、その他設定ボタン414を操作し、図17のチェックボックス422をチェックすることにより、予め対応付けられた対比距離に対する色の対応関係を反転させることができる。この場合、図22に示すように、色表示バー411に表示される複数種類の色が、図19の色表示バー411に表示される複数種類の色に対して基準色を中心として反転する。また、反転された対応関係に従って立体形状画像SIのうちの測定対象部分に対応する部分の色が変化する。   The user operates the other setting button 414 in the display state of FIG. 19 to FIG. 21 to check the check box 422 in FIG. 17 to invert the correspondence of the color to the comparison distance previously associated. Can be. In this case, as shown in FIG. 22, the plurality of types of colors displayed on the color display bar 411 are inverted with respect to the plurality of types of colors displayed on the color display bar 411 of FIG. Further, the color of the portion corresponding to the measurement target portion in the three-dimensional shape image SI changes according to the inverted correspondence relationship.

ところで、図19〜図21の例では、立体形状画像SIのうちの幾何要素「平面1」、「平面2」および「平面0」により特定される各部分に対応する部分は、単色で表示される。この場合、使用者は、当該立体形状画像SIを視認することにより、幾何要素「平面1」、「平面2」および「平面0」にそれぞれ対応する測定対象物Sの上段面s11、下段面s12および底面s21が互いに平行であることを容易に認識することができる。   In the examples of FIGS. 19 to 21, portions corresponding to the portions specified by the geometric elements “plane 1”, “plane 2”, and “plane 0” in the three-dimensional shape image SI are displayed in a single color. You. In this case, by visually recognizing the three-dimensional shape image SI, the user obtains the upper surface s11 and the lower surface s12 of the measurement target S corresponding to the geometric elements “plane 1”, “plane 2”, and “plane 0”, respectively. And that the bottom surface s21 is parallel to each other.

しかしながら、図19〜図21の例では、立体形状画像SIのうちの幾何要素「平面3」および「平面4」により特定される各部分に対応する部分は、複数種類の色で表示される。この場合、使用者は、当該立体形状画像SIを視認しても、幾何要素「平面3」および「平面4」に対応する測定対象物Sの傾斜面s23および垂直面s22が互いに平行であるか否かを把握しにくい。   However, in the examples of FIGS. 19 to 21, portions corresponding to the portions specified by the geometric elements “plane 3” and “plane 4” in the three-dimensional shape image SI are displayed in a plurality of types of colors. In this case, even if the user visually recognizes the three-dimensional shape image SI, whether the inclined surface s23 and the vertical surface s22 of the measurement target S corresponding to the geometric elements “plane 3” and “plane 4” are parallel to each other. It is difficult to know whether or not.

このような場合に、使用者は、幾何要素ボタンb06を操作することにより、新たな幾何要素を設定することができる。例えば、図23に示すように、上記の幾何要素「平面3」および「平面4」が再設定されるとともに、図13の測定対象物Sの一端面s31および他端面s32にそれぞれ対応する幾何要素「平面5」および「平面6」が新たに設定される。   In such a case, the user can set a new geometric element by operating the geometric element button b06. For example, as shown in FIG. 23, the above-described geometric elements “plane 3” and “plane 4” are reset, and the geometric elements corresponding to one end face s31 and the other end face s32 of the measurement target S in FIG. 13 respectively. “Plane 5” and “plane 6” are newly set.

この場合、図24に示すように、使用者は、表示態様設定画面SC2において基準プルダウンメニューm12を操作することにより、幾何要素「平面5」および「平面6」の中面を基準要素として指定することができる。   In this case, as shown in FIG. 24, the user operates the reference pull-down menu m12 on the display mode setting screen SC2 to specify the middle surface of the geometric elements “plane 5” and “plane 6” as the reference element. be able to.

幾何要素「平面5」および「平面6」の中面により特定される仮想面に対して、測定対象物Sの垂直面s22は平行であり、傾斜面s23は傾斜している。そのため、幾何要素「平面5」および「平面6」の中面が基準要素として指定された状態でOKボタンb05が操作されると、図25に示すように、立体形状画像SIのうちの幾何要素「平面3」により特定される部分に対応する部分は、単色で表示される。一方、図24に示すように、立体形状画像SIのうちの幾何要素「平面4」により特定される部分に対応する部分は、一方向に並ぶ複数種類の色で表示される。これにより、使用者は、図24および図25の立体形状画像SIを視認することにより、幾何要素「平面3」および「平面4」に対応する測定対象物Sの傾斜面s23および垂直面s22が互いに平行でないことを容易に把握することができる。   The vertical plane s22 of the measurement target S is parallel to the virtual plane specified by the middle plane of the geometric elements “plane 5” and “plane 6,” and the inclined plane s23 is inclined. Therefore, when the OK button b05 is operated in a state where the middle surfaces of the geometric elements “plane 5” and “plane 6” are specified as the reference elements, as shown in FIG. The part corresponding to the part specified by “plane 3” is displayed in a single color. On the other hand, as shown in FIG. 24, the portion corresponding to the portion specified by the geometric element “plane 4” in the three-dimensional shape image SI is displayed in a plurality of colors arranged in one direction. Thereby, the user visually recognizes the three-dimensional shape image SI of FIGS. 24 and 25, and thereby the inclined surface s23 and the vertical surface s22 of the measurement target S corresponding to the geometric elements “plane 3” and “plane 4” are formed. It can be easily grasped that they are not parallel to each other.

使用者は、図24および図25の表示状態で、その他設定ボタン414を操作し、図17のチェックボックス421をチェックすることにより、中面を基準とする垂直面s22および傾斜面s23までの対比距離を同じ対応関係の色で表示させることができる。それにより、使用者は、測定対象物Sの長手方向における中心部分から垂直面s22までの距離と、測定対象物Sの長手方向における中心部分から傾斜面s23までの距離とを容易に対比することができる。   The user operates the other setting button 414 in the display states of FIGS. 24 and 25 and checks the check box 421 in FIG. 17 to compare the vertical plane s22 and the inclined plane s23 with the middle plane as a reference. Distances can be displayed in the same correspondence color. Thereby, the user can easily compare the distance from the central portion in the longitudinal direction of the measurement target S to the vertical surface s22 with the distance from the central portion in the longitudinal direction of the measurement target S to the inclined surface s23. Can be.

(3)表示態様設定機能の他の使用例
図26〜図30は、表示態様設定機能の他の使用例を説明するための図である。本例では、取っ手がない紙コップを測定対象物Sとして説明する。表示部400に幾何要素設定画面SC1が表示された状態で、図26に示すように、幾何要素「円錐1」および「平面10」が設定される。幾何要素「円錐1」は測定対象物Sの側面(外周面)全体に対応し、幾何要素「平面10」は測定対象物Sの開口端部を塞ぐ仮想平面に対応する。
(3) Another Use Example of Display Mode Setting Function FIGS. 26 to 30 are diagrams for explaining another use example of the display mode setting function. In this example, a paper cup without a handle will be described as the measurement target S. With the geometric element setting screen SC1 displayed on the display unit 400, the geometric elements “cone 1” and “plane 10” are set as shown in FIG. The geometric element “cone 1” corresponds to the entire side surface (outer peripheral surface) of the measurement target S, and the geometric element “plane 10” corresponds to a virtual plane that covers the opening end of the measurement target S.

その後、表示部400に表示態様設定画面SC2が表示された状態で、図27に示すように、幾何要素「平面10」が基準要素として指定されるとともに、設定された幾何要素「円錐1」が対象要素として指定される。この場合、幾何要素「平面10」を基準として対比距離に応じた表示態様を含む立体形状画像SIが表示される。   Thereafter, with the display mode setting screen SC2 displayed on the display unit 400, as shown in FIG. 27, the geometric element “plane 10” is designated as the reference element, and the set geometric element “cone 1” is displayed. Specified as the target element. In this case, a three-dimensional shape image SI including a display mode corresponding to the contrast distance based on the geometric element “plane 10” is displayed.

図27に示される立体形状画像SIによれば、測定対象物Sの側面を示す部分に、色表示バー411に示される複数種類の色が並ぶように表示されるが、測定対象物Sの側面に発生した膨らみまたは窪み等を把握することはできない。   According to the three-dimensional shape image SI illustrated in FIG. 27, a plurality of types of colors indicated by the color display bar 411 are displayed in a portion indicating the side surface of the measurement target S, but are displayed side by side. It is not possible to grasp the swelling or the dent that has occurred.

そこで、図28に示すように、幾何要素「円錐1」の軸(中心軸)が基準要素として指定されるとともに、設定された幾何要素「円錐1」が対象要素として指定される。それにより、立体形状画像SIにおいては、測定対象物Sの側面を示す部分が幾何要素「円錐1」の軸を基準として対比距離に応じた色で表示される。本例における対比距離は、測定対象物Sの中心軸から側面までの距離である。したがって、図28の立体形状画像SIによれば、図27の立体形状画像SIに比べて測定対象物Sの側面に局部的な形状変化部が存在することを把握しやすい。   Therefore, as shown in FIG. 28, the axis (center axis) of the geometric element “cone 1” is designated as the reference element, and the set geometric element “cone 1” is designated as the target element. Thereby, in the three-dimensional shape image SI, a portion indicating the side surface of the measurement target S is displayed in a color corresponding to the comparison distance with respect to the axis of the geometric element “cone 1”. The comparison distance in the present example is a distance from the central axis of the measurement target S to the side surface. Therefore, according to the three-dimensional shape image SI of FIG. 28, it is easier to grasp that a local shape change portion exists on the side surface of the measurement target S as compared with the three-dimensional shape image SI of FIG.

ここで、使用者は、図28の表示状態で、その他設定ボタン414を操作し、図17のチェックボックス423をチェックすることにより、上記の円錐補正を行うことができる。円錐補正について説明する。   Here, the user can perform the above cone correction by operating the other setting button 414 in the display state of FIG. 28 and checking the check box 423 of FIG. The cone correction will be described.

理想的な円錐の側面は、その円錐の軸が延びる方向に対して一定の傾きを有する。この場合、図29(a)に示すように、円錐の軸axから当該円錐の側面まで延びる軸axの垂線plの長さは、頂点ppから離間するにつれて一定の比率で大きくなる。そのため、円錐の軸を幾何基準としかつ当該円錐の側面を対象要素として表示態様が設定された立体形状画像SIにおいては、円錐の軸方向に円錐の形状に起因する色の変化成分が現れる。   The sides of an ideal cone have a constant slope with respect to the direction in which the axis of the cone extends. In this case, as shown in FIG. 29A, the length of the perpendicular pl of the axis ax extending from the axis ax of the cone to the side surface of the cone increases at a constant rate as the distance from the vertex pp increases. Therefore, in the three-dimensional shape image SI in which the display mode is set using the axis of the cone as a geometric reference and the side surface of the cone as a target element, a color change component due to the shape of the cone appears in the axial direction of the cone.

そこで、円錐補正では、円錐の形状に起因する色の変化成分が除去されるように、対比距離が補正される。具体的には、図29(b)に示すように、設定された円錐の幾何要素において、その軸ax上で基準位置αを定める。また、軸ax上の任意の位置βにおける当該軸axから側面までの垂線の長さd2が、基準位置αにおける当該軸axから側面までの垂線の長さd1に一致するように軸ax上の位置に応じた演算式を求める。このようにして算出された演算式に基づいて、実際に算出された対比距離を補正する。   Therefore, in the cone correction, the contrast distance is corrected so that the color change component due to the shape of the cone is removed. More specifically, as shown in FIG. 29B, a reference position α is determined on the axis ax in the set conical geometric element. The length d2 of the perpendicular from the axis ax to the side surface at an arbitrary position β on the axis ax is equal to the length d1 of the perpendicular from the axis ax to the side surface at the reference position α. An arithmetic expression corresponding to the position is obtained. The comparison distance actually calculated is corrected based on the calculation formula calculated in this manner.

上記の補正後の対比距離は、測定対象部分が理想的な円錐形状を有することにより一定の値を示すことになる。一方、測定対象部分が理想的な円錐形状から局所的にずれることにより大きくばらついた値を示すことになる。   The corrected comparison distance indicates a constant value because the measurement target portion has an ideal conical shape. On the other hand, the measurement target portion shows a large value due to local deviation from the ideal conical shape.

それにより、円錐補正後の対比距離に基づいて表示態様が設定された立体形状画像SIにおいては、図30に示すように、測定対象物Sの側面の局所的な形状の変化が顕著に表れる。したがって、使用者は、測定対象物Sの側面に局部的な形状変化部が存在することをその形状とともに正確に把握することができる。図30の例によれば、測定対象物Sの側面の一部に局所的な膨らみが発生していることがわかる。   Thereby, in the three-dimensional shape image SI in which the display mode is set based on the comparison distance after the cone correction, a local change in the shape of the side surface of the measurement target S is conspicuous as shown in FIG. Therefore, the user can accurately grasp the presence of the local shape change portion on the side surface of the measurement target S together with the shape. According to the example of FIG. 30, it can be seen that local swelling has occurred on a part of the side surface of the measurement target S.

(4)表示態様設定機能のさらに他の使用例
図31〜図33は、表示態様設定機能のさらに他の使用例を説明するための図である。本例では、電球を測定対象物Sとして説明する。表示部400に幾何要素設定画面SC1が表示された状態で、図31に示すように、幾何要素「球1」および「平面11」が設定される。幾何要素「球1」は測定対象物Sのバルブ全体に対応し、幾何要素「平面10」は測定対象物Sの口金の下端部近傍で当該電球の中心軸に直交する仮想平面に対応する。
(4) Still Another Use Example of Display Mode Setting Function FIGS. 31 to 33 are diagrams for explaining still another use example of the display mode setting function. In this example, the light bulb is described as the measurement target S. With the geometric element setting screen SC1 displayed on the display unit 400, the geometric elements “sphere 1” and “plane 11” are set as shown in FIG. The geometric element “sphere 1” corresponds to the entire bulb of the measurement object S, and the geometric element “plane 10” corresponds to a virtual plane near the lower end of the base of the measurement object S and orthogonal to the central axis of the bulb.

その後、表示部400に表示態様設定画面SC2が表示された状態で、図32に示すように、幾何要素「平面11」が基準要素として指定されるとともに、設定された幾何要素「球1」が対象要素として指定される。この場合、立体形状画像SIにおいては、測定対象物Sのバルブ全体を示す部分が幾何要素「平面11」を基準として対比距離に応じた色で表示される。   Then, with the display mode setting screen SC2 displayed on the display unit 400, as shown in FIG. 32, the geometric element “plane 11” is designated as the reference element, and the set geometric element “sphere 1” is displayed. Specified as the target element. In this case, in the three-dimensional shape image SI, a portion indicating the entire bulb of the measurement target S is displayed in a color corresponding to the contrast distance with reference to the geometric element “plane 11”.

図32に示される立体形状画像SIによれば、測定対象物Sのバルブを示す部分に、色表示バー411に示される複数種類の色が並ぶように表示されるが、測定対象物Sのバルブの外面に発生した膨らみまたは窪み等を把握することはできない。   According to the three-dimensional shape image SI shown in FIG. 32, a plurality of types of colors shown in the color display bar 411 are displayed in a row indicating the bulb of the measurement target S, but the valve of the measurement target S is displayed. Bulges or dents generated on the outer surface cannot be grasped.

そこで、図33に示すように、幾何要素「球1」の中心が基準要素として指定されるとともに、幾何要素「球1」により特定される測定対象物Sのバルブの外面全体が対象要素として指定される。この場合、立体形状画像SIにおいては、測定対象物Sのバルブ全体を示す部分が幾何要素「球1」の中心を基準として対比距離に応じた色で表示される。本例における対比距離は、測定対象物Sのバルブの中心から当該バルブの外面までの距離である。したがって、図33の立体形状画像SIによれば、図32の立体形状画像SIに比べて測定対象物Sのバルブの外面に局部的な形状変化部が存在することをその形状とともに正確に把握することができる。   Therefore, as shown in FIG. 33, the center of the geometric element “sphere 1” is specified as the reference element, and the entire outer surface of the valve of the measurement target S specified by the geometric element “sphere 1” is specified as the target element. Is done. In this case, in the three-dimensional shape image SI, a portion indicating the entire bulb of the measurement target S is displayed in a color corresponding to the contrast distance with reference to the center of the geometric element “sphere 1”. The comparison distance in this example is a distance from the center of the valve of the measurement target S to the outer surface of the valve. Therefore, according to the three-dimensional shape image SI of FIG. 33, it is possible to accurately grasp that there is a local shape change portion on the outer surface of the valve of the measurement target S together with the shape as compared with the three-dimensional shape image SI of FIG. be able to.

(5)表示態様設定機能を実現するためのCPU210の機能的構成
図34は、本発明の一実施の形態に係る表示態様設定機能を実現するためのCPU210の機能ブロック図である。図34に示すように、CPU210は、形状データ生成部211、表示制御部212、特定部213、要素受付部214および対応関係設定部215を含む。これらの構成要素は、CPU210が記憶装置240に記憶された表示態様設定プログラムを実行することにより実現される。なお、CPU210に含まれる上記の複数の構成要素の一部または全てが電子回路等のハードウェアにより実現されてもよい。
(5) Functional Configuration of CPU 210 for Realizing Display Mode Setting Function FIG. 34 is a functional block diagram of CPU 210 for realizing the display mode setting function according to an embodiment of the present invention. As shown in FIG. 34, the CPU 210 includes a shape data generating unit 211, a display control unit 212, a specifying unit 213, an element receiving unit 214, and a correspondence setting unit 215. These components are realized by the CPU 210 executing the display mode setting program stored in the storage device 240. Note that some or all of the plurality of components included in the CPU 210 may be realized by hardware such as an electronic circuit.

形状データ生成部211は、受光部120により出力される受光信号に基づいて、測定対象物Sの立体形状を表す点群データを立体形状データとして生成し、記憶装置240に記憶させる。表示制御部212は、記憶装置240に記憶された立体形状データに基づいて測定対象物Sの立体形状を含む画像を立体形状画像SIとして姿勢変更可能に表示部400に表示させる。また、表示制御部212は、後述する対応関係設定部215により設定された対応関係に基づいて立体形状画像SIのうちの測定対象部分に対応する部分の表示態様の設定を行う。さらに、表示制御部212は、設定された表示態様を含む立体形状画像SIを表示部400に表示させる。   The shape data generation unit 211 generates point group data representing the three-dimensional shape of the measurement target S as three-dimensional shape data based on the light receiving signal output by the light receiving unit 120, and causes the storage device 240 to store the data. The display control unit 212 causes the display unit 400 to display an image including the three-dimensional shape of the measurement target S as the three-dimensional shape image SI so as to be changeable in posture based on the three-dimensional shape data stored in the storage device 240. Further, the display control unit 212 sets the display mode of a portion corresponding to the measurement target portion in the three-dimensional shape image SI based on the correspondence set by the correspondence setting unit 215 described later. Further, the display control unit 212 causes the display unit 400 to display the stereoscopic image SI including the set display mode.

要素受付部214は、使用者による操作部250の操作に基づいて、表示部400に表示された立体形状画像SI上で、幾何要素の指定を受け付ける。また、要素受付部214は、使用者による操作部250の操作に基づいて、設定された幾何要素を用いた基準要素および対象要素の指定を受け付ける。   The element accepting unit 214 accepts a designation of a geometric element on the three-dimensional shape image SI displayed on the display unit 400 based on an operation of the operation unit 250 by the user. The element accepting unit 214 accepts designation of a reference element and a target element using the set geometric element based on the operation of the operation unit 250 by the user.

特定部213は、要素受付部214により受け付けられた基準要素に基づいて、測定対象物Sの立体形状に関する幾何的な基準を幾何基準として特定する。また、特定部213は、要素受付部214により受け付けられた対象要素に基づいて、表示態様が設定されるべき測定対象物Sの測定対象部分を特定する。   The specifying unit 213 specifies a geometric reference relating to the three-dimensional shape of the measurement target S as a geometric reference based on the reference element received by the element receiving unit 214. In addition, the specifying unit 213 specifies a measurement target portion of the measurement target S for which a display mode is to be set, based on the target element received by the element reception unit 214.

対応関係設定部215は、使用者による操作部250の操作に基づいて、対比距離と色(表示態様)との対応関係を設定する。なお、対応関係設定部215は、特定部213により特定された測定対象部分の立体形状データと幾何基準との間の距離に基づいて、対比距離と色との対応関係を設定してもよい。例えば、対応関係設定部215は、算出される対比距離の最小値および最大値が互いに異なる種類の色で表示されるように、対比距離と色との対応関係を設定してもよい。   The correspondence setting unit 215 sets the correspondence between the comparison distance and the color (display mode) based on the operation of the operation unit 250 by the user. Note that the correspondence setting unit 215 may set the correspondence between the contrast distance and the color based on the distance between the three-dimensional shape data of the measurement target portion specified by the specifying unit 213 and the geometric reference. For example, the correspondence setting unit 215 may set the correspondence between the comparison distance and the color such that the calculated minimum value and maximum value of the comparison distance are displayed in different types of colors.

(6)表示態様設定処理
図35は、表示態様設定プログラムに基づく表示態様設定処理の基本的な流れを示すフローチャートである。本例では、初期状態で、予め図34の形状データ生成部211により測定対象物Sの立体形状データが生成され、図1の記憶装置240に記憶されているものとする。
(6) Display Mode Setting Process FIG. 35 is a flowchart showing a basic flow of the display mode setting process based on the display mode setting program. In this example, it is assumed that in the initial state, three-dimensional shape data of the measurement target S is generated in advance by the shape data generation unit 211 in FIG. 34 and stored in the storage device 240 in FIG.

表示態様設定処理は、使用者による表示態様設定機能の使用の指示に応答して開始される。表示態様設定処理が開始されると、図34の表示制御部212は、記憶装置240に記憶された測定対象物Sの立体形状データを読み込む(ステップS11)。また、表示制御部212は、読み込んだ立体形状データに基づいて図1の表示部400に測定対象物Sの立体形状画像SIを表示させる(ステップS12)。   The display mode setting process is started in response to an instruction from the user to use the display mode setting function. When the display mode setting process is started, the display control unit 212 in FIG. 34 reads the three-dimensional shape data of the measurement target S stored in the storage device 240 (Step S11). The display control unit 212 causes the display unit 400 of FIG. 1 to display a three-dimensional shape image SI of the measurement target S based on the read three-dimensional shape data (step S12).

次に、図34の要素受付部214は、表示部400に表示される立体形状画像SI上で幾何要素の指定を受け付ける(ステップS13)。この場合、受け付けられた幾何要素を示す情報は、記憶装置240に記憶される。   Next, the element accepting unit 214 in FIG. 34 accepts the designation of a geometric element on the three-dimensional shape image SI displayed on the display unit 400 (Step S13). In this case, information indicating the accepted geometric element is stored in the storage device 240.

次に、要素受付部214は、指定された幾何要素を用いた基準要素の指定を受け付ける(ステップS14)。そこで、図34の特定部213は、要素受付部214により受け付けられた基準要素に基づいて、測定対象物Sの形状測定のための幾何基準を特定する(ステップS15)。この場合、特定された幾何基準を示す情報は、記憶装置240に記憶される。   Next, the element accepting unit 214 accepts designation of a reference element using the designated geometric element (Step S14). Therefore, the specifying unit 213 in FIG. 34 specifies a geometric reference for measuring the shape of the measurement target S based on the reference element received by the element receiving unit 214 (Step S15). In this case, information indicating the specified geometric reference is stored in the storage device 240.

次に、要素受付部214は、設定された幾何要素を用いた対象要素の指定を受け付ける(ステップS16)。そこで、図34の特定部213は、要素受付部214により受け付けられた対象要素に基づいて、測定対象物Sの測定対象部分を特定する(ステップS17)。この場合、特定された測定対象部分を示す情報は、記憶装置240に記憶される。   Next, the element receiving unit 214 receives the specification of the target element using the set geometric element (Step S16). Therefore, the specifying unit 213 in FIG. 34 specifies the measurement target portion of the measurement target S based on the target element received by the element reception unit 214 (Step S17). In this case, information indicating the specified measurement target portion is stored in the storage device 240.

次に、図34の対応関係設定部215は、使用者による操作部250の操作に基づいて、対比距離と色(表示態様)との対応関係を設定する(ステップS18)。   Next, the correspondence setting unit 215 in FIG. 34 sets the correspondence between the comparison distance and the color (display mode) based on the operation of the operation unit 250 by the user (step S18).

その後、表示制御部212は、対応関係設定部215により設定された対応関係に基づいて立体形状画像SIのうちの測定対象部分に対応する部分の色を設定し、対比距離に応じた色を含む立体形状画像SIを表示部400に表示させる(ステップS19)。これにより、表示態様設定処理が終了する。   After that, the display control unit 212 sets the color of the part corresponding to the measurement target part in the three-dimensional image SI based on the correspondence set by the correspondence setting unit 215, and includes the color corresponding to the comparison distance. The three-dimensional shape image SI is displayed on the display unit 400 (step S19). Thus, the display mode setting process ends.

上記のステップS14〜S19の一連の処理は、例えば上記の表示態様設定画面SC2のOKボタンb05が操作されることにより行われる。   The series of processes in steps S14 to S19 is performed, for example, by operating the OK button b05 on the display mode setting screen SC2.

図35の表示態様設定処理においては、例えばステップS19の処理後に、使用者による操作部250の操作に応答して、ステップS13以降の処理が再度行われてもよい。この場合、再度行われるステップS19の処理で新たな表示態様を含む立体形状画像SIが表示部400に表示されることになる。   In the display mode setting process of FIG. 35, for example, after the process of step S19, the process of step S13 and the subsequent processes may be performed again in response to the operation of the operation unit 250 by the user. In this case, the stereoscopic image SI including the new display mode is displayed on the display unit 400 in the process of step S19 performed again.

[6]効果
本実施の形態に係る三次元形状測定装置500においては、測定対象物Sの立体形状データが生成され、生成された立体形状データに基づく立体形状画像SIが表示部400に表示される。使用者による操作部250の操作に基づいて、立体形状画像SI上で1または複数の幾何要素が指定される。指定されたいずれかの幾何要素を用いて基準要素の指定がさらに受け付けられ、その基準要素に基づいて幾何基準が特定される。また、指定されたいずれかの幾何要素を用いて対象要素の指定がさらに受け付けられ、その対象要素に基づいて測定対象部分が特定される。測定対象部分と幾何基準との間の対比距離に応じて、立体形状画像SIのうち測定対象部分に対応する部分の表示態様が設定される。対比距離に応じた表示態様を含む立体形状画像SIが、表示部400に表示される。それにより、使用者は、対比距離に応じた表示態様を含む立体形状画像SIを視認することにより、所望の幾何基準と測定対象物Sの所望の部分の形状との関係を容易かつ直感的に把握することが可能になる。
[6] Effect In the three-dimensional shape measuring apparatus 500 according to the present embodiment, three-dimensional shape data of the measurement target S is generated, and a three-dimensional shape image SI based on the generated three-dimensional shape data is displayed on the display unit 400. You. One or more geometric elements are designated on the three-dimensional image SI based on the operation of the operation unit 250 by the user. The designation of the reference element is further received using any of the designated geometric elements, and the geometric reference is specified based on the reference element. In addition, the specification of the target element is further received using any of the specified geometric elements, and the measurement target portion is specified based on the target element. The display mode of the portion corresponding to the measurement target portion in the three-dimensional shape image SI is set according to the comparison distance between the measurement target portion and the geometric reference. A three-dimensional image SI including a display mode corresponding to the comparison distance is displayed on the display unit 400. Thereby, the user can easily and intuitively recognize the relationship between the desired geometric reference and the shape of the desired portion of the measurement target S by visually recognizing the three-dimensional shape image SI including the display mode corresponding to the comparison distance. It becomes possible to grasp.

また、本実施の形態に係る三次元形状測定装置500においては、投光部110A,110B、受光部120A,120Bおよびステージ140が一体的に設けられているので、受光部120A,120Bとステージ140との位置関係が一義的に定まる。そのため、高い精度で立体形状データとしての点群データを得ることができる。したがって、立体形状データに基づいて高い精度で測定対象物Sの形状測定を行うことができる。   Further, in three-dimensional shape measuring apparatus 500 according to the present embodiment, since light projecting units 110A and 110B, light receiving units 120A and 120B and stage 140 are provided integrally, light receiving units 120A and 120B and stage 140 are provided. The positional relationship with is uniquely determined. Therefore, point cloud data as three-dimensional shape data can be obtained with high accuracy. Therefore, the shape of the measurement target S can be measured with high accuracy based on the three-dimensional shape data.

[7]他の実施の形態
(1)平行面抽出機能
三次元形状測定装置500は、使用者による幾何要素の設定作業を補助するための平行面抽出機能を有してもよい。本例の平行面抽出機能は、平面の幾何要素が設定された場合に、設定された幾何要素に平行な測定対象物Sの平面部分を立体形状データに基づいて抽出し、抽出された平面部分を示す抽出画像を立体形状画像SI上に重畳表示する機能である。
[7] Other Embodiments (1) Parallel Plane Extraction Function The three-dimensional shape measuring apparatus 500 may have a parallel plane extraction function to assist a user in setting a geometric element. The parallel plane extraction function of the present example, when a plane geometric element is set, extracts a plane part of the measurement target S parallel to the set geometric element based on the three-dimensional shape data, and extracts the extracted plane part. Is a function of superimposing and displaying the extracted image indicating the above on the three-dimensional shape image SI.

図36および図37は、平行面抽出機能を説明するための幾何要素設定画面SC1の一例を示す図である。本例の幾何要素設定画面SC1においては、主表示領域maに図13の測定対象物Sの立体形状画像SIが示される。平行面抽出機能を有する三次元形状測定装置500においては、幾何要素設定画面SC1の副表示領域saに平行面抽出ボタンb11が表示される。   FIGS. 36 and 37 are diagrams illustrating an example of the geometric element setting screen SC1 for describing the parallel plane extraction function. In the geometric element setting screen SC1 of the present example, the three-dimensional shape image SI of the measurement target S in FIG. 13 is shown in the main display area ma. In the three-dimensional shape measuring apparatus 500 having the parallel plane extraction function, a parallel plane extraction button b11 is displayed in the sub-display area sa of the geometric element setting screen SC1.

例えば、使用者は、図36に示すように、図13の測定対象物Sの底面s21に対応する幾何要素「平面0」を設定した後、平行面抽出ボタンb11を操作する。この場合、CPU210は、測定対象物Sの立体形状データに基づいて、測定対象物Sのうち直前に設定された幾何要素「平面0」に対して予め定められた範囲内の平行度を有する部分(以下、平行部分と呼ぶ。)が存在するか否かを判定する。平行部分が存在する場合、CPU210は、測定対象物Sの立体形状データから当該平行部分の立体形状データを抽出する。   For example, as shown in FIG. 36, the user operates the parallel plane extraction button b11 after setting the geometric element “plane 0” corresponding to the bottom surface s21 of the measurement target S in FIG. In this case, the CPU 210 determines, based on the three-dimensional shape data of the measurement target S, a portion of the measurement target S having a parallelism within a predetermined range with respect to the geometric element “plane 0” set immediately before. (Hereinafter, referred to as a parallel portion) is determined. When a parallel portion exists, the CPU 210 extracts the three-dimensional shape data of the parallel portion from the three-dimensional shape data of the measurement target S.

なお、この場合、CPU210は、基準となる幾何要素「平面0」に対応する測定対象物Sの部分を抽出しなくてもよいし、抽出してもよい。本例では、CPU210は、幾何要素「平面0」に対応する測定対象物Sの部分を抽出しない。   In this case, the CPU 210 does not have to extract the portion of the measurement target S corresponding to the reference geometric element “plane 0”, or may extract it. In this example, the CPU 210 does not extract the portion of the measurement target S corresponding to the geometric element “plane 0”.

さらに、CPU210は、抽出された立体形状データに基づいて、抽出された平行部分を示す抽出画像を、図37に示すように、立体形状画像SI上に重畳表示する。図37の例では、立体形状画像SIのうち図13の測定対象物Sの上段面s11および下段面s12に対応する部分にそれぞれ抽出画像が重畳表示されている。抽出画像は、設定済みの幾何要素とは識別可能な態様(例えば色)で表示される。   Further, based on the extracted three-dimensional shape data, the CPU 210 superimposes and displays the extracted image indicating the extracted parallel part on the three-dimensional shape image SI as shown in FIG. In the example of FIG. 37, the extracted images are superimposed and displayed on portions of the three-dimensional shape image SI corresponding to the upper surface s11 and the lower surface s12 of the measurement target S in FIG. The extracted image is displayed in a form (for example, a color) that can be distinguished from the set geometric element.

さらに、立体形状画像SI上には、抽出画像ごとに当該平行部分を個別に識別可能とするための名称が付される。図37の例では、2つの抽出画像にそれぞれ「抽出e1」および「抽出e2」の名称が付されている。   Furthermore, a name is given on the three-dimensional shape image SI so that the parallel portion can be individually identified for each extracted image. In the example of FIG. 37, the names of “extraction e1” and “extraction e2” are given to the two extracted images, respectively.

この状態で、使用者は、立体形状画像SI上の所望の抽出画像を選択し、設定ボタンb02を操作することにより、選択された抽出画像に対応する平行部分に基づいて新たな幾何要素を設定することができる。また、使用者は、立体形状画像SI上の所望の抽出画像を選択し、当該抽出画像を削除することもできる。   In this state, the user selects a desired extracted image on the three-dimensional image SI and operates the setting button b02 to set a new geometric element based on the parallel portion corresponding to the selected extracted image. can do. Further, the user can select a desired extracted image on the three-dimensional shape image SI and delete the extracted image.

なお、平行部分を抽出するための基準となる幾何要素は、平行面抽出ボタンb11の操作の直前に設定される必要はなく、設定済みの複数の幾何要素から使用者により選択されてもよい。   The geometric element serving as a reference for extracting a parallel portion does not need to be set immediately before the operation of the parallel plane extraction button b11, and may be selected by the user from a plurality of set geometric elements.

(2)垂直面抽出機能
三次元形状測定装置500は、使用者による幾何要素の設定作業を補助するための垂直面抽出機能を有してもよい。本例の垂直面抽出機能は、平面の幾何要素が設定された場合に、設定された幾何要素に垂直な測定対象物Sの平面部分を立体形状データに基づいて抽出し、抽出された平面部分を示す抽出画像を立体形状画像SI上に重畳表示する機能である。
(2) Vertical plane extraction function The three-dimensional shape measuring apparatus 500 may have a vertical plane extraction function for assisting a user in setting a geometric element. The vertical plane extraction function of the present example, when a plane geometric element is set, extracts a plane part of the measuring object S perpendicular to the set geometric element based on the three-dimensional shape data, and extracts the extracted plane part. Is a function of superimposing and displaying the extracted image indicating the above on the three-dimensional shape image SI.

図38および図39は、垂直面抽出機能を説明するための幾何要素設定画面SC1の一例を示す図である。本例の幾何要素設定画面SC1においては、主表示領域maに電子部品からなる測定対象物Sの立体形状画像SIが示される。垂直面抽出機能を有する三次元形状測定装置500においては、幾何要素設定画面SC1の副表示領域saに垂直面抽出ボタンb12が表示される。   FIGS. 38 and 39 are diagrams illustrating an example of the geometric element setting screen SC1 for describing the vertical plane extraction function. In the geometric element setting screen SC1 of this example, a three-dimensional shape image SI of the measurement target S made of an electronic component is shown in the main display area ma. In the three-dimensional shape measuring apparatus 500 having a vertical plane extraction function, a vertical plane extraction button b12 is displayed in the sub-display area sa of the geometric element setting screen SC1.

ここで、本例の測定対象物Sとなる電子部品は、集積回路を収容する略長方形状のパッケージを有するものとする。パッケージの両側部の各々においては、当該パッケージの内部から複数の帯状リードが引き出されている。複数の帯状リードは、パッケージの長手方向に並ぶ。各帯状リードは、パッケージの両側部から下方に延びるように屈曲されている。パッケージの上面に対して各帯状リードの上下方向に延びる部分は、略垂直であるものとする。   Here, it is assumed that the electronic component serving as the measurement target S in the present example has a substantially rectangular package for housing the integrated circuit. On each of both sides of the package, a plurality of strip-shaped leads are drawn from inside the package. The plurality of strip-shaped leads are arranged in the longitudinal direction of the package. Each strip-shaped lead is bent so as to extend downward from both sides of the package. The portion of each strip-shaped lead extending in the vertical direction with respect to the upper surface of the package is substantially perpendicular.

例えば、使用者は、図38に示すように、電子部品のパッケージの上面に対応する幾何要素「平面50」を設定した後、垂直面抽出ボタンb12を操作する。この場合、CPU210は、測定対象物Sの立体形状データに基づいて、測定対象物Sのうち直前に設定された幾何要素「平面50」に対して予め定められた範囲内の垂直度を有する部分(以下、垂直部分と呼ぶ。)が存在するか否かを判定する。垂直部分が存在する場合、CPU210は、測定対象物Sの立体形状データから当該垂直部分の立体形状データを抽出する。   For example, as shown in FIG. 38, the user operates the vertical plane extraction button b12 after setting the geometric element “plane 50” corresponding to the upper surface of the electronic component package. In this case, the CPU 210 determines, based on the three-dimensional shape data of the measurement target S, a portion of the measurement target S having a perpendicularity within a predetermined range with respect to the geometric element “plane 50” set immediately before. (Hereinafter, referred to as a vertical portion) is determined. When a vertical portion exists, the CPU 210 extracts the three-dimensional shape data of the vertical portion from the three-dimensional shape data of the measurement target S.

さらに、CPU210は、抽出された立体形状データに基づいて、抽出された垂直部分を示す抽出画像を、図39に示すように、立体形状画像SI上に重畳表示する。図39の例では、立体形状画像SIのうち電子部品の複数の帯状リードの外面に対応する部分にそれぞれ抽出画像が重畳表示されている。抽出画像は、設定済みの幾何要素とは識別可能な態様(例えば色)で表示される。   Further, based on the extracted three-dimensional shape data, the CPU 210 superimposes and displays the extracted image indicating the extracted vertical portion on the three-dimensional shape image SI as shown in FIG. In the example of FIG. 39, the extracted images are superimposed and displayed on portions of the three-dimensional shape image SI corresponding to the outer surfaces of the plurality of band-shaped leads of the electronic component. The extracted image is displayed in a form (for example, a color) that can be distinguished from the set geometric element.

さらに、立体形状画像SI上には、抽出画像ごとに当該垂直部分を個別に識別可能とするための名称が付される。図39の例では、14個の抽出画像にそれぞれ「抽出e1」〜「抽出e14」の名称が付されている。   Further, a name is provided on the three-dimensional shape image SI so that the vertical portion can be individually identified for each extracted image. In the example of FIG. 39, the names of “extraction e1” to “extraction e14” are respectively assigned to the 14 extracted images.

この状態で、使用者は、立体形状画像SI上の所望の抽出画像を選択し、設定ボタンb02を操作することにより、選択された抽出画像に対応する垂直部分に基づいて新たな幾何要素を設定することができる。また、使用者は、立体形状画像SI上の所望の抽出画像を選択し、当該抽出画像を削除することもできる。   In this state, the user selects a desired extracted image on the three-dimensional shape image SI and operates the setting button b02 to set a new geometric element based on the vertical portion corresponding to the selected extracted image. can do. Further, the user can select a desired extracted image on the three-dimensional shape image SI and delete the extracted image.

なお、垂直部分を抽出するための基準となる幾何要素は、平行面抽出ボタンb11の操作の直前に設定される必要はなく、設定済みの複数の幾何要素から使用者により選択されてもよい。   The geometric element serving as a reference for extracting the vertical part does not need to be set immediately before the operation of the parallel plane extraction button b11, and may be selected by the user from a plurality of set geometric elements.

(3)領域抽出機能
三次元形状測定装置500は、使用者による幾何要素の設定作業を補助するための領域抽出機能を有してもよい。本例の領域抽出機能は、使用者により立体形状画像SI上で特定の領域が選択された場合に、選択された領域内に位置する測定対象物Sの平面部分を立体形状データに基づいて抽出し、抽出された平面部分を示す抽出画像を立体形状画像SI上に重畳表示する機能である。
(3) Region Extraction Function The three-dimensional shape measuring apparatus 500 may have a region extraction function for assisting a user in setting a geometric element. The region extraction function of this example extracts a plane portion of the measurement target S located in the selected region based on the three-dimensional shape data when a specific region is selected on the three-dimensional shape image SI by the user. This is a function of superimposing and displaying an extracted image showing the extracted plane portion on the three-dimensional shape image SI.

図40および図41は、領域抽出機能を説明するための幾何要素設定画面SC1の一例を示す図である。本例の幾何要素設定画面SC1においては、図38および図39の例と同様に、主表示領域maに電子部品からなる測定対象物Sの立体形状画像SIが示される。本例の測定対象物Sとなる電子部品は、図38および図39に示される測定対象物Sの電子部品と同じである。領域抽出機能を有する三次元形状測定装置500においては、幾何要素設定画面SC1の副表示領域saに領域抽出ボタンb13が表示される。   FIGS. 40 and 41 are diagrams illustrating an example of the geometric element setting screen SC1 for describing the region extraction function. In the geometric element setting screen SC1 of this example, a three-dimensional image SI of the measurement target S made of an electronic component is shown in the main display area ma, as in the examples of FIGS. 38 and 39. The electronic component serving as the measurement target S in this example is the same as the electronic component of the measurement target S shown in FIGS. 38 and 39. In the three-dimensional shape measuring apparatus 500 having an area extraction function, an area extraction button b13 is displayed in the sub-display area sa of the geometric element setting screen SC1.

例えば、使用者は、領域抽出ボタンb13を操作した後、図40に太い一点鎖線で示すように、立体形状画像SI上で所望の領域を選択する。この領域の選択は、例えば立体形状画像SI上の複数の部分を使用者がシングルクリック操作することにより行われる。   For example, after operating the region extraction button b13, the user selects a desired region on the three-dimensional image SI as indicated by a thick dashed line in FIG. The selection of this area is performed, for example, by the user performing a single click operation on a plurality of portions on the three-dimensional image SI.

この場合、CPU210は、測定対象物Sの立体形状データに基づいて、選択された領域内の画像に対応する測定対象物Sの部分で予め定められたサイズ以上の平面部分(以下、領域内部分と呼ぶ。)が存在するか否かを判定する。領域内部分が存在する場合、CPU210は、測定対象物Sの立体形状データから当該領域内部分の立体形状データを抽出する。   In this case, based on the three-dimensional shape data of the measurement target S, the CPU 210 determines that the portion of the measurement target S corresponding to the image in the selected region has a plane portion having a size equal to or larger than a predetermined size (hereinafter, a portion within the region) Is determined. When there is a part in the region, the CPU 210 extracts the three-dimensional shape data of the part in the region from the three-dimensional shape data of the measurement target S.

さらに、CPU210は、抽出された立体形状データに基づいて、抽出された領域内部分を示す抽出画像を、図41に示すように、立体形状画像SI上に重畳表示する。図41の例では、立体形状画像SIのうち使用者により選択された領域内に位置しかつ電子部品の複数の帯状リードの外面に対応する部分にそれぞれ抽出画像が重畳表示されている。   Further, based on the extracted three-dimensional shape data, the CPU 210 superimposes and displays the extracted image showing the extracted portion in the area on the three-dimensional shape image SI as shown in FIG. In the example of FIG. 41, the extracted images are superimposed and displayed on portions of the three-dimensional shape image SI that are located in the region selected by the user and correspond to the outer surfaces of the plurality of band-shaped leads of the electronic component.

さらに、立体形状画像SI上には、抽出画像ごとに当該領域内部分を個別に識別可能とするための名称が付される。図39の例では、7個の抽出画像にそれぞれ「抽出e1」〜「抽出e7」の名称が付されている。   Further, a name is provided on the three-dimensional shape image SI so that a portion in the region can be individually identified for each extracted image. In the example of FIG. 39, the names of “extraction e1” to “extraction e7” are given to the seven extracted images, respectively.

この状態で、使用者は、立体形状画像SI上の所望の抽出画像を選択し、設定ボタンb02を操作することにより、選択された抽出画像に対応する領域内部分に基づいて新たな幾何要素を設定することができる。また、使用者は、立体形状画像SI上の所望の抽出画像を選択し、当該抽出画像を削除することもできる。   In this state, the user selects a desired extracted image on the three-dimensional shape image SI and operates the setting button b02 to create a new geometric element based on the portion in the area corresponding to the selected extracted image. Can be set. Further, the user can select a desired extracted image on the three-dimensional shape image SI and delete the extracted image.

(4)テンプレート設定機能
三次元形状測定装置500は、使用者による幾何要素の指定作業、基準要素の指定作業および対象要素の指定作業を補助するためのテンプレート設定機能を有してもよい。本例のテンプレート設定機能は、同一形状を有する複数の測定対象物Sについて同一内容の形状測定を順次行う場合に、一の測定対象物Sに対して行われた各種作業を他の測定対象物Sについて自動的に再現する機能である。
(4) Template Setting Function The three-dimensional shape measuring apparatus 500 may have a template setting function for assisting a user to specify a geometric element, a reference element, and a target element. The template setting function according to the present embodiment is configured to perform various operations performed on one measurement target S in the case of sequentially performing shape measurement of the same content on a plurality of measurement targets S having the same shape. This function automatically reproduces S.

テンプレート設定機能では、予め使用者によって基準とすべき測定対象物Sが定められる。以下、基準とされた測定対象物Sを基準対象物と呼ぶ。使用者は、操作部250を操作することにより、基準対象物について立体形状データの生成、幾何要素の指定、基準要素の指定および対象要素の指定等を行う。この場合、CPU210は、使用者による操作部250の操作内容に基づいて、基準対象物に対する幾何要素の指定、基準要素の指定および対象要素の指定の操作手順をテンプレート情報として記憶する。   In the template setting function, the measurement target S to be used as a reference is determined in advance by the user. Hereinafter, the measurement target S that is set as a reference is referred to as a reference target. By operating the operation unit 250, the user generates three-dimensional shape data for the reference target object, specifies geometric elements, specifies the reference element, specifies the target element, and the like. In this case, the CPU 210 stores, as template information, an operation procedure for specifying a geometric element, specifying a reference element, and specifying a target element for the reference target object, based on the operation content of the operation unit 250 by the user.

その後、使用者は、基準対象物と同じ形状を有する他の測定対象物Sについて立体形状データを生成した後、上記のテンプレート設定機能の使用を指令する。この場合、CPU210は、記憶されたテンプレート情報に基づいて、基準対象物について指定された幾何要素に対応する幾何要素を他の測定対象物Sについて指定する。また、CPU210は、テンプレート情報に基づいて、基準対象物について指定された基準要素および対象要素に対応する基準要素および対象要素を他の測定対象物Sについて指定する。   Thereafter, the user generates three-dimensional shape data for another measurement target S having the same shape as the reference target, and then instructs use of the template setting function. In this case, the CPU 210 specifies a geometric element corresponding to the geometric element specified for the reference target object for another measurement target S based on the stored template information. The CPU 210 also specifies the reference element and the target element corresponding to the reference element and the target element specified for the reference target object for the other measurement target S based on the template information.

これにより、使用者は、基準対象物について幾何要素の指定、基準要素の指定および対象要素の指定を行った後は、同一形状を有する他の測定対象物Sについて改めて同じ作業を繰り返すことなく測定対象部分の色が対比距離に応じた色で表された立体形状画像SIの確認等を行うことができる。したがって、三次元形状測定装置500の利便性が向上する。   Thereby, after specifying the geometric element, the reference element, and the target element for the reference target object, the user can perform measurement without repeating the same operation again for another measurement target S having the same shape. It is possible to confirm the three-dimensional shape image SI in which the color of the target portion is represented by a color corresponding to the contrast distance. Therefore, the convenience of the three-dimensional shape measuring apparatus 500 is improved.

ところで、上記のテンプレート設定機能を有効に利用するためには、基準対象物の立体形状データと他の測定対象物Sの立体形状データとの位置関係を正確に把握する必要がある。例えば、立体形状データの生成時における基準対象物の姿勢と他の測定対象物Sの姿勢とが互いに大きく異なる場合には、上記のテンプレート情報を用いても適切な幾何要素の指定等を行うことができない。   By the way, in order to effectively use the template setting function, it is necessary to accurately grasp the positional relationship between the three-dimensional shape data of the reference object and the three-dimensional shape data of another measurement object S. For example, when the attitude of the reference object and the attitude of another measurement object S at the time of generating the three-dimensional shape data are significantly different from each other, it is necessary to specify an appropriate geometric element or the like even using the template information. Can not.

そこで、本例では、テンプレート設定機能の使用が指令されると、その事前処理として他の測定対象物Sの立体形状データを基準対象物の立体形状データに合わせこむ処理(以下、合わせこみ処理と呼ぶ。)が行われる。   Therefore, in this example, when the use of the template setting function is instructed, a process of matching the three-dimensional shape data of another measurement target S with the three-dimensional shape data of the reference target as pre-processing (hereinafter referred to as a matching process). Call).

合わせこみ処理が開始されることにより、合わせこみ画面が表示部400に表示される。図42および図43は、表示部400に表示される合わせこみ画面の一例を示す図である。合わせこみ画面SC3においては、表示部400の表示領域が、第1主表示領域ma1、第2主表示領域ma2、第3主表示領域ma3および副表示領域saに分割されている。   When the matching process is started, a matching screen is displayed on the display unit 400. 42 and 43 are diagrams illustrating an example of the alignment screen displayed on the display unit 400. FIG. In the alignment screen SC3, the display area of the display unit 400 is divided into a first main display area ma1, a second main display area ma2, a third main display area ma3, and a sub display area sa.

第1主表示領域ma1に他の測定対象物Sの立体形状画像SIが表示され、第2主表示領域ma2に基準対象物の立体形状画像SIが表示される。第3主表示領域ma3に、基準対象物の立体形状データに対する他の測定対象物Sの立体形状データの合わせこみの程度が画像で表示される。具体的には、基準対象物の立体形状画像SIと他の測定対象物Sの立体形状画像とが共通の座標系に従って互いに異なる色で表示される。図42および図43の例では、互いに異なる2種類の色がドットパターンとハッチングとで示される。   A three-dimensional image SI of another measurement target S is displayed in the first main display area ma1, and a three-dimensional image SI of the reference target is displayed in the second main display area ma2. In the third main display area ma3, the degree of matching of the three-dimensional shape data of the other measurement target S with the three-dimensional shape data of the reference target is displayed as an image. Specifically, the three-dimensional shape image SI of the reference target object and the three-dimensional shape image of another measurement target S are displayed in different colors according to a common coordinate system. In the examples of FIGS. 42 and 43, two different colors are indicated by dot patterns and hatching.

副表示領域saには、要素種類選択欄es、位置合わせ要素表示欄et、戻るボタンb21および適用ボタンb22が表示される。要素種類選択欄esには、上記実施の形態と同様に、複数の幾何的な要素の種類にそれぞれ対応する複数の項目アイコンicが表示される。位置合わせ要素表示欄etについては後述する。   In the sub-display area sa, an element type selection field es, a positioning element display field et, a return button b21, and an apply button b22 are displayed. In the element type selection field es, a plurality of item icons ic respectively corresponding to a plurality of geometric element types are displayed as in the above embodiment. The positioning element display field et will be described later.

表示部400に合わせこみ画面SC3が表示された状態で、使用者は、第1主表示領域ma1に表示される立体形状画像SI上で他の測定対象物Sの姿勢を変更することができる。また、使用者は、第2主表示領域ma2に表示される立体形状画像SI上で基準対象物の姿勢を変更することができる。   With the fitting screen SC3 displayed on the display unit 400, the user can change the posture of another measurement target S on the three-dimensional shape image SI displayed in the first main display area ma1. In addition, the user can change the attitude of the reference target on the three-dimensional shape image SI displayed in the second main display area ma2.

そこで、使用者は、他の測定対象物Sを含む立体形状画像SIと基準対象物を含む立体形状画像SIとを対比しつつ、共通の形状を有しかつ互いに対応する部分を位置合わせ要素として3組指定する。このとき、使用者は、要素種類選択欄esに表示された複数の項目アイコンicのいずれかを操作することにより、指定対象となる位置合わせ要素の種類を選択することができる。   Therefore, the user compares the three-dimensional shape image SI including the other measurement object S and the three-dimensional shape image SI including the reference target object, and uses a portion having a common shape and corresponding to each other as a positioning element. Specify three sets. At this time, the user can select the type of the positioning element to be designated by operating any of the plurality of item icons ic displayed in the element type selection field es.

副表示領域saの位置合わせ要素表示欄etには、他の測定対象物Sおよび基準対象物に関して3組の位置合わせ要素が指定されたか否かが示される。図42の例では、3組の位置合わせ要素は全く指定されていない。   The positioning element display field et of the sub-display area sa indicates whether three sets of positioning elements have been specified for the other measurement target S and the reference target. In the example of FIG. 42, three sets of alignment elements are not specified at all.

使用者は、例えば1組目の位置合わせ要素を指定するために平面に対応する項目アイコンicを操作する。その後、他の測定対象物Sを含む立体形状画像SI上および基準対象物を含む立体形状画像SI上で互いに対応する平面部分をそれぞれダブルクリック操作により指定する。これにより、他の測定対象物Sおよび基準対象物について1組目の位置合わせ要素(図43の「平面A」)の指定が完了する。   The user operates the item icon ic corresponding to the plane, for example, to specify the first set of alignment elements. After that, on the three-dimensional shape image SI including the other measurement target S and the three-dimensional shape image SI including the reference target, corresponding planar portions are designated by a double-click operation. This completes the designation of the first set of alignment elements (“plane A” in FIG. 43) for the other measurement target S and the reference target.

次に、使用者は、1番目の位置合わせ要素の指定と同様の手順で、他の測定対象物Sおよび基準対象物について2番目および3番目の位置合わせ要素(図43の「平面B」および「平面C」)を順次指定する。このとき、図43に示すように、指定された位置合わせ要素は、第1主表示領域ma1および第2主表示領域ma2に表示される立体形状画像SI上に逐次識別可能に表示される。   Next, in the same procedure as the designation of the first alignment element, the user adjusts the second and third alignment elements (“plane B” and “plane B” in FIG. 43) for the other measurement object S and the reference object. “Plane C”) are sequentially designated. At this time, as shown in FIG. 43, the designated positioning elements are sequentially and identifiably displayed on the three-dimensional shape image SI displayed in the first main display area ma1 and the second main display area ma2.

3組の位置合わせ要素が指定されると、CPU210は、3組の位置合わせ要素に対応する他の測定対象物Sの3つの部分が、3組の位置合わせ要素に対応する基準対象物の3つの部分にそれぞれ一致するように、他の測定対象物Sの立体形状データの座標変換を行う。   When three sets of alignment elements are specified, the CPU 210 determines that three parts of the other measurement object S corresponding to the three sets of alignment elements are three of the reference objects corresponding to the three sets of alignment elements. The coordinate transformation of the three-dimensional shape data of the other measurement target S is performed so as to match the two portions.

基準対象物の立体形状データに対する他の測定対象物Sの立体形状データの合わせこみが正確に行われることにより、図43に示すように、第3主表示領域ma3に表示される立体形状画像SIの基準対象物の位置および姿勢と他の測定対象物Sの位置および姿勢とが一致する。   By accurately aligning the three-dimensional shape data of the other measurement target S with the three-dimensional shape data of the reference target, the three-dimensional shape image SI displayed in the third main display area ma3 as shown in FIG. The position and orientation of the reference object and the position and orientation of the other measurement object S match.

使用者は、合わせこみ画面SC3における第3主表示領域ma3の表示状態を確認しつつ、問題がないと判断すると適用ボタンb22を操作する。それにより、合わせこみ処理が完了する。戻るボタンb21は、使用者が合わせこみ処理の取り消しを指令するためのボタンである。使用者は、表示部400に合わせこみ画面SC3が表示された状態で戻るボタンb21を操作する。それにより、表示部400の表示状態が通常の形状計測時の状態(例えば図9〜図12に示される状態)に戻る。   The user operates the apply button b22 when it is determined that there is no problem while checking the display state of the third main display area ma3 on the alignment screen SC3. Thereby, the alignment process is completed. The return button b21 is a button for the user to instruct cancellation of the matching process. The user operates the return button b21 with the fitting screen SC3 displayed on the display unit 400. Thereby, the display state of the display unit 400 returns to the state at the time of normal shape measurement (for example, the state shown in FIGS. 9 to 12).

なお、図43の例では、3つの位置合わせ要素として「平面A」、「平面B」および「平面C」が指定されているが、これらの要素のうち「平面B」および「平面C」は互いに平行な面である。3つの面を用いて上記の合わせこみを行う場合には、3つの位置合わせ要素は互いに交差するように設定されることが望ましい。したがって、例えば図43の例では、「平面B」に代えて一点鎖線で示される「平面D」が位置合わせ要素として指定されてもよい。この場合、互いに交差する位置合わせ要素「平面A」、「平面C」および「平面D」を用いることにより、より高い精度で立体形状データの合わせこみを行うことが可能となる。   In the example of FIG. 43, “Plane A”, “Plane B”, and “Plane C” are designated as three alignment elements, but “Plane B” and “Plane C” of these elements are The planes are parallel to each other. When performing the above-described alignment using three surfaces, it is desirable that the three alignment elements are set so as to intersect with each other. Accordingly, for example, in the example of FIG. 43, “plane D” indicated by a dashed line may be designated as the alignment element instead of “plane B”. In this case, by using the alignment elements “plane A”, “plane C”, and “plane D” that intersect with each other, it is possible to perform three-dimensional shape data alignment with higher accuracy.

(5)対比強調表示機能
三次元形状測定装置500は、幾何基準に対する測定対象部分の幾何的な対比結果を使用者に容易に理解させるための対比強調表示機能を有してもよい。本例の対比強調表示機能は、一方向に延びる幾何基準と他方向に延びる測定対象物Sの測定対象部分とが特定される場合に、当該幾何基準に対する当該測定対象部分の傾斜する向きを表す指標(以下、傾斜指標と呼ぶ。)を立体形状画像SI上に重畳表示させる機能を含む。さらに、本例の対比強調表示機能は、当該幾何基準に対する当該測定対象部分の傾斜する向き(以下、単に傾斜の向きと呼ぶ。)を強調して表すように、傾斜指標の表示態様を調整する機能を含む。以下、対比強調表示機能の使用例について説明する。
(5) Contrast highlighting function The three-dimensional shape measuring apparatus 500 may have a contrast highlighting function for allowing a user to easily understand the result of geometric comparison of the measurement target portion with respect to the geometric reference. When the geometric reference extending in one direction and the measurement target portion of the measurement target S extending in the other direction are specified, the contrast highlighting function of the present example indicates the inclination direction of the measurement target portion with respect to the geometric reference. It includes a function of superimposing and displaying an index (hereinafter, referred to as an inclination index) on the three-dimensional shape image SI. Further, the contrast highlighting function of the present example adjusts the display mode of the tilt indicator so that the tilt direction of the measurement target portion with respect to the geometric reference (hereinafter, simply referred to as the tilt direction) is emphasized. Including features. Hereinafter, a usage example of the contrast highlighting function will be described.

図44は、測定対象物Sの他の例を示す外観斜視図である。図44の測定対象物Sは、扁平な直方体形状を有する第1の部材p1、第2の部材p2および第3の部材p3から構成される。第1の部材p1および第2の部材p2は、間隔をおいて互いに対向するように第3の部材p3により連結されている。第1の部材p1および第2の部材p2には、それぞれ円形の第1の貫通孔h1および第2の貫通孔h2が形成されている。   FIG. 44 is an external perspective view illustrating another example of the measurement target S. The measurement target S in FIG. 44 includes a first member p1, a second member p2, and a third member p3 having a flat rectangular parallelepiped shape. The first member p1 and the second member p2 are connected by a third member p3 so as to oppose each other at an interval. Circular first through holes h1 and second through holes h2 are formed in the first member p1 and the second member p2, respectively.

図44の測定対象物Sについて、第2の貫通孔h2の中心軸が第1の貫通孔h1の中心軸に対してどの方向に傾斜しているのかを知りたい場合、使用者は、最初に図44の測定対象物Sについての立体形状データを生成する。その後、使用者は、対比強調表示機能を使用する。   When the user wants to know in which direction the central axis of the second through hole h2 is inclined with respect to the central axis of the first through hole h1 with respect to the measurement object S in FIG. The three-dimensional shape data for the measurement target S in FIG. 44 is generated. Thereafter, the user uses the contrast highlighting function.

図45〜図47は、対比強調表示機能の一使用例を説明するための図である。図45に示すように、対比強調表示機能を有する三次元形状測定装置500においては、幾何要素設定画面SC1の副表示領域saに傾斜確認ボタンb31が表示される。   FIGS. 45 to 47 are diagrams for explaining one usage example of the contrast highlighting function. As shown in FIG. 45, in the three-dimensional shape measuring apparatus 500 having the contrast highlighting function, a tilt confirmation button b31 is displayed in the sub-display area sa of the geometric element setting screen SC1.

例えば、使用者は、主表示領域maに図44の測定対象物Sに対応する立体形状画像SIが表示された状態で、図44の第1の貫通孔h1の内周面に対応する幾何要素「円筒1」を設定する。また、使用者は、図44の第2の貫通孔h2の内周面に対応する幾何要素「円筒2」を設定する。その後、使用者は、傾斜確認ボタンb31を操作する。   For example, in a state where the three-dimensional shape image SI corresponding to the measurement target S in FIG. 44 is displayed in the main display area ma, the user may input a geometric element corresponding to the inner peripheral surface of the first through hole h1 in FIG. "Cylinder 1" is set. Further, the user sets a geometric element “cylinder 2” corresponding to the inner peripheral surface of the second through hole h2 in FIG. Thereafter, the user operates the tilt confirmation button b31.

それにより、図46に示すように、表示部400に表示される画面が幾何要素設定画面SC1から傾斜確認画面SC4に切り替わる。傾斜確認画面SC4は、対応関係設定欄dcに代えて傾斜確認設定欄euが表示される点を除いて、上記の表示態様設定画面SC2と基本的に同じである。   Thereby, as shown in FIG. 46, the screen displayed on the display unit 400 switches from the geometric element setting screen SC1 to the tilt confirmation screen SC4. The tilt confirmation screen SC4 is basically the same as the above-described display mode setting screen SC2 except that a tilt confirmation setting field eu is displayed instead of the correspondence setting field dc.

傾斜確認設定欄euには、チェックボックス431および強調度合い調整バー432が表示される。チェックボックス431は、幾何基準および測定対象部分としてそれぞれ軸が指定される際に、傾斜の向きを強調するように傾斜指標を表示させるか否かを設定するために用いられる。使用者は、チェックボックス431をチェックすることにより、傾斜の向きを強調するように傾斜指標を表示させることができる。   A check box 431 and an emphasis degree adjustment bar 432 are displayed in the inclination confirmation setting column eu. The check box 431 is used to set whether or not to display the tilt index so as to emphasize the direction of the tilt when the axis is specified as the geometric reference and the measurement target portion. By checking the check box 431, the user can display the inclination index so as to emphasize the direction of the inclination.

強調度合い調整バー432はスライダを含む。使用者は、強調度合い調整バー432のスライダを操作することにより、傾斜指標により示される傾斜の向きの強調度合いを調整することができる。   The emphasis degree adjustment bar 432 includes a slider. By operating the slider of the emphasis degree adjustment bar 432, the user can adjust the emphasis degree of the inclination direction indicated by the inclination index.

本例では、図46に示すように、使用者は、対象要素として幾何要素「円筒2」の軸を指定し、基準要素として幾何要素「円筒1」の軸を指定するものとする。この場合、図46に一点鎖線で示すように、幾何要素「円筒1」の軸および幾何要素「円筒2」の軸を示す画像が立体形状画像SI上に重畳表示される。   In this example, as shown in FIG. 46, the user specifies the axis of the geometric element “cylinder 2” as the target element and specifies the axis of the geometric element “cylinder 1” as the reference element. In this case, as shown by a dashed line in FIG. 46, an image indicating the axis of the geometric element “cylinder 1” and the axis of the geometric element “cylinder 2” is superimposed and displayed on the three-dimensional shape image SI.

この状態で、OKボタンb05が操作されることにより、図46に白抜きの矢印で示すように、幾何要素「円筒1」の軸に対する幾何要素「円筒2」の軸の傾斜する向きを示す傾斜指標が立体形状画像SI上に重畳表示される。   In this state, when the OK button b05 is operated, the inclination indicating the inclination direction of the axis of the geometric element “cylinder 2” with respect to the axis of the geometric element “cylinder 1” as shown by a white arrow in FIG. The index is superimposed on the three-dimensional image SI.

ここで、幾何要素「円筒1」の軸に対する幾何要素「円筒2」の軸の傾斜角度が小さいと、使用者は、傾斜指標を視認しても、幾何要素「円筒1」の軸に対して幾何要素「円筒2」の軸はどの方向に傾斜しているのかを把握することが難しい。そこで、使用者は、チェックボックス431をチェックし、強調度合い調整バー432を操作する。この場合、図47に示すように、幾何要素「円筒1」の軸に対する幾何要素「円筒2」の軸の傾斜の向きが、傾斜指標により強調表示される。具体的には、装置座標系における基準軸(本例では、幾何要素「円筒1」の軸)に対する対象軸(本例では、幾何要素「円筒2」の軸)の交差角度が、傾斜指標により過大に表示される。それにより、使用者は、幾何要素「円筒1」の軸に対して幾何要素「円筒2」の軸が傾斜する向きを容易に把握することができる。   Here, if the inclination angle of the axis of the geometric element “cylinder 2” with respect to the axis of the geometric element “cylinder 1” is small, the user can visually recognize the inclination index, It is difficult to grasp in which direction the axis of the geometric element “cylinder 2” is inclined. Therefore, the user checks the check box 431 and operates the emphasis degree adjustment bar 432. In this case, as shown in FIG. 47, the inclination direction of the axis of the geometric element “cylinder 2” with respect to the axis of the geometric element “cylinder 1” is highlighted by the inclination index. Specifically, the intersection angle of the target axis (in this example, the axis of the geometric element “cylinder 2”) with respect to the reference axis (in this example, the axis of the geometric element “cylinder 1”) is determined by the inclination index. Displayed too large. Thereby, the user can easily grasp the direction in which the axis of the geometric element “cylinder 2” is inclined with respect to the axis of the geometric element “cylinder 1”.

なお、対比強調表示機能を有する三次元形状測定装置500においては、図34の表示制御部212は、特定された測定対象部分と幾何基準との幾何的な対比結果として、上記の傾斜の向きを示す傾斜指標を表示部400に表示させる。また、表示制御部212は、使用者による操作部250の操作に応答して、傾斜の向きが強調して表されるように傾斜指標の表示態様を調整する。   In the three-dimensional shape measuring apparatus 500 having the contrast highlighting function, the display control unit 212 in FIG. 34 determines the direction of the inclination as a result of the geometric comparison between the specified measurement target portion and the geometric reference. The displayed inclination index is displayed on the display unit 400. In addition, the display control unit 212 adjusts the display mode of the tilt indicator in response to the operation of the operation unit 250 by the user so that the tilt direction is emphasized.

(6)その他
上記実施の形態では、1または複数の幾何要素が指定および設定された後、設定されたいずれかの幾何要素を用いて基準要素が指定されるが、本発明はこれに限定されない。幾何要素の指定時に、当該幾何要素が基準要素として指定されてもよい。同様に、上記実施の形態では、1または複数の幾何要素が設定された後、設定されたいずれかの幾何要素を用いて対象要素が指定されるが、本発明はこれに限定されない。幾何要素の指定時に、当該幾何要素が対象要素として指定されてもよい。
(6) Others In the above embodiment, after one or a plurality of geometric elements are specified and set, the reference element is specified using any of the set geometric elements, but the present invention is not limited to this. . When specifying a geometric element, the geometric element may be specified as a reference element. Similarly, in the above embodiment, after one or a plurality of geometric elements are set, the target element is specified using any of the set geometric elements, but the present invention is not limited to this. When specifying a geometric element, the geometric element may be specified as a target element.

上記実施の形態では、受光部120A,120Bに単眼カメラが用いられるが、単眼カメラに代えてまたは単眼カメラに加えて、複眼カメラが用いられてもよい。また、複数の受光部120Aおよび複数の受光部120Bが用いられ、ステレオ法によって立体形状データが生成されてもよい。また、上記実施の形態では、2つの投光部110が用いられるが、立体形状データの生成が可能であれば、1つの投光部110のみが用いられてもよく、または3つ以上の投光部110が用いられてもよい。   In the above embodiment, a monocular camera is used for the light receiving units 120A and 120B, but a compound eye camera may be used instead of or in addition to the monocular camera. Also, a plurality of light receiving units 120A and a plurality of light receiving units 120B may be used, and stereoscopic shape data may be generated by a stereo method. Further, in the above embodiment, two light projecting units 110 are used, but if three-dimensional shape data can be generated, only one light projecting unit 110 may be used, or three or more light projecting units 110 may be used. The light unit 110 may be used.

また、投光部110からの均一な測定光を用いてテクスチャ画像データを取得する場合には、照明光出力部130および照明光源320が設けられなくてもよい。また、パターン画像データを合成してテクスチャ画像データを生成することも可能であり、その場合にも照明光出力部130および照明光源320が設けられなくてもよい。   When acquiring texture image data using uniform measurement light from the light projecting unit 110, the illumination light output unit 130 and the illumination light source 320 may not be provided. It is also possible to generate texture image data by synthesizing pattern image data. In this case, the illumination light output unit 130 and the illumination light source 320 may not be provided.

また、上記実施の形態では、パターン画像データおよびテクスチャ画像データが共通の受光部120A,120Bによって取得されるが、立体形状データを取得するための受光部と、ライブ画像データおよびテクスチャ画像データを取得するための受光部とが別個に設けられてもよい。   In the above embodiment, the pattern image data and the texture image data are acquired by the common light receiving units 120A and 120B, but the light receiving unit for acquiring the three-dimensional shape data and the live image data and the texture image data are acquired. May be provided separately from the light receiving unit.

また、上記実施の形態では、三角測距法により点群データが生成されるが、TOF(Time Of Flight)法等の他の方法により点群データが生成されてもよい。   In the above embodiment, the point cloud data is generated by the triangulation method, but the point cloud data may be generated by another method such as the TOF (Time Of Flight) method.

[8]請求項の各構成要素と実施の形態の各部との対応関係
以下、請求項の各構成要素と実施の形態の各部との対応の例について説明するが、本発明は下記の例に限定されない。
[8] Correspondence relationship between each component of the claims and each unit of the embodiment Hereinafter, an example of correspondence between each component of the claims and each unit of the embodiment will be described. Not limited.

上記実施の形態においては、形状データ生成部211が形状データ生成部の例であり、表示制御部212が表示制御部の例であり、要素受付部214が要素受付部の例であり、特定部213が特定部の例であり、三次元形状測定装置500が三次元形状測定装置の例である。   In the above embodiment, the shape data generation unit 211 is an example of a shape data generation unit, the display control unit 212 is an example of a display control unit, the element reception unit 214 is an example of an element reception unit, and the identification unit Reference numeral 213 denotes an example of the specifying unit, and the three-dimensional shape measuring device 500 is an example of the three-dimensional shape measuring device.

また、傾斜指標が指標の例であり、設置部161および回転機構143がステージ保持部の例であり、ステージ140がステージの例であり、投光部110,110A,110Bが投光部の例であり、受光部120,120A,120Bが受光部の例であり、ヘッド部190がヘッド部の例であり、スタンド部162が連結部の例である。   In addition, the inclination index is an example of the index, the installation unit 161 and the rotating mechanism 143 are examples of the stage holding unit, the stage 140 is an example of the stage, and the light emitting units 110, 110A, and 110B are the examples of the light emitting unit. The light receiving units 120, 120A, and 120B are examples of light receiving units, the head unit 190 is an example of a head unit, and the stand unit 162 is an example of a connecting unit.

さらに、対応関係設定部215が対応関係設定部の例であり、操作部250が操作部の例であり、CPU210がテンプレート記憶部およびテンプレート指定部の例であり、PC200が処理装置の例である。   Furthermore, the correspondence setting unit 215 is an example of a correspondence setting unit, the operation unit 250 is an example of an operation unit, the CPU 210 is an example of a template storage unit and a template designation unit, and the PC 200 is an example of a processing device. .

請求項の各構成要素として、請求項に記載されている構成または機能を有する他の種々の要素を用いることもできる。   Various other elements having the configuration or function described in the claims may be used as the constituent elements in the claims.

100…測定部,110,110A,110B…投光部,111…測定光源,112…パターン生成部,113,114,122…レンズ,120,120A,120B…受光部,121…カメラ,121a…撮像素子,130…照明光出力部,131…出射口,140…ステージ,141…ステージベース,142…ステージプレート,143…回転機構,145…ステージ操作部,146…ステージ駆動部,150,310…制御基板,161…設置部,162…スタンド部,170…台座,180…ヘッドケーシング,190…ヘッド部,200…PC,210…CPU,211…形状データ生成部,212…表示制御部,213…特定部,214…要素受付部,215…対応関係設定部,220…ROM,230…作業用メモリ,240…記憶装置,250…操作部,300…制御部,320…照明光源,330…導光部材,400…表示部,411…色表示バー,412…距離基準調整バー,413…色レンジ調整バー,414…他設定ボタン,415…対応自動設定ボタン,421,422,423,431…チェックボックス,432…強調度合い調整バー,500…三次元形状測定装置,A1,A2…光軸,Ax…回転軸,ax…軸,b01,b04,b21…戻るボタン,b02…設定ボタン,b03…表示態様ボタン,b05…OKボタン,b06…幾何要素ボタン,b11…平行面抽出ボタン,b12…垂直面抽出ボタン,b13…領域抽出ボタン,B1I,B2I…画像,b22…適用ボタン,b31…傾斜確認ボタン,dc…対応関係設定欄,es…要素種類選択欄,et…位置合わせ要素表示欄,f01…名称入力欄,F1,F2…交点,h1…第1の貫通孔,h2…第2の貫通孔,ic…項目アイコン,IR…照射領域,m11…対象プルダウンメニュー,m12…基準プルダウンメニュー,ma…主表示領域,ma1…第1主表示領域,ma2…第2主表示領域,ma3…第3主表示領域,MR,MR1,MR2…有効領域,p1…第1の部材,p2…第2の部材,p3…第3の部材,PI…ポインタ,pl…垂線,pp…頂点,S…測定対象物,s11…上段面,s12…下段面,s21…底面,s22…垂直面,s23…傾斜面,s31…一端面,s32…他端面,sa…副表示領域,SC1…幾何要素設定画面,SC2…表示態様設定画面,SC3…合わせこみ画面,SC4…傾斜確認画面,SI…立体形状画像,SW…その他設定ウィンドウ,TR1…撮像視野   100: measuring unit, 110, 110A, 110B: light projecting unit, 111: measuring light source, 112: pattern generating unit, 113, 114, 122: lens, 120, 120A, 120B: light receiving unit, 121: camera, 121a: imaging Element, 130 illumination light output unit, 131 emission port, 140 stage, 141 stage base, 142 stage plate, 143 rotating mechanism, 145 stage operation unit, 146 stage drive unit, 150, 310 control Substrate, 161, installation section, 162, stand section, 170, pedestal, 180, head casing, 190, head section, 200, PC, 210, CPU, 211, shape data generation section, 212, display control section, 213, identification Unit, 214: element receiving unit, 215: correspondence setting unit, 220: ROM, 230: working memory, 2 0 storage device, 250 operation unit, 300 control unit, 320 illumination light source, 330 light guide member, 400 display unit, 411 color display bar, 412 distance reference adjustment bar, 413 color range adjustment bar , 414: Other setting button, 415: Corresponding automatic setting button, 421, 422, 423, 431: Check box, 432: Enhancement degree adjustment bar, 500: Three-dimensional shape measuring device, A1, A2: Optical axis, Ax: Rotation Axis, ax axis, b01, b04, b21 return button, b02 setting button, b03 display mode button, b05 OK button, b06 geometric element button, b11 parallel plane extraction button, b12 vertical plane extraction button , B13: area extraction button, B1I, B2I: image, b22: apply button, b31: tilt confirmation button, dc: correspondence setting column, es: required Type selection field, et ... Positioning element display field, f01 ... Name input field, F1, F2 ... Intersection point, h1 ... First through hole, h2 ... Second through hole, ic ... Item icon, IR ... Irradiation area, m11: target pull-down menu, m12: reference pull-down menu, ma: main display area, ma1: first main display area, ma2: second main display area, ma3: third main display area, MR, MR1, MR2 ... valid area , P1 first member, p2 second member, p3 third member, PI pointer, pl perpendicular, pp vertex, S target object, s11 upper surface, s12 lower surface, s21: bottom surface, s22: vertical surface, s23: inclined surface, s31: one end surface, s32: other end surface, sa: sub-display area, SC1: geometric element setting screen, SC2: display mode setting screen, SC3: matching screen, SC4: Incline Confirmation screen, SI: 3D shape image, SW: Other setting window, TR1: Imaging field of view

Claims (8)

測定対象物の立体形状を示す立体形状データを生成する形状データ生成部と、
前記形状データ生成部により生成された立体形状データに基づいて、測定対象物の立体形状を含む画像を立体形状画像として姿勢変更可能に表示部に表示させる表示制御部と、
前記表示部に表示された立体形状画像上で、幾何要素の指定を受け付ける要素受付部と、
前記要素受付部により受け付けられた幾何要素に基づいて、測定対象物の立体形状に関する幾何的な基準を幾何基準として特定する特定部とを備え、
前記表示制御部は、測定対象物の少なくとも一部分と前記特定部により特定された前記幾何基準との間の距離に応じて、前記立体形状画像のうちの前記少なくとも一部分に対応する部分の表示態様を設定する、三次元形状測定装置。
A shape data generating unit that generates three-dimensional shape data indicating a three-dimensional shape of the measurement object,
Based on the three-dimensional shape data generated by the shape data generating unit, a display control unit that displays an image including the three-dimensional shape of the measurement target on the display unit so that the orientation can be changed as a three-dimensional shape image,
On the three-dimensional shape image displayed on the display unit, an element receiving unit that receives designation of a geometric element,
Based on the geometric element received by the element receiving unit, comprising a specifying unit that specifies a geometric reference regarding the three-dimensional shape of the measurement target as a geometric reference,
The display control unit, according to a distance between at least a part of the measurement target and the geometric reference specified by the specifying unit, a display mode of a part corresponding to the at least part of the three-dimensional shape image 3D shape measuring device to set.
前記特定部は、前記要素受付部により受け付けられた幾何要素に基づいて、前記表示態様が設定されるべき前記少なくとも一部分をさらに特定する、請求項1記載の三次元形状測定装置。 The three-dimensional shape measuring apparatus according to claim 1, wherein the specifying unit further specifies the at least a part in which the display mode is to be set, based on the geometric element received by the element receiving unit. 前記表示態様は、前記少なくとも一部分と前記幾何基準との間の距離に応じた色である、請求項1または2記載の三次元形状測定装置。 The three-dimensional shape measuring apparatus according to claim 1, wherein the display mode is a color corresponding to a distance between the at least a part and the geometric reference. 前記表示制御部は、前記少なくとも一部分と前記特定部により特定された前記幾何基準との幾何的な対比結果を表す指標を前記表示部に表示させるとともに、前記表示部に表示される指標が対比結果を強調して表すように、前記指標の表示態様を調整可能である、請求項1または2記載の三次元形状測定装置。 The display control unit causes the display unit to display an index representing a geometric comparison result between the at least a portion and the geometric reference specified by the specifying unit, and displays the index displayed on the display unit as a comparison result. 3. The three-dimensional shape measuring apparatus according to claim 1, wherein a display mode of the index can be adjusted so as to emphasize. ステージ保持部と、
前記ステージ保持部により保持され、測定対象物が載置されるステージと、
前記ステージに載置される測定対象物にパターンを有する測定光を照射する投光部と、前記測定対象物により反射された測定光を受光して受光量を表す受光信号を出力する受光部とを含むヘッド部と、
前記ヘッド部と前記ステージ保持部とを固定的に連結する連結部とをさらに備え、
前記形状データ生成部は、前記受光部により出力される受光信号に基づいて、前記測定対象物の立体形状を表す点群データを前記立体形状データとして生成する、請求項1〜4のいずれか一項に記載の三次元形状測定装置。
A stage holder,
A stage that is held by the stage holding unit and on which an object to be measured is placed;
A light projecting unit that irradiates a measurement light having a pattern to the measurement object mounted on the stage, and a light receiving unit that receives the measurement light reflected by the measurement object and outputs a light reception signal representing a light reception amount. A head section including
A connection unit that fixedly connects the head unit and the stage holding unit,
5. The shape data generation unit according to claim 1, wherein, based on a light reception signal output by the light reception unit, point group data representing a three-dimensional shape of the measurement target is generated as the three-dimensional shape data. Item 3. The three-dimensional shape measuring device according to item 1.
前記立体形状データに基づいて前記少なくとも一部分と前記幾何基準との間の距離を算出するとともに算出された距離に基づいて前記表示態様と距離との対応関係を設定する対応関係設定部をさらに備え、
前記表示制御部は、前記対応関係設定部により設定された対応関係に基づいて、前記立体形状画像のうちの前記少なくとも一部分に対応する部分の表示態様の設定を行う、請求項1〜5のいずれか一項に記載の三次元形状測定装置。
A correspondence setting unit that calculates a distance between the at least a part and the geometric reference based on the three-dimensional shape data and sets a correspondence between the display mode and the distance based on the calculated distance,
6. The display control unit according to claim 1, wherein the display control unit sets a display mode of a part corresponding to the at least a part of the three-dimensional image based on the correspondence set by the correspondence setting unit. 3. The three-dimensional shape measuring device according to claim 1.
一の測定対象物について一の幾何基準を特定するための一の幾何要素を指定するために使用者により操作される操作部と、
使用者による前記操作部の操作手順をテンプレート情報として記憶するテンプレート記憶部と、
他の測定対象物について、前記一の幾何基準に対応する他の幾何基準を特定するための他の幾何要素を、前記一の測定対象物の立体形状データと、当該他の測定対象物の立体形状データと、前記テンプレート記憶部に記憶されたテンプレート情報とに基づいて指定するテンプレート指定部とをさらに備える、請求項1〜6のいずれか一項に記載の三次元形状測定装置。
An operation unit operated by a user to specify one geometric element for specifying one geometric criterion for one measurement target;
A template storage unit that stores an operation procedure of the operation unit by a user as template information,
For another measurement object, another geometric element for specifying another geometric criterion corresponding to the one geometric criterion, the three-dimensional shape data of the one measurement object, and the three-dimensional shape of the other measurement object. The three-dimensional shape measuring apparatus according to any one of claims 1 to 6, further comprising a template designating unit that designates based on shape data and template information stored in the template storage unit.
処理装置により実行可能な三次元形状測定プログラムであって、
測定対象物の立体形状を示す立体形状データを生成する処理と、
前記生成された立体形状データに基づいて、測定対象物の立体形状を含む画像を立体形状画像として姿勢変更可能に表示部に表示させる処理と、
前記表示部に表示された立体形状画像上で、幾何要素の指定を受け付ける処理と、
前記受け付けられた幾何要素に基づいて、測定対象物の立体形状に関する幾何的な基準を幾何基準として特定する処理とを、前記処理装置に実行させ、
前記表示部に表示させる処理は、測定対象物の少なくとも一部分と前記特定された前記幾何基準との間の距離に応じて、前記立体形状画像のうちの前記少なくとも一部分に対応する部分の表示態様を設定する処理を含む、三次元形状測定プログラム。
A three-dimensional shape measurement program executable by a processing device,
A process of generating three-dimensional shape data indicating a three-dimensional shape of the measurement object;
Based on the generated three-dimensional shape data, a process of displaying an image including the three-dimensional shape of the measurement target on the display unit so that the orientation can be changed as a three-dimensional shape image,
A process of receiving designation of a geometric element on the three-dimensional shape image displayed on the display unit;
Based on the received geometric element, a process of specifying a geometric reference relating to the three-dimensional shape of the measurement target as a geometric reference, causing the processing device to execute the processing,
The processing to be displayed on the display unit, according to a distance between at least a part of the measurement target and the specified geometric reference, a display mode of a part corresponding to the at least part of the three-dimensional shape image. A three-dimensional shape measurement program including a setting process.
JP2018177169A 2018-09-21 2018-09-21 Three-dimensional shape measuring device and three-dimensional shape measuring program Active JP7154084B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018177169A JP7154084B2 (en) 2018-09-21 2018-09-21 Three-dimensional shape measuring device and three-dimensional shape measuring program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018177169A JP7154084B2 (en) 2018-09-21 2018-09-21 Three-dimensional shape measuring device and three-dimensional shape measuring program

Publications (2)

Publication Number Publication Date
JP2020046394A true JP2020046394A (en) 2020-03-26
JP7154084B2 JP7154084B2 (en) 2022-10-17

Family

ID=69901201

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018177169A Active JP7154084B2 (en) 2018-09-21 2018-09-21 Three-dimensional shape measuring device and three-dimensional shape measuring program

Country Status (1)

Country Link
JP (1) JP7154084B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023120833A1 (en) * 2021-12-24 2023-06-29 (주)힉스컴퍼니 Profiling method and device for user convenience
JP7474636B2 (en) 2020-05-22 2024-04-25 株式会社キーエンス Image Inspection System

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017227611A (en) * 2016-06-24 2017-12-28 株式会社キーエンス Three-dimensional measurement device
JP2018031747A (en) * 2016-08-26 2018-03-01 株式会社キーエンス Three-dimensional measuring device
JP2018031746A (en) * 2016-08-26 2018-03-01 株式会社キーエンス Three-dimensional measurement device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017227611A (en) * 2016-06-24 2017-12-28 株式会社キーエンス Three-dimensional measurement device
JP2018031747A (en) * 2016-08-26 2018-03-01 株式会社キーエンス Three-dimensional measuring device
JP2018031746A (en) * 2016-08-26 2018-03-01 株式会社キーエンス Three-dimensional measurement device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7474636B2 (en) 2020-05-22 2024-04-25 株式会社キーエンス Image Inspection System
WO2023120833A1 (en) * 2021-12-24 2023-06-29 (주)힉스컴퍼니 Profiling method and device for user convenience

Also Published As

Publication number Publication date
JP7154084B2 (en) 2022-10-17

Similar Documents

Publication Publication Date Title
US10508902B2 (en) Three-dimensional measurement device
US9970745B2 (en) Measurement target measuring program, measurement target measuring method, and magnifying observation device
US10415958B2 (en) Measuring device
JP6029394B2 (en) Shape measuring device
JP6091864B2 (en) Shape measuring device, shape measuring method, and shape measuring program
JP6112807B2 (en) Shape measuring device, shape measuring method, and shape measuring program
JP6116164B2 (en) Shape measuring device, shape measuring method, and shape measuring program
JP6691838B2 (en) measuring device
JP2018004279A (en) Measurement apparatus
JP6279048B2 (en) Shape measuring device
JP2014055815A (en) Shape measuring device, shape measuring method, and shape measuring program
JP6161253B2 (en) Shape measuring device, shape measuring method, and shape measuring program
JP2016200607A (en) Shape measurement device, shape measurement method, and shape measurement program
JP5956911B2 (en) Shape measuring device, shape measuring method, and shape measuring program
JP2018004281A (en) Measurement apparatus
JP7154084B2 (en) Three-dimensional shape measuring device and three-dimensional shape measuring program
JP6695748B2 (en) measuring device
JP6476252B2 (en) Shape measuring device, shape measuring method, and shape measuring program
JP2014055814A (en) Shape measuring device, shape measuring method, and shape measuring program
US10379331B2 (en) Magnifying observation apparatus
JP5956932B2 (en) Shape measuring device, shape measuring method, and shape measuring program
JP6025466B2 (en) Shape measuring device, shape measuring method, and shape measuring program
JP6799893B2 (en) Three-dimensional measuring device
JP6695747B2 (en) measuring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210329

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221004

R150 Certificate of patent or registration of utility model

Ref document number: 7154084

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150