JP6362058B2 - Test object measuring apparatus and article manufacturing method - Google Patents

Test object measuring apparatus and article manufacturing method Download PDF

Info

Publication number
JP6362058B2
JP6362058B2 JP2013120158A JP2013120158A JP6362058B2 JP 6362058 B2 JP6362058 B2 JP 6362058B2 JP 2013120158 A JP2013120158 A JP 2013120158A JP 2013120158 A JP2013120158 A JP 2013120158A JP 6362058 B2 JP6362058 B2 JP 6362058B2
Authority
JP
Japan
Prior art keywords
dimensional
test object
image
unit
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013120158A
Other languages
Japanese (ja)
Other versions
JP2014238298A5 (en
JP2014238298A (en
Inventor
卓典 植村
卓典 植村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013120158A priority Critical patent/JP6362058B2/en
Priority to EP14168464.7A priority patent/EP2813809A1/en
Priority to US14/295,061 priority patent/US9267790B2/en
Publication of JP2014238298A publication Critical patent/JP2014238298A/en
Publication of JP2014238298A5 publication Critical patent/JP2014238298A5/ja
Application granted granted Critical
Publication of JP6362058B2 publication Critical patent/JP6362058B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、被検物を測定して、被検物の寸法、公差や角度などの形状情報を算出する計
測装置よび物品の製造方法に関する。
The present invention measures the test object, the dimensions of the object, a method of manufacturing a measuring device Contact and articles to calculate the shape information such as tolerance and angle.

被検物の寸法を計測する装置のひとつに画像計測装置がある。画像計測装置は被検物を撮像して被検物の画像を取得し、画像の強度変化データから被検物のエッジ(縁、端)を検出し、検出した複数のエッジの間の距離を算出することによって、被検物の寸法を計測する。被検物全体の画像の強度変化データからエッジを検出する方法では、被検物の面取り部の内側や表面テクスチャ(表面凹凸)をエッジであると誤検出する可能性がある。このため、画像の強度変化データからエッジの検出を行う範囲(エッジ検出範囲)を真のエッジ周辺の狭い範囲に設定することによって、誤検出の可能性を低くすることができる。従来の計測装置では、被検物のエッジを正確に検出するために、エッジであると思われる部分を作業者が画像から判断し、エッジ検出範囲を手動で設定する必要があった。   An image measuring device is one of devices for measuring the dimensions of a test object. The image measuring device captures the test object, acquires an image of the test object, detects the edge (edge) of the test object from the intensity change data of the image, and determines the distance between the detected multiple edges. By calculating, the size of the test object is measured. In the method of detecting the edge from the intensity change data of the image of the entire test object, there is a possibility that the inside of the chamfered portion of the test object or the surface texture (surface unevenness) is erroneously detected as an edge. For this reason, the possibility of erroneous detection can be reduced by setting the range (edge detection range) for edge detection from the intensity change data of the image to a narrow range around the true edge. In the conventional measuring apparatus, in order to accurately detect the edge of the object to be detected, it is necessary for the operator to determine from the image a portion that is supposed to be an edge and manually set the edge detection range.

そこで、このような作業者の手間を少なくするために、特許文献1乃至2の方法が提案されている。特許文献1では、被検物全体の2次元画像を2値化して輪郭線(仮エッジ)を抽出し、輪郭線の周辺にエッジ検出範囲を自動で設定して、その範囲内でより正確にエッジの位置を検出する計測装置が提案されている。特許文献2では、被検物の3次元測定を行い、被検物の3次元点群データから被検物のエッジを抽出する計測装置が提案されている。   Therefore, in order to reduce the labor of such workers, methods of Patent Documents 1 and 2 have been proposed. In Patent Document 1, a two-dimensional image of the entire test object is binarized to extract a contour line (provisional edge), and an edge detection range is automatically set around the contour line, and more accurately within that range. A measuring device that detects the position of an edge has been proposed. Patent Document 2 proposes a measuring device that performs three-dimensional measurement of a test object and extracts an edge of the test object from three-dimensional point cloud data of the test object.

特開2012−42324号公報JP 2012-42324 A 特許第4400894号公報Japanese Patent No. 4400594

先に述べたように、画像全体の強度変化データからエッジを検出する方法ではエッジ以外の部分をエッジとして誤検出する可能性がある。そのため、特許文献1に記載の方法では、被検物に表面テクスチャがある場合に被検物全体の2次元画像を2値化しても、表面テクスチャの部分で輪郭線(仮エッジ)の誤検出の可能性があり、その後のエッジ検出範囲の設定を正しくできない。   As described above, in the method of detecting an edge from the intensity change data of the entire image, there is a possibility that a part other than the edge is erroneously detected as an edge. For this reason, in the method described in Patent Document 1, even if a two-dimensional image of the entire test object is binarized when the test object has a surface texture, a contour line (provisional edge) is erroneously detected in the surface texture portion. The subsequent edge detection range cannot be set correctly.

また、特許文献2に記載の方法では、3次元データを用いるため、表面テクスチャがエッジ検出に及ぼす影響は小さい。しかし、3次元点群データのデータ量と計測時間にトレードオフの関係があるため、実用上は高解像度(高密度)の3次元点群データを取得することは困難である。仮に高解像度の3次元点群データが得られたとしても、膨大な3次元点群データについて画像処理を実行するには長時間を要するからである。一方、低解像度の3次元点群データを取得した場合には精度が低くなり、高精度にエッジの位置を検出することができなかった。   Further, since the method described in Patent Document 2 uses three-dimensional data, the influence of the surface texture on edge detection is small. However, since there is a trade-off relationship between the data amount of 3D point cloud data and measurement time, it is difficult to obtain high resolution (high density) 3D point cloud data in practice. This is because even if high-resolution 3D point cloud data is obtained, it takes a long time to perform image processing on a large amount of 3D point cloud data. On the other hand, when low-resolution three-dimensional point cloud data is acquired, the accuracy is low, and the position of the edge cannot be detected with high accuracy.

そこで本発明は、被検物のエッジを高精度に検出することを目的とする。   Therefore, an object of the present invention is to detect the edge of a test object with high accuracy.

上記課題を解決する本発明の一側面としての計測装置は、被検物を計測する計測装置であって、前記被検物を撮像する撮像素子と、前記被検物からの光を前記撮像素子へ導く光学系とを用いて、前記被検物の第1画像を取得する2次元測定部と、前記被検物へ光を投影し、前記被検物で反射された光を前記光学系によって撮像素子へ導いて検出される第2画像から前記被検物の3次元データを取得する3次元測定部と、前記3次元データを用いて前記被検物の仮エッジを検出し、検出された仮エッジを前記第1画像に重ね合わせることにより前記第1画像におけるエッジ検出範囲を設定し、前記第1画像を用いて前記エッジ検出範囲において前記被検物のエッジを検出することにより前記被検物の形状情報を算出する算出部とを有しており、前記第1画像は前記3次元データより解像度が高いことを特徴とする。 A measuring apparatus according to one aspect of the present invention for solving the above-described problems is a measuring apparatus for measuring a test object, the image sensor for imaging the test object, and light from the test object for the image sensor. A two-dimensional measurement unit that acquires a first image of the test object using an optical system that guides to the test object, and projects light onto the test object, and reflects the light reflected by the test object through the optical system A three-dimensional measuring unit that acquires three-dimensional data of the test object from a second image that is detected by being guided to an image sensor, and a temporary edge of the test object is detected using the three-dimensional data, and is detected An edge detection range in the first image is set by superimposing a temporary edge on the first image, and the test object is detected by detecting an edge of the test object in the edge detection range using the first image. and possess a calculation unit that calculates shape information of the object, Serial first image is characterized by a higher resolution than the 3-dimensional data.

本発明によれば、被検物のエッジを高精度に検出することができる。   According to the present invention, the edge of the test object can be detected with high accuracy.

第1実施形態における計測装置の概略図である。It is the schematic of the measuring device in 1st Embodiment. 算出部140による算出プロセスを示したフロー図である。5 is a flowchart showing a calculation process by a calculation unit 140. FIG. 測定データ、算出データおよびエッジ検出範囲を示す図である。It is a figure which shows measurement data, calculation data, and an edge detection range. 第2実施形態における計測装置の概略図である。It is the schematic of the measuring device in 2nd Embodiment. 第3実施形態における計測装置の概略図である。It is the schematic of the measuring device in 3rd Embodiment. 第4実施形態における計測装置の概略図である。It is the schematic of the measuring device in 4th Embodiment.

以下に、本発明の好ましい実施形態を添付の図面に基づいて詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

(第1実施形態)
図1は第1実施形態における被検物170を計測する計測装置10の概略図である。計測装置10は、被検物170の3次元測定を行い、高さ(z)データと縦横(x、y)の2次元データとを含む3次元データを出力する3次元測定部120を有する。計測装置10の3次元測定部120は光切断法の原理を利用する測定ユニットである。3次元測定部120は、ライン状に被検物170を照明するライン照明ユニット101、撮像部(光検出部)102と算出部108で構成される。ライン照明ユニット101によりライン状に被検物170を照明し、被検物170の形状によって生じた照明ラインの歪みを撮像部102で測定して、算出部108が、測定データから被検物170の3次元形状を算出する。
(First embodiment)
FIG. 1 is a schematic diagram of a measuring apparatus 10 that measures a test object 170 in the first embodiment. The measurement apparatus 10 includes a three-dimensional measurement unit 120 that performs three-dimensional measurement of the test object 170 and outputs three-dimensional data including height (z) data and vertical and horizontal (x, y) two-dimensional data. The three-dimensional measurement unit 120 of the measurement apparatus 10 is a measurement unit that uses the principle of the light cutting method. The three-dimensional measurement unit 120 includes a line illumination unit 101 that illuminates the test object 170 in a line shape, an imaging unit (light detection unit) 102, and a calculation unit 108. The line illumination unit 101 illuminates the test object 170 in a line shape, the distortion of the illumination line caused by the shape of the test object 170 is measured by the imaging unit 102, and the calculation unit 108 calculates the test object 170 from the measurement data. The three-dimensional shape is calculated.

ライン照明ユニット101は不図示のガルバノミラーによってライン状の照明位置を走査できるようになっており、これによって、逐次的に被検物170全体とその周辺を照明することが可能となっている。また、被検物170を支える搭載台106は不図示の回転ステージによって回転可能となっている。回転ステージによって、被検物170をライン照明ユニット101および撮像部102に対して相対的に回転させて、逐次的に撮像部102で画像を取得する。これによって、全ての方位から被検物170を測定することができる。撮像部102によって撮像された画像のデータは算出部108へ送信される。算出部108は、送信された画像を用いて演算処理する演算部を有する。演算部は、取得した画像からラインの歪み量を算出し、ライン照明ユニット101と撮像部102の配置に関する既知の情報を用いて、被検物170の3次元点群データを算出する。3次元点群データは、被検物170の高さ(図1のz方向)のデータと縦横(x、y方向)の2次元データとを含む。   The line illumination unit 101 can scan a line-shaped illumination position with a galvanometer mirror (not shown), and thereby it is possible to sequentially illuminate the entire test object 170 and its periphery. Further, the mounting table 106 that supports the object 170 can be rotated by a rotary stage (not shown). The object 170 is rotated relative to the line illumination unit 101 and the imaging unit 102 by the rotation stage, and images are sequentially acquired by the imaging unit 102. Thereby, the test object 170 can be measured from all directions. Data of the image captured by the imaging unit 102 is transmitted to the calculation unit 108. The calculation unit 108 includes a calculation unit that performs calculation processing using the transmitted image. The calculation unit calculates a distortion amount of the line from the acquired image, and calculates three-dimensional point cloud data of the test object 170 using known information regarding the arrangement of the line illumination unit 101 and the imaging unit 102. The three-dimensional point cloud data includes data on the height (z direction in FIG. 1) of the test object 170 and two-dimensional data in the vertical and horizontal directions (x and y directions).

計測装置10は、x、y方向において被検物170の2次元測定を行い、x、y方向の2次元画像データを出力する2次元測定部130を有する。2次元測定部130は、インコヒーレント光源103、光学系104、撮像部110を有する。   The measuring apparatus 10 includes a two-dimensional measurement unit 130 that performs two-dimensional measurement of the test object 170 in the x and y directions and outputs two-dimensional image data in the x and y directions. The two-dimensional measuring unit 130 includes an incoherent light source 103, an optical system 104, and an imaging unit 110.

インコヒーレント光源103は複数の光源素子から構成されており、複数の光源素子は、被検物170が配置される場所を囲むようにリング状に配置されている。各光源素子は個別に点灯を制御することができ、これによって所望の方向から被検物170を照明することが可能である。   The incoherent light source 103 is composed of a plurality of light source elements, and the plurality of light source elements are arranged in a ring shape so as to surround a place where the test object 170 is arranged. Each light source element can control lighting individually, and can thereby illuminate the test object 170 from a desired direction.

インコヒーレント光源103から被検物170に照明された光は、被検物170によって反射または散乱され、光学系104によって集光される。光学系104によって被検物170と撮像部110の受光面は共役関係で結ばれており、撮像部110は被検物170を撮像して被検物170の2次元画像データを出力する。2次元画像データは、被検物170やその周辺からの光が投影された撮像部110の撮影面における光強度分布を数値で表したデータである。2次元画像データはモノクロデータであってもカラーデータであってもよい。光学系104はレンズ104aとレンズ104b、レンズ104aとレンズ104bの間に配置された虹彩絞り105を有する。そのため、虹彩絞り105の開口径を変えることで、光学系104の解像力を調整可能となっている。横方向(x、y方向)の寸法測定精度は撮像部110の解像度に依存するため、撮像部110の画素数は多い方が望ましい。撮像部110によって出力された2次元画像のデータは算出部140へ送信される。   The light illuminated on the test object 170 from the incoherent light source 103 is reflected or scattered by the test object 170 and collected by the optical system 104. The optical system 104 connects the test object 170 and the light receiving surface of the imaging unit 110 in a conjugate relationship, and the imaging unit 110 captures the test object 170 and outputs two-dimensional image data of the test object 170. The two-dimensional image data is data representing numerically the light intensity distribution on the imaging surface of the imaging unit 110 onto which light from the test object 170 and its periphery is projected. The two-dimensional image data may be monochrome data or color data. The optical system 104 includes a lens 104a and a lens 104b, and an iris diaphragm 105 disposed between the lens 104a and the lens 104b. Therefore, the resolving power of the optical system 104 can be adjusted by changing the aperture diameter of the iris diaphragm 105. Since the dimension measurement accuracy in the horizontal direction (x, y direction) depends on the resolution of the imaging unit 110, it is desirable that the number of pixels of the imaging unit 110 is large. The data of the two-dimensional image output by the imaging unit 110 is transmitted to the calculation unit 140.

3次元点群データと2次元画像データとの解像度の差に制約はないが、3次元点群データの解像度が高いと演算処理の時間が長くなるため、3次元点群データの解像度をなるべく低くして、より高い精度でのエッジの検出には2次元画像を用いる方が望ましい。また、3次元測定において、予め想定されるエッジ周辺領域では解像度を相対的に高くして測定し、エッジから離れた領域では解像度を相対的に低くして測定しても構わない。ここで、解像度(密度)は、単位長さ(例えば1インチ)の中に画素やピクセルデータがどのくらい並ぶかで表現され、例えばppi(pixels per inch)という単位で表される。   There is no restriction on the difference in resolution between the 3D point cloud data and the 2D image data. However, if the resolution of the 3D point cloud data is high, the processing time becomes long, so the resolution of the 3D point cloud data is as low as possible. Thus, it is desirable to use a two-dimensional image for edge detection with higher accuracy. Further, in the three-dimensional measurement, measurement may be performed with a relatively high resolution in a region around the edge assumed in advance, and with a relatively low resolution in a region far from the edge. Here, the resolution (density) is expressed by how many pixels and pixel data are arranged in a unit length (for example, 1 inch), and is expressed by a unit of ppi (pixels per inch), for example.

計測装置10は、3次元点群データと2次元画像データを用いて被検物170のエッジ位置を高精度に自動で計測し、計測したエッジ位置から被検物170の寸法、公差や角度などの形状情報を算出する算出部(算出装置)140を有する。図2および図3を用いてこの算出プロセスを説明する。図2は算出部140による算出プロセスを示したフロー図である。算出プロセスはS101乃至S109のステップから成る。図3は、測定データ、この算出プロセスを適用して得られた算出データおよびエッジ検出範囲を示した図である。   The measuring apparatus 10 automatically measures the edge position of the test object 170 with high accuracy using the three-dimensional point cloud data and the two-dimensional image data, and the dimension, tolerance, angle, etc. of the test object 170 from the measured edge position. A calculation unit (calculation device) 140 for calculating the shape information. This calculation process will be described with reference to FIGS. FIG. 2 is a flowchart showing a calculation process by the calculation unit 140. The calculation process includes steps S101 to S109. FIG. 3 is a diagram showing measurement data, calculation data obtained by applying this calculation process, and an edge detection range.

算出部140の取得部は、まず3次元測定部120から出力された被検物170の3次元点群データを取得する(S101)。図3(a)に、形状が直方体の被検物について測定して得られた3次元点群データ181を示す。被検物の各点における3次元測定データは黒または灰色で示されている。点線は見易さの観点から補助的に示した被検物のエッジである。この点線のデータは3次元点群データには含まれていない。本実施形態の計測装置10の場合、被検物170を撮像部102に対して相対的に回転させることにより、被検物170の4つの側面についても3次元点群データが得られる構成となっている。なお、被検物の側面についても3次元点群データがあれば、データ量が増える分、エッジを正確に検出することができる。ただし、被検物の側面についての3次元点群データが必ずしも必要なわけではなく、本発明を適用できる計測装置はこのような条件に限定されるものではない。   The acquisition unit of the calculation unit 140 first acquires the three-dimensional point cloud data of the test object 170 output from the three-dimensional measurement unit 120 (S101). FIG. 3A shows three-dimensional point group data 181 obtained by measuring a specimen having a rectangular parallelepiped shape. The three-dimensional measurement data at each point of the test object is shown in black or gray. The dotted line is the edge of the test object that is supplementarily shown from the viewpoint of visibility. This dotted line data is not included in the three-dimensional point cloud data. In the measurement apparatus 10 of the present embodiment, the three-dimensional point cloud data can be obtained for the four side surfaces of the test object 170 by rotating the test object 170 relative to the imaging unit 102. ing. Note that if there is 3D point cloud data on the side surface of the test object, the edge can be accurately detected as the data amount increases. However, three-dimensional point cloud data on the side surface of the test object is not necessarily required, and the measuring apparatus to which the present invention can be applied is not limited to such conditions.

算出部140では3次元点群データを用いて被検物170の仮エッジを検出する(S102)。図3(b)に、図3(a)の3次元点群データ181から検出された仮エッジ182(実線および点線)を示す。3次元点群データ181から仮エッジ182を検出する方法は任意のアルゴリズムを用いることができる。例えば、3次元点群データの深さ(高さ)と法線の変化に基づいてエッジを検出する方法や、3次元点群データから三角ポリゴンを生成して、隣接するポリゴンの連続性や法線の方向、距離に基づいてエッジを検出する方法が知られている。これらの方法は被検物の深さ(高さ)の情報を用いるため、表面テクスチャの識別が可能であり、表面テクスチャの影響を受けにくく、真のエッジを高精度に検出することが可能である。ただし、3次元点群データ181のうち、光学系104の光軸と直交する横方向(x、y方向)のデータの密度が2次元画像データよりも低いために、エッジ位置の検出精度は高くはない。そのため、後述のように、2次元画像データを用いてより高い精度でエッジ位置を求める。   The calculation unit 140 detects the temporary edge of the test object 170 using the three-dimensional point cloud data (S102). FIG. 3B shows temporary edges 182 (solid line and dotted line) detected from the three-dimensional point group data 181 shown in FIG. An arbitrary algorithm can be used as a method for detecting the temporary edge 182 from the three-dimensional point cloud data 181. For example, a method for detecting an edge based on a change in depth (height) and normal of 3D point cloud data, or a method for generating a triangular polygon from 3D point cloud data, and a method for determining the continuity and method of adjacent polygons A method for detecting an edge based on the direction and distance of a line is known. Since these methods use information on the depth (height) of the test object, it is possible to identify the surface texture, not to be affected by the surface texture, and to detect the true edge with high accuracy. is there. However, since the density of the data in the horizontal direction (x, y direction) orthogonal to the optical axis of the optical system 104 in the three-dimensional point group data 181 is lower than that in the two-dimensional image data, the edge position detection accuracy is high. There is no. Therefore, as described later, the edge position is obtained with higher accuracy using the two-dimensional image data.

次に、算出部140は、3次元点群データ181から、2次元測定部による測定において最適なフォーカス位置を算出する(S103)。そして、不図示の制御部により、搭載台106を保持して移動するZ軸ステージ150をZ方向に移動することでフォーカス位置を調整する。フォーカス位置は撮像部110で被検物170のエッジが最も鮮明に撮像されるように決定される。算出部140は、3次元点群データ181から仮エッジのそれぞれについて、高さの情報を算出する。そして、各仮エッジの高さの情報から、ピントが合うようなフォーカス位置を各仮エッジについて算出する。Z軸ステージ150で被検物170を最適なフォーカス位置に移動させて撮像部110で逐次的に被検物170を撮像することにより、それぞれの仮エッジについての鮮明な画像を取得することができる。フォーカス調整部としてZ軸ステージ150を用いたが、光学系104の焦点位置を変更することによってフォーカス位置を調整してもよい。このステップは光学系104がテレセントリックで焦点深度が広い場合は省略することができる。一方、光学系104の解像力を高めるために虹彩絞り105の開口径を大きくする場合には、焦点深度が浅くなるので、フォーカスを調整することが望ましい。   Next, the calculation unit 140 calculates an optimum focus position in the measurement by the two-dimensional measurement unit from the three-dimensional point cloud data 181 (S103). Then, the control unit (not shown) adjusts the focus position by moving the Z-axis stage 150 that moves while holding the mounting table 106 in the Z direction. The focus position is determined by the imaging unit 110 so that the edge of the test object 170 is imaged most clearly. The calculation unit 140 calculates height information for each temporary edge from the three-dimensional point cloud data 181. Then, a focus position that is in focus is calculated for each temporary edge from the information on the height of each temporary edge. By moving the test object 170 to the optimum focus position by the Z-axis stage 150 and sequentially imaging the test object 170 by the imaging unit 110, it is possible to acquire a clear image for each temporary edge. . Although the Z-axis stage 150 is used as the focus adjustment unit, the focus position may be adjusted by changing the focal position of the optical system 104. This step can be omitted if the optical system 104 is telecentric and the depth of focus is wide. On the other hand, when the aperture diameter of the iris diaphragm 105 is increased in order to increase the resolving power of the optical system 104, it is desirable to adjust the focus because the depth of focus becomes shallow.

次に、算出部140の取得部は、撮像部110によって撮像された被検物170の2次元画像データを取得する(S104)。図3(c)は上述した直方体の被検物についての2次元画像183である。2次元画像183の光の強弱が色の濃淡で表されている。この被検物は表面に縞状のテクスチャを有しているため、2値化など単純な方法では、縞をエッジと誤検出する可能性がある。   Next, the acquisition unit of the calculation unit 140 acquires two-dimensional image data of the test object 170 imaged by the imaging unit 110 (S104). FIG. 3C is a two-dimensional image 183 of the above-described rectangular parallelepiped test object. The intensity of light in the two-dimensional image 183 is represented by color shading. Since this test object has a striped texture on the surface, a simple method such as binarization may erroneously detect the stripe as an edge.

次に、算出部140は2次元画像データと3次元点群データとの位置合わせを行う(S105)。予め既知の基準物体を両方の撮像部で撮像するなどして、2つの画像の向きや倍率の対応関係を把握しておき、その対応関係に基づいて位置合わせは実行される。撮像部や光学系を正確にアライメントするなど、ハードウェアによって3次元点群データと2次元画像データとの位置を対応付けられれば、このステップを省略することができる。   Next, the calculation unit 140 performs alignment between the two-dimensional image data and the three-dimensional point cloud data (S105). The correspondence relationship between the orientations and magnifications of the two images is grasped by, for example, capturing a known reference object with both imaging units in advance, and alignment is executed based on the correspondence relationship. This step can be omitted if the positions of the three-dimensional point cloud data and the two-dimensional image data are associated with each other by hardware, such as accurately aligning the imaging unit and the optical system.

次に、2次元画像データと3次元点群データとが位置合わせされた状態において、S102で検出された仮エッジを2次元画像において重ね合わせる(S106)。上述のように、エッジの誤検出の可能性を低減して2次元画像データから真のエッジを高精度に検出するためには、2次元画像におけるエッジ検出範囲(ウィンドウ領域)を設定する必要がある。そのため、次に、2次元画像におけるエッジ検出範囲を設定する。   Next, in a state where the two-dimensional image data and the three-dimensional point cloud data are aligned, the temporary edge detected in S102 is superimposed on the two-dimensional image (S106). As described above, it is necessary to set an edge detection range (window region) in a two-dimensional image in order to reduce the possibility of erroneous edge detection and detect a true edge from two-dimensional image data with high accuracy. is there. Therefore, next, an edge detection range in the two-dimensional image is set.

算出部140は、2次元画像データにおいて投影された仮エッジの周辺にエッジ検出範囲が設定されるように、エッジ検出範囲を自動で設定する(S107)。このように、エッジ検出範囲を、仮エッジの周辺の限られた狭い範囲に設定することにより、エッジの誤検出の可能性を低下させ、エッジ位置を高精度に検出する。図3(d)は、直方体の被検物の2次元画像183について、重ね合わされた仮エッジ184(黒実線)と、その周辺に設定されたエッジ検出範囲185(黒点線)を示した図である。   The calculation unit 140 automatically sets the edge detection range so that the edge detection range is set around the temporary edge projected in the two-dimensional image data (S107). In this way, by setting the edge detection range to a limited narrow range around the temporary edge, the possibility of erroneous detection of the edge is reduced, and the edge position is detected with high accuracy. FIG. 3D is a diagram showing a temporary edge 184 (black solid line) superimposed on a two-dimensional image 183 of a rectangular parallelepiped test object, and an edge detection range 185 (black dotted line) set in the vicinity thereof. is there.

次に、算出部140は、設定されたエッジ検出範囲185の内部の2次元画像からエッジを検出する(S108)。図3(e)は、直方体の被検物の2次元画像183について、検出したエッジ186(黒実線)を示した図である。エッジ検出範囲が限定されているため、2次元画像全体においてエッジを検出するよりは、被検物のテクスチャによってエッジを誤検出する可能性が小さくなっている。したがって、計測装置10は、測定対象とする被検物のエッジの真の位置をより高精度に計測することができる。また、エッジ検出範囲が限定されているため、エッジ検出のための演算時間が短縮されている。   Next, the calculation unit 140 detects an edge from the two-dimensional image inside the set edge detection range 185 (S108). FIG. 3E is a diagram showing a detected edge 186 (black solid line) in the two-dimensional image 183 of the rectangular parallelepiped test object. Since the edge detection range is limited, the possibility of erroneously detecting an edge due to the texture of the test object is smaller than detecting an edge in the entire two-dimensional image. Therefore, the measuring device 10 can measure the true position of the edge of the test object to be measured with higher accuracy. Further, since the edge detection range is limited, the calculation time for edge detection is shortened.

また、被検物に面取り部がある場合には、エッジ検出範囲を面取り部に限って設定することで、面取り部の角面や丸面をより詳細な位置で検出でき、測定対象とする面取り部におけるエッジの真の位置を高精度に特定することができる。   In addition, when the test object has a chamfered part, the edge detection range is set only to the chamfered part, so that the chamfered part can be detected at a more detailed position and the chamfered object to be measured. The true position of the edge in the part can be specified with high accuracy.

次に、算出部140は、2次元画像データを用いて、高精度に計測された複数のエッジの位置から、被検物170の寸法、幾何公差、角度、直交度や真円度などの形状情報を算出する(S109)。形状情報は2次元画像データから得られるため、2次元の情報に関する。計測装置10ではエッジ位置が高精度に計測されているため、被検物170の寸法や幾何公差等の値をより正確に求めることができる。   Next, the calculation unit 140 uses the two-dimensional image data to calculate the shape, geometric tolerance, angle, orthogonality, roundness, and the like of the test object 170 from the positions of a plurality of edges measured with high accuracy. Information is calculated (S109). Since shape information is obtained from two-dimensional image data, it relates to two-dimensional information. Since the edge position is measured with high accuracy in the measuring apparatus 10, values such as dimensions and geometrical tolerances of the test object 170 can be obtained more accurately.

このように、本実施形態の計測装置10によれば、3次元測定部によって得られた3次元データに含まれる被検物の深さ(高さ)の情報を用いるため、表面テクスチャの影響を受けずに真のエッジを検出でき、エッジの誤検出を防止することができる。さらに、その真のエッジの位置を含む周囲の限定された範囲にエッジ検出範囲を設定することにより、被検物のエッジの位置を高精度に特定することができる。   As described above, according to the measurement apparatus 10 of the present embodiment, since the information on the depth (height) of the test object included in the three-dimensional data obtained by the three-dimensional measurement unit is used, the influence of the surface texture is reduced. The true edge can be detected without receiving it, and the erroneous detection of the edge can be prevented. Furthermore, by setting the edge detection range within a limited range including the true edge position, the edge position of the test object can be specified with high accuracy.

なお、本実施形態では、インコヒーレント光源103によって被検物170が照射され、その反射光または散乱光を撮像部110によって測定する構成になっているが、本発明はこのような構成には限定されない。例えば、搭載台106をガラス板など透明な材質として背後(下側)から被検物170を照明し、被検物170によって減光または遮光されて形成される影を撮像部110で撮像するような構成にしても良い。   In the present embodiment, the test object 170 is irradiated by the incoherent light source 103, and the reflected light or scattered light is measured by the imaging unit 110. However, the present invention is limited to such a configuration. Not. For example, the mounting base 106 is made of a transparent material such as a glass plate, and the test object 170 is illuminated from the back (lower side), and a shadow formed by the test object 170 being dimmed or shielded is imaged by the imaging unit 110. Any configuration may be used.

また、撮像部には、CCDなどの撮像素子を用いることもでき、ラインセンサやフォトセンサを用いることもできる。ラインセンサやフォトセンサの場合には、それらを走査することで画像を取得する。   In addition, an imaging element such as a CCD can be used for the imaging unit, and a line sensor or a photosensor can also be used. In the case of a line sensor or a photo sensor, an image is acquired by scanning them.

(第2実施形態)
図4は第2実施形態の計測装置20の概略図である。第1実施形態と重複する部材については説明を省略する。
(Second Embodiment)
FIG. 4 is a schematic diagram of the measuring apparatus 20 according to the second embodiment. The description of the same members as those in the first embodiment is omitted.

計測装置20の3次元測定部220は、撮像部としてTOF(Time−OF−FLIGHT:タイム・オブ・フライト)カメラ210を有する。TOFカメラは、光源から射出された光が被検物に到達して、被検物で反射された後、カメラに到達するまでの光の飛行時間(Time−OF−FLIGHT)を測定して距離が算出するタイム・オブ・フライト法を用いるカメラである。   The three-dimensional measuring unit 220 of the measuring device 20 includes a TOF (Time-OF-FLIGHT: Time of Flight) camera 210 as an imaging unit. The TOF camera measures the flight time (Time-OF-FLIGHT) until light reaches the object after the light emitted from the light source reaches the object and is reflected by the object. Is a camera using the time-of-flight method calculated by

TOFカメラには、いくつかの方式がある。LEDなどのパルス光源で被検物を照明し、カメラで光パルスがカメラに到達するまでの時間を測定し、その時間から距離を算出するのが光パルス法である。光強度を正弦波状に変調し、カメラに到達した光の位相の変化をカメラで測定し、位相の変化から距離を算出するのが位相差法である。本実施形態の3次元測定部220は光パルス法を用いているが、TOFカメラの方式は限定されない。   There are several types of TOF cameras. The light pulse method is to illuminate a test object with a pulsed light source such as an LED, measure the time until the light pulse reaches the camera, and calculate the distance from the time. In the phase difference method, the light intensity is modulated in a sine wave shape, the phase change of the light reaching the camera is measured by the camera, and the distance is calculated from the phase change. Although the three-dimensional measurement unit 220 of this embodiment uses the optical pulse method, the method of the TOF camera is not limited.

3次元測定部220は、パルス光源203と、パルス光源203およびTOFカメラ210を同期するドライバ204を有する。パルス光源203によって被検物170に光パルスが照射され、被検物170によって反射および散乱された光パルスが光学系104によって集光される。パルス光源203は近赤外領域の波長の光パルスを射出するため、近赤外光を透過し、可視光を反射する波長フィルター211を設けることで、TOFカメラ210に近赤外光だけを導くことができる。   The three-dimensional measuring unit 220 includes a pulse light source 203 and a driver 204 that synchronizes the pulse light source 203 and the TOF camera 210. A light pulse is applied to the test object 170 by the pulse light source 203, and the light pulse reflected and scattered by the test object 170 is collected by the optical system 104. Since the pulse light source 203 emits a light pulse having a wavelength in the near-infrared region, only the near-infrared light is guided to the TOF camera 210 by providing a wavelength filter 211 that transmits near-infrared light and reflects visible light. be able to.

光学系104によって被検物170とTOFカメラ210は共役関係にある。TOFカメラ210は、被検物170によって反射または散乱された光パルスを撮像し、パルスの時間差(出射から到達までの時間)から距離を算出する。TOFカメラ210は、被検物の各位置について算出された距離のデータを、被検物170の3次元点群データとして算出部140に出力する。   The test object 170 and the TOF camera 210 are in a conjugate relationship by the optical system 104. The TOF camera 210 images a light pulse reflected or scattered by the test object 170 and calculates a distance from the time difference between pulses (time from emission to arrival). The TOF camera 210 outputs distance data calculated for each position of the test object to the calculation unit 140 as 3D point cloud data of the test object 170.

TOFカメラは複雑なセンサーから構成されているため、現在は高画素化に限界がある。このため、TOFカメラで取得される3次元点群データは密度が2次元測定部による2次元画像データよりも低いために、エッジ位置の検出精度は高くはない。そのため、後述のように、2次元画像を用いてより高い精度でエッジ位置を求める。   Since the TOF camera is composed of complex sensors, there is currently a limit to increasing the number of pixels. For this reason, since the density of the three-dimensional point cloud data acquired by the TOF camera is lower than the two-dimensional image data obtained by the two-dimensional measuring unit, the edge position detection accuracy is not high. Therefore, as described later, the edge position is obtained with higher accuracy using a two-dimensional image.

計測装置20の2次元測定部230は、インコヒーレント光源103の他に、被検物170を背後(下側)から透過照明する照明手段200を有する。照明手段200は、照明用の光源201と、レンズ202a、202bを含むビームエキスパンダー202を有する。光源201は、例えば緑色や赤色のLEDである。光源201から射出された光は、ビームエキスパンダー202によってビーム径が拡大され、搭載台205を透過して被検物170を照明する。搭載台205は、ガラスやサファイアなどの透明な材料で製作されているため光を透過する。被検物170が遮光性の材料である場合、被検物170が光を遮ることによって形成された影は、光学系104によって撮像部110に結像される。透過照明は、反射照明より高いコントラストの画像が得られるため、特に、被検物の輪郭部の測定に適している。   In addition to the incoherent light source 103, the two-dimensional measuring unit 230 of the measuring device 20 includes an illuminating unit 200 that transmits and illuminates the object 170 from the back (lower side). The illumination unit 200 includes a light source 201 for illumination and a beam expander 202 including lenses 202a and 202b. The light source 201 is, for example, a green or red LED. The light emitted from the light source 201 is enlarged in beam diameter by the beam expander 202, passes through the mounting table 205, and illuminates the test object 170. Since the mounting table 205 is made of a transparent material such as glass or sapphire, it transmits light. When the test object 170 is a light-shielding material, a shadow formed by the test object 170 blocking light is imaged on the imaging unit 110 by the optical system 104. Transmitted illumination is particularly suitable for measuring the contour of a test object because an image with higher contrast than reflected illumination is obtained.

2次元測定部230は、反射照明を実現するために、第1実施形態と同様にインコヒーレント光源103も有している。2次元測定部230は反射照明と透過照明のいずれかを選択して、切り替えて使用することができる。   The two-dimensional measuring unit 230 also has an incoherent light source 103 as in the first embodiment in order to realize reflected illumination. The two-dimensional measuring unit 230 can select and use either reflected illumination or transmitted illumination.

2次元測定部230の撮像部110によって撮像された2次元画像のデータは、算出部140へ出力される。算出部140は、第1実施形態と同様に、図2の算出フローに従って、3次元点群データと2次元画像データを用いて、被検物のエッジを検出して、被検物の形状情報を算出する。   The data of the two-dimensional image captured by the imaging unit 110 of the two-dimensional measurement unit 230 is output to the calculation unit 140. Similar to the first embodiment, the calculation unit 140 detects the edge of the test object using the 3D point cloud data and the 2D image data according to the calculation flow of FIG. Is calculated.

本実施形態の計測装置によれば、被検物のエッジを高精度に検出することができる。   According to the measurement apparatus of the present embodiment, the edge of the test object can be detected with high accuracy.

なお、第2実施形態の計測装置20の場合、TOFカメラ210と撮像部110は、図4の1点鎖線で示す光学系104の光軸を通る直線を共有しているため、被検物170の側面についての3次元点群データは取得されない。   Note that in the case of the measuring apparatus 20 of the second embodiment, the TOF camera 210 and the imaging unit 110 share a straight line passing through the optical axis of the optical system 104 indicated by a one-dot chain line in FIG. The three-dimensional point cloud data for the side face is not acquired.

(第3実施形態)
図5は第3実施形態の計測装置30の概略図である。前述の実施形態と重複する部材については説明を省略する。
(Third embodiment)
FIG. 5 is a schematic view of a measuring apparatus 30 according to the third embodiment. The description of the same members as those in the above embodiment is omitted.

計測装置30の3次元測定部は、パターン投影法による測定ユニットである。パターン投影法による測定ユニットは、光のパターンを投影するためのプロジェクタと光検出器などから構成される。既知の光パターンを被検物に投影し、被検物の形状によって生じた光パターンの歪みを光検出器で検出して、検出データから被検物の3次元点群データを算出するのがパターン投影法の原理である。   The three-dimensional measurement unit of the measurement device 30 is a measurement unit using a pattern projection method. A measurement unit based on the pattern projection method includes a projector for projecting a light pattern, a photodetector, and the like. Projecting a known light pattern onto a test object, detecting distortion of the light pattern caused by the shape of the test object with a photodetector, and calculating three-dimensional point cloud data of the test object from the detection data This is the principle of the pattern projection method.

パターン投影法には、いくつかの方法がある。多数の格子パターンを被検物に投影して多数の画像を取得し、縞を解析することによって3次元点群データを算出するのが、格子パターン投影法である。既知のランダムなパターンを投影して撮像した1枚の画像について、パターンの歪みを解析して3次元点群データを算出するのが、ランダムパターン投影法である。格子パターン投影法の場合、多数の画像を取得する必要があるので、短時間で測定するためには高速撮影が可能なカメラが必要である。しかし、カメラの画素数とフレームレートの間にはトレードオフの関係があるため、測定時間を短くしようとすると、撮像素子の測定に用いる画素数を少なくしなければならない。この場合、取得される3次元点群データの密度は低下する。ランダムパターン投影法では、パターンがある位置のみしか座標データが得られないため、低密度な3次元点群データしか得られない。第3実施形態の計測装置30はランダムパターン投影法の原理に基づくものだが、パターン投影法の方式は限定されない。   There are several methods for pattern projection. The lattice pattern projection method calculates a three-dimensional point group data by projecting a large number of lattice patterns onto a test object to acquire a large number of images and analyzing fringes. The random pattern projection method calculates the three-dimensional point cloud data by analyzing the distortion of the pattern of one image captured by projecting a known random pattern. In the case of the lattice pattern projection method, since it is necessary to acquire a large number of images, a camera capable of high-speed shooting is necessary for measuring in a short time. However, since there is a trade-off relationship between the number of pixels of the camera and the frame rate, if the measurement time is to be shortened, the number of pixels used for measurement of the image sensor must be reduced. In this case, the density of the acquired three-dimensional point cloud data decreases. In the random pattern projection method, since coordinate data can be obtained only at a position where a pattern is present, only low-density three-dimensional point group data can be obtained. The measurement apparatus 30 of the third embodiment is based on the principle of the random pattern projection method, but the pattern projection method is not limited.

計測装置30の3次元測定部はプロジェクタ301を有する。プロジェクタ301は既知のランダムパターンを被検物170に投影する。被検物170の形状によって歪んだパターンは光学系104によって撮像部(光検出器)110に結像される。撮像部110によって撮像された画像のデータは算出部140へ送信される。算出部140は、取得した画像データからパターンの歪み量を算出し、既知のランダムパターンの情報を用いて、被検物170の3次元点群データを算出する。   The three-dimensional measuring unit of the measuring device 30 has a projector 301. The projector 301 projects a known random pattern onto the test object 170. The pattern distorted by the shape of the test object 170 is imaged on the imaging unit (photodetector) 110 by the optical system 104. Data of the image captured by the imaging unit 110 is transmitted to the calculation unit 140. The calculation unit 140 calculates a pattern distortion amount from the acquired image data, and calculates three-dimensional point cloud data of the test object 170 using information on a known random pattern.

計測装置30は反射照明を実現するために、前述の実施形態と同様にインコヒーレント光源103も有している。インコヒーレント光源103によって被検物170が照明され、被検物170によって反射または散乱された光が光学系104によって、撮像部110に結像される。撮像された2次元画像のデータは算出部140へ送信される。算出部140は、第1実施形態と同様に、図2の算出フローに従って、3次元点群データと2次元画像データを用いて、被検物のエッジを検出して、被検物の形状情報を算出する。   The measuring device 30 also has an incoherent light source 103 in the same way as the above-described embodiment in order to realize reflected illumination. The test object 170 is illuminated by the incoherent light source 103, and the light reflected or scattered by the test object 170 is imaged on the imaging unit 110 by the optical system 104. The captured two-dimensional image data is transmitted to the calculation unit 140. Similar to the first embodiment, the calculation unit 140 detects the edge of the test object using the 3D point cloud data and the 2D image data according to the calculation flow of FIG. Is calculated.

本実施形態の計測装置によれば、被検物のエッジを高精度に検出することができる。   According to the measurement apparatus of the present embodiment, the edge of the test object can be detected with high accuracy.

なお、第3実施形態の計測装置30の場合、3次元点群データと2次元画像データは同一の撮像部110によって得られるため、被検物170の側面についての3次元点群データは取得されない。   In the case of the measurement apparatus 30 of the third embodiment, since the 3D point cloud data and the 2D image data are obtained by the same imaging unit 110, the 3D point cloud data for the side surface of the test object 170 is not acquired. .

(第4実施形態)
図6は第4実施形態の計測装置40の概略図である。前述の実施形態と重複する部材については説明を省略する。
(Fourth embodiment)
FIG. 6 is a schematic diagram of a measuring apparatus 40 according to the fourth embodiment. The description of the same members as those in the above embodiment is omitted.

計測装置40の3次元測定部は周波数走査干渉計を有する。周波数走査干渉計は、コヒーレントな周波数可変光源401と、干渉光を生成するための干渉光学系(405〜409、416、420)と、干渉光を受光する光検出器440などから構成される。光源から射出される周波数を走査しながら、被検光と参照光の干渉光の信号を取得し、干渉信号の位相変化から距離(被検面の位置)を算出するのが、周波数走査干渉計の原理である。   The three-dimensional measuring unit of the measuring device 40 has a frequency scanning interferometer. The frequency scanning interferometer includes a coherent variable frequency light source 401, interference optical systems (405 to 409, 416, 420) for generating interference light, a photodetector 440 that receives the interference light, and the like. While scanning the frequency emitted from the light source, the interference light of the test light and the reference light is acquired, and the distance (position of the test surface) is calculated from the phase change of the interference signal. Is the principle.

周波数可変光源401は、一定の周波数領域で周波数の走査が可能なコヒーレント光源である。周波数可変光源401としては、例えば外部共振器を用いた半導体レーザー(ECDL)やフルバンド・チューナブルDFBレーザーを用いることができる。周波数可変光源401はデジタル/アナログコンバーター402と接続されている。デジタル/アナログコンバーター402から周波数可変光源401に送られる電流値を調整することによって、光源から射出される光の周波数が制御される。   The variable frequency light source 401 is a coherent light source capable of scanning a frequency in a constant frequency region. As the variable frequency light source 401, for example, a semiconductor laser (ECDL) using an external resonator or a full-band tunable DFB laser can be used. The variable frequency light source 401 is connected to a digital / analog converter 402. By adjusting the current value sent from the digital / analog converter 402 to the variable frequency light source 401, the frequency of light emitted from the light source is controlled.

周波数可変光源401から射出された光はビームスプリッタ403に導かれる。ビームスプリッタ403によって分岐された光の一方は、周波数測定ユニット404に導かれる。周波数測定ユニット404によって、周波数可変光源401から射出される光の周波数を測定することができる。周波数測定ユニット404で測定した周波数のデータは制御部411に送信される。制御部411は、測定される周波数が所定の周波数になるようにデジタル/アナログコンバータ402に制御信号を送る。なお、周波数可変光源401が高い精度で所定の周波数に設定できるのであれば、周波数測定ユニット404を省略することができる。   The light emitted from the variable frequency light source 401 is guided to the beam splitter 403. One of the lights branched by the beam splitter 403 is guided to the frequency measurement unit 404. The frequency of the light emitted from the variable frequency light source 401 can be measured by the frequency measurement unit 404. Data of the frequency measured by the frequency measurement unit 404 is transmitted to the control unit 411. The control unit 411 sends a control signal to the digital / analog converter 402 so that the measured frequency becomes a predetermined frequency. If the frequency variable light source 401 can be set to a predetermined frequency with high accuracy, the frequency measurement unit 404 can be omitted.

ビームスプリッタ403によって分岐されたもう一方の光は、レンズ405乃至406によってビーム径が拡大された後、λ/2波長板407に導かれる。λ/2波長板407は不図示の回転機構によって回転可能である。周波数可変光源401からは直線偏光の光が射出される。λ/2波長板407の回転角によって、λ/2波長板407を透過した光の偏光方向を任意の方向に制御することができる。λ/2波長板407の後方には、偏光ビームスプリッタ408が配置され、λ/2波長板407の回転角によって、偏光ビームスプリッタ408による光の分岐比を変えることができる。   The other light branched by the beam splitter 403 is guided to the λ / 2 wavelength plate 407 after the beam diameter is expanded by the lenses 405 to 406. The λ / 2 wavelength plate 407 can be rotated by a rotation mechanism (not shown). Linearly polarized light is emitted from the variable frequency light source 401. Depending on the rotation angle of the λ / 2 wavelength plate 407, the polarization direction of the light transmitted through the λ / 2 wavelength plate 407 can be controlled to an arbitrary direction. A polarizing beam splitter 408 is disposed behind the λ / 2 wavelength plate 407, and the light branching ratio by the polarizing beam splitter 408 can be changed by the rotation angle of the λ / 2 wavelength plate 407.

偏光ビームスプリッタ408に入射した光は、互いに直交する偏光方向を有する参照光421および被検光422に分岐される。参照光421はλ/4波長板409aを通過した後、参照ミラー410に導かれる。被検光422は、λ/4波長板409bを通過した後、被検物170に導かれる。被検物170は搭載台106の上に載置されている。   The light incident on the polarization beam splitter 408 is branched into reference light 421 and test light 422 having polarization directions orthogonal to each other. The reference light 421 is guided to the reference mirror 410 after passing through the λ / 4 wavelength plate 409a. The test light 422 is guided to the test object 170 after passing through the λ / 4 wavelength plate 409b. The test object 170 is placed on the mounting table 106.

被検物170によって、反射または散乱された光は再びλ/4波長板409bを通過した後、偏光ビームスプリッタ408に導かれる。同じように、参照ミラー410によって反射された光は再びλ/4波長板409aを通過した後、偏光ビームスプリッタ408に導かれる。λ/4波長板を2回通過することで、参照光421および被検光422の偏光方向は共に90°回転する。参照光421は偏光ビームスプリッタ408によって反射され、被検光422は偏光ビームスプリッタ408を透過することによって、参照光および被検光は共に光学系104の方向に導かれる。これによって、参照光421および被検光422は空間的に重ね合わされる。   The light reflected or scattered by the test object 170 passes through the λ / 4 wave plate 409b again and is then guided to the polarization beam splitter 408. Similarly, the light reflected by the reference mirror 410 passes through the λ / 4 wavelength plate 409a again and is guided to the polarization beam splitter 408. By passing through the λ / 4 wavelength plate twice, the polarization directions of the reference light 421 and the test light 422 are both rotated by 90 °. The reference light 421 is reflected by the polarization beam splitter 408, and the test light 422 passes through the polarization beam splitter 408, whereby both the reference light and the test light are guided in the direction of the optical system 104. As a result, the reference light 421 and the test light 422 are spatially superimposed.

ビームスプリッタ408によって再び重ね合わされた光はレンズ104aによって集光される。レンズ104aの前側焦点は被検物170の測定する表面付近となるように設定することが望ましい。これによって、被検物170の表面が撮像部110と光検出器440にぼけることなく結像される。   The light superimposed by the beam splitter 408 is collected by the lens 104a. It is desirable to set the front focal point of the lens 104a so as to be in the vicinity of the surface of the object 170 to be measured. As a result, the surface of the test object 170 is imaged without blurring the imaging unit 110 and the photodetector 440.

レンズ104aの後ろ側焦点付近には、虹彩絞り105が配置される。虹彩絞り105の開口径の大きさによって光量や被写界深度、干渉光におけるスペックルの大きさを調整することができる。   An iris diaphragm 105 is disposed in the vicinity of the rear focal point of the lens 104a. Depending on the size of the aperture diameter of the iris diaphragm 105, the amount of light, the depth of field, and the size of speckle in the interference light can be adjusted.

虹彩絞り105を通過した光は、レンズ104bによって集光され、波長フィルタ420によって反射されて、偏光子416に導かれる。偏光子416の透過軸は、参照光および被検光の偏光方向に対して45°となるように配置される。これによって、参照光と被検光は干渉し、干渉光が生成される。   The light that has passed through the iris diaphragm 105 is collected by the lens 104 b, reflected by the wavelength filter 420, and guided to the polarizer 416. The transmission axis of the polarizer 416 is arranged to be 45 ° with respect to the polarization direction of the reference light and the test light. Thereby, the reference light and the test light interfere with each other, and interference light is generated.

参照光および被検光は波長フィルター420によって反射され、光検出器440に導かれ、光検出器440で干渉光の光強度(光量)が測定される。光検出器440は、例えばCCDやCMOSである。光検出器440で測定した干渉光の画像(干渉信号)は算出部140に送信される。   The reference light and the test light are reflected by the wavelength filter 420 and guided to the light detector 440, and the light intensity (light quantity) of the interference light is measured by the light detector 440. The photodetector 440 is, for example, a CCD or a CMOS. The interference light image (interference signal) measured by the photodetector 440 is transmitted to the calculation unit 140.

周波数の全走査量をΔF、光の速度をc、干渉信号の位相変化量をΔΦとしたとき、参照面410と被検物170の光路長差は以下の式(1)で表される。   When the total scanning amount of frequency is ΔF, the speed of light is c, and the phase change amount of the interference signal is ΔΦ, the optical path length difference between the reference surface 410 and the test object 170 is expressed by the following equation (1).

Figure 0006362058
Figure 0006362058

周波数走査干渉計では、光源から射出される光の周波数を走査して干渉信号を測定し、干渉信号の位相の変化量を算出することで、光路長差を求めることができる。計測装置40では、周波数可変光源401から射出される光の周波数を走査しながら光検出器440で複数枚の画像を取得する。取得した画像は算出部140に送信され、算出部140が干渉信号を解析することによって光路長差を計算する。光検出器440はエリアセンサなので、各画素について干渉信号を処理することによって、被検物のXYZ方向の3次元点群データを取得することができる。   In the frequency scanning interferometer, the optical path length difference can be obtained by scanning the frequency of the light emitted from the light source, measuring the interference signal, and calculating the change amount of the phase of the interference signal. In the measuring device 40, a plurality of images are acquired by the photodetector 440 while scanning the frequency of light emitted from the frequency variable light source 401. The acquired image is transmitted to the calculation unit 140, and the calculation unit 140 analyzes the interference signal to calculate the optical path length difference. Since the photodetector 440 is an area sensor, three-dimensional point cloud data in the XYZ directions of the test object can be acquired by processing the interference signal for each pixel.

周波数走査干渉計では、光路長差の情報を得るために、複数枚の画像を取得する必要がある。画像の取得時間を短縮し、測定に要する時間を短くするためには、高速撮影が可能なカメラを用いることが望ましい。しかし、カメラの画素数とフレームレートの間にはトレードオフの関係があるため、測定時間を短くしようとすると、画素数が少ない撮像素子を用いらざるを得ない。この場合、取得される3次元点群データの密度は低下する。   In the frequency scanning interferometer, it is necessary to acquire a plurality of images in order to obtain information on the optical path length difference. In order to shorten the image acquisition time and the time required for measurement, it is desirable to use a camera capable of high-speed shooting. However, since there is a trade-off relationship between the number of pixels of the camera and the frame rate, if an attempt is made to shorten the measurement time, an image sensor with a small number of pixels must be used. In this case, the density of the acquired three-dimensional point cloud data decreases.

また、被検物170の表面粗さが大きい場合、コヒーレント光を照射するとスペックルが発生する。周波数を走査したとき、スペックルの光強度が小さい部分では位相の相関が低下するため、測定誤差が大きくなる。測定の信頼性が低下するのを避けるため、スペックルの光強度が小さい部分については、3次元点群データからデータを除去することで、測定の信頼性を高められる。しかしこの場合、スペックルの光強度の閾値に応じて、3次元点群データの密度が低下する。   Further, when the surface roughness of the test object 170 is large, speckles are generated when the coherent light is irradiated. When the frequency is scanned, the phase correlation decreases at the portion where the speckle light intensity is low, and the measurement error increases. In order to avoid a decrease in the reliability of measurement, the reliability of the measurement can be improved by removing the data from the three-dimensional point cloud data for the portion where the light intensity of the speckle is low. However, in this case, the density of the three-dimensional point cloud data decreases according to the threshold value of speckle light intensity.

このように、測定時間を短くしたり、スペックルが存在すると高解像度な画像を得ることが困難であり、3次元点群データの密度が2次元画像データよりも低いために、エッジ位置の検出精度は高くはない。そのため、2次元測定部によって測定された2次元画像のデータを用いてより高い精度でエッジ位置を求める。   As described above, if the measurement time is shortened or speckles are present, it is difficult to obtain a high-resolution image, and the density of 3D point cloud data is lower than that of 2D image data. The accuracy is not high. Therefore, the edge position is obtained with higher accuracy using the data of the two-dimensional image measured by the two-dimensional measuring unit.

測定装置40にもインコヒーレント光源103が構成されている。被検物の横方向(x、y方向)の寸法は、インコヒーレント光源103からの光を被検物に照射して得られる画像を用いて算出される。インコヒーレント光源103は複数の光源素子から構成されており、複数の光源素子はリング状に配置されている。各光源素子は個別に点灯を制御可能であり、これによって所望の方向からの照明を実現している。   An incoherent light source 103 is also configured in the measuring device 40. The dimension in the horizontal direction (x, y direction) of the test object is calculated using an image obtained by irradiating the test object with light from the incoherent light source 103. The incoherent light source 103 is composed of a plurality of light source elements, and the plurality of light source elements are arranged in a ring shape. Each light source element can individually control lighting, thereby realizing illumination from a desired direction.

インコヒーレント光源103と周波数可変光源401は、互いに異なる波長の光を射出する。波長フィルター420は、インコヒーレント光源103からの光を透過し、周波数可変光源401からの光を反射するように設計されている。インコヒーレント光源103によって照明され、被検物170で反射または散乱された光は波長フィルター420を透過して撮像部110の撮像面に結像される。撮像部110は被検物170を撮像し、被検物170の2次元画像を出力する。被検物の横方向(x、y方向)の寸法計測精度は撮像部110の解像度に依存するため、撮像部110は高画素数の撮像素子を有することが望ましい。   The incoherent light source 103 and the variable frequency light source 401 emit light having different wavelengths. The wavelength filter 420 is designed to transmit light from the incoherent light source 103 and reflect light from the variable frequency light source 401. The light illuminated by the incoherent light source 103 and reflected or scattered by the test object 170 passes through the wavelength filter 420 and forms an image on the imaging surface of the imaging unit 110. The imaging unit 110 images the test object 170 and outputs a two-dimensional image of the test object 170. Since the dimension measurement accuracy in the horizontal direction (x, y direction) of the test object depends on the resolution of the imaging unit 110, the imaging unit 110 preferably has an imaging element with a high number of pixels.

2次元測定部の撮像部110によって撮像された2次元画像のデータは算出部140に送信される。算出部140は、前述の実施形態と同様に、図2の算出フローに従って、3次元点群データと2次元画像データを用いて、被検物のエッジを検出して、被検物の形状情報を算出する。   The data of the two-dimensional image captured by the imaging unit 110 of the two-dimensional measurement unit is transmitted to the calculation unit 140. Similar to the above-described embodiment, the calculation unit 140 detects the edge of the test object using the 3D point cloud data and the 2D image data according to the calculation flow of FIG. Is calculated.

本実施形態の計測装置によれば、被検物のエッジを高精度に検出することができる。   According to the measurement apparatus of the present embodiment, the edge of the test object can be detected with high accuracy.

なお、第4実施形態の計測装置40の場合、光検出器440と撮像部110は、光学系104の光軸を通る直線を共有しているため、被検物170の側面についての3次元点群データは取得されない。   Note that, in the case of the measurement device 40 of the fourth embodiment, the photodetector 440 and the imaging unit 110 share a straight line passing through the optical axis of the optical system 104, and thus a three-dimensional point on the side surface of the test object 170. Group data is not acquired.

<物品の製造方法の実施形態>
本実施形態における物品の製造方法は、例えば、ギアなどの金属部品や光学素子等の物品を製造するために用いられる。本実施形態の物品の製造方法は、上記の計測装置を用いて、上記物品である被検物の寸法などの形状情報を計測する工程と、かかる工程における計測結果に基づいて被検物を加工する工程とを含む。例えば、被検物の形状を計測装置を用いて計測し、その計測結果に基づいて、被検物の形状が設計値など所望の形状になるように当該被検物を加工する。上記計測装置により高精度に被検物の形状を計測できるため、本実施形態の物品の製造方法は、従来の方法に比べて、少なくとも物品の加工精度の点で有利である。
<Embodiment of Method for Manufacturing Article>
The method for manufacturing an article in the present embodiment is used, for example, to manufacture an article such as a metal part such as a gear or an optical element. The method for manufacturing an article according to this embodiment uses the above-described measuring device to measure shape information such as the dimensions of the specimen that is the article, and processes the specimen based on the measurement result in the process. Including the step of. For example, the shape of the test object is measured using a measuring device, and the test object is processed based on the measurement result so that the shape of the test object becomes a desired shape such as a design value. Since the shape of the test object can be measured with high accuracy by the measuring device, the article manufacturing method of the present embodiment is advantageous in at least the processing accuracy of the article as compared with the conventional method.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

Claims (10)

被検物を計測する計測装置であって、
前記被検物を撮像する撮像素子と、前記被検物からの光を前記撮像素子へ導く光学系とを用いて、前記被検物の第1画像を取得する2次元測定部と、
前記被検物へ光を投影し、前記被検物で反射された光を前記光学系によって撮像素子へ導いて検出される第2画像から前記被検物の3次元データを取得する3次元測定部と、
前記3次元データを用いて前記被検物の仮エッジを検出し、検出された仮エッジを前記第1画像に重ね合わせることにより前記第1画像におけるエッジ検出範囲を設定し、前記第1画像を用いて前記エッジ検出範囲において前記被検物のエッジを検出することにより前記被検物の形状情報を算出する算出部とを有しており、
ここで、前記第1画像は前記3次元データより解像度が高いことを特徴とする計測装置。
A measuring device for measuring a test object,
A two-dimensional measuring unit that acquires a first image of the test object using an image sensor that images the test object and an optical system that guides light from the test object to the image sensor;
Three-dimensional measurement for projecting light onto the test object and obtaining three-dimensional data of the test object from a second image detected by guiding the light reflected by the test object to the image sensor by the optical system And
A temporary edge of the test object is detected using the three-dimensional data, an edge detection range in the first image is set by superimposing the detected temporary edge on the first image, and the first image is used and have a a calculation unit that calculates shape information of the test object by detecting the edge of the test object in said edge detection range,
Here, the first image has a higher resolution than the three-dimensional data .
前記2次元測定部の撮像素子と前記3次元測定部の撮像素子は同一であることを特徴とする請求項1に記載の計測装置。   The measurement apparatus according to claim 1, wherein the image sensor of the two-dimensional measurement unit and the image sensor of the three-dimensional measurement unit are the same. 前記2次元測定部の撮像素子と前記3次元測定部の撮像素子は異なり、
前記2次元測定部と前記3次元測定部は互いに異なる波長の光を出射し、
波長フィルターによって、前記2次元測定部の波長の光を前記2次元測定部の撮像素子に導き、前記3次元測定部の波長の光を前記3次元測定部の撮像素子に導くことを特徴とする請求項1に記載の計測装置。
The image sensor of the two-dimensional measurement unit is different from the image sensor of the three-dimensional measurement unit,
The two-dimensional measuring unit and the three-dimensional measuring unit emit light having different wavelengths,
The wavelength filter guides the light having the wavelength of the two-dimensional measurement unit to the image sensor of the two-dimensional measurement unit, and guides the light of the wavelength of the three-dimensional measurement unit to the image sensor of the three-dimensional measurement unit. The measuring device according to claim 1.
前記3次元測定部は、前記被検物に光のパターンを投影して、前記被検物によって生じた光のパターンの歪みを測定するパターン投影法を用いて前記被検物を測定することを特徴とする請求項1乃至の何れか1項に記載の計測装置。 The three-dimensional measuring unit measures the test object using a pattern projection method in which a light pattern is projected onto the test object and distortion of the light pattern generated by the test object is measured. measurement apparatus according to any one of claims 1 to 3, characterized. 前記算出部は、前記2次元画像データと前記3次元データとを位置合わせした後に、前記被検物の仮エッジを前記2次元画像に重ね合わせることによって、前記2次元画像におけるエッジ検出範囲を設定することを特徴とする請求項1乃至の何れか1項に記載の計測装置。 The calculation unit sets an edge detection range in the two-dimensional image by aligning the two-dimensional image data and the three-dimensional data and then superimposing a temporary edge of the test object on the two-dimensional image. The measuring apparatus according to any one of claims 1 to 4 , wherein the measuring apparatus includes: 前記算出部は、予め得られた前記2次元画像データと前記3次元データとの対応関係に基づいて、前記2次元画像データと前記3次元データとの位置合わせを行うことを特徴とする請求項に記載の計測装置。 The calculation unit performs alignment between the two-dimensional image data and the three-dimensional data based on a correspondence relationship between the two-dimensional image data and the three-dimensional data obtained in advance. 5. The measuring device according to 5 . 前記算出部は、前記2次元画像におけるエッジ検出範囲を前記仮エッジを囲むように設定することを特徴とする請求項1乃至の何れか1項に記載の計測装置。 The calculating unit, the measurement device according to any one of claims 1 to 6, characterized in that to set the edge detection range in the two-dimensional image so as to surround the provisional edge. 前記2次元測定部による測定におけるフォーカス位置を調整するフォーカス調整部を有し、
前記フォーカス調整部は、前記3次元データを用いて算出されたフォーカス位置を用いて前記フォーカス位置を調整することを特徴とする請求項1乃至の何れか1項に記載の計測装置。
A focus adjustment unit for adjusting a focus position in measurement by the two-dimensional measurement unit;
The focus adjustment unit, the measuring device according to any one of claims 1 to 7, wherein the adjusting the focus position using the focus position calculated using the 3-dimensional data.
前記被検物の形状情報は、前記被検物の寸法であることを特徴とする請求項1乃至の何れか1項に記載の計測装置。 Wherein the shape information of the object, the measurement device according to any one of claims 1 to 8, characterized in that the a size of the test object. 請求項1乃至に記載の計測装置を用いて物品の形状情報を計測する計測工程と、
前記計測工程による計測結果に基づいて前記物品を加工する工程とを有することを特徴とする物品の製造方法。
A measuring step of measuring the shape information of the article by using the measuring device according to claim 1 to 9,
And a step of processing the article based on a measurement result of the measurement step.
JP2013120158A 2013-06-06 2013-06-06 Test object measuring apparatus and article manufacturing method Expired - Fee Related JP6362058B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013120158A JP6362058B2 (en) 2013-06-06 2013-06-06 Test object measuring apparatus and article manufacturing method
EP14168464.7A EP2813809A1 (en) 2013-06-06 2014-05-15 Device and method for measuring the dimensions of an objet and method for producing an item using said device
US14/295,061 US9267790B2 (en) 2013-06-06 2014-06-03 Measuring device of measurement object, calculating device, measurement method, and method for producing item

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013120158A JP6362058B2 (en) 2013-06-06 2013-06-06 Test object measuring apparatus and article manufacturing method

Publications (3)

Publication Number Publication Date
JP2014238298A JP2014238298A (en) 2014-12-18
JP2014238298A5 JP2014238298A5 (en) 2016-07-21
JP6362058B2 true JP6362058B2 (en) 2018-07-25

Family

ID=52135563

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013120158A Expired - Fee Related JP6362058B2 (en) 2013-06-06 2013-06-06 Test object measuring apparatus and article manufacturing method

Country Status (1)

Country Link
JP (1) JP6362058B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6510246B2 (en) * 2015-01-22 2019-05-08 大成建設株式会社 Volume measurement system
JP2017176811A (en) * 2016-03-28 2017-10-05 ソニー株式会社 Imaging device, imaging method, and medical observation instrument
CN108836275A (en) * 2018-07-10 2018-11-20 天津工业大学 A kind of fluorescent molecular tomography system under free space

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04169805A (en) * 1990-11-01 1992-06-17 Matsushita Electric Ind Co Ltd Measuring apparatus of three-dimensional image
JP2001201329A (en) * 2000-12-20 2001-07-27 Minolta Co Ltd Three-dimensional shape measuring apparatus
JP2004317126A (en) * 2003-04-10 2004-11-11 Renesas Technology Corp Solder printer
JP2005309870A (en) * 2004-04-22 2005-11-04 Toyota Motor Corp Image processor

Also Published As

Publication number Publication date
JP2014238298A (en) 2014-12-18

Similar Documents

Publication Publication Date Title
US9267790B2 (en) Measuring device of measurement object, calculating device, measurement method, and method for producing item
US9170097B2 (en) Hybrid system
US4796997A (en) Method and system for high-speed, 3-D imaging of an object at a vision station
KR101639227B1 (en) Three dimensional shape measurment apparatus
JP6040930B2 (en) Surface defect detection method and surface defect detection apparatus
JP6446297B2 (en) Inspection device
CA2799705C (en) Method and apparatus for triangulation-based 3d optical profilometry
JP2016161513A (en) Measurement device and measurement method
US9594028B2 (en) Method and apparatus for determining coplanarity in integrated circuit packages
JP6362058B2 (en) Test object measuring apparatus and article manufacturing method
JP2014238299A (en) Measurement device, calculation device, and measurement method for inspected object, and method for manufacturing articles
US20160238380A1 (en) Image measuring method and image measuring apparatus
JP7093915B2 (en) Surface shape measurement method
KR20180053119A (en) 3-dimensional shape measurment apparatus and method thereof
JP6149990B2 (en) Surface defect detection method and surface defect detection apparatus
KR100887184B1 (en) Imaging System for Shape Measurement of Partially-specular Object and Method thereof
JP6820516B2 (en) Surface shape measurement method
KR101750883B1 (en) Method for 3D Shape Measuring OF Vision Inspection System
KR101323183B1 (en) Three-dimensional shape measurement with dual-optical device
KR20130064564A (en) Apparatus for monitoring three-dimensional shape of target object
US20140268173A1 (en) Shape measurement apparatus, measurement method, and method of manufacturing article
GB2204947A (en) Method and system for high speed, 3-D imaging of an object at a vision station
JP2987000B2 (en) Position information coding method and three-dimensional measurement method using the code
JPS62291512A (en) Distance measuring apparatus
KR20180053125A (en) 3-dimensional shape measurment apparatus and method thereof

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160603

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160603

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180619

R151 Written notification of patent or utility model registration

Ref document number: 6362058

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees