JP2017156197A - Measurement device and measurement method - Google Patents

Measurement device and measurement method Download PDF

Info

Publication number
JP2017156197A
JP2017156197A JP2016039099A JP2016039099A JP2017156197A JP 2017156197 A JP2017156197 A JP 2017156197A JP 2016039099 A JP2016039099 A JP 2016039099A JP 2016039099 A JP2016039099 A JP 2016039099A JP 2017156197 A JP2017156197 A JP 2017156197A
Authority
JP
Japan
Prior art keywords
information
measurement
line
shape
identification unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016039099A
Other languages
Japanese (ja)
Inventor
強 北村
Tsutomu Kitamura
強 北村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016039099A priority Critical patent/JP2017156197A/en
Publication of JP2017156197A publication Critical patent/JP2017156197A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a measurement device that is advantageous in terms of measurement accuracy.SOLUTION: A measurement device measuring a shape of a measured object 5 has a processing unit 100 that obtains information on a shape of a the measured object 5 having an identification unit for mutual lines provided on the basis of an image obtained by photographing the measured object 5 having pattern light including a plurality of lines projected. The processing unit 100 is configured to: acquire a location where luminance peaks or a location where a slope of a luminance distribution peaks from the luminance distribution in a direction crossing the line of an image; identify a location belonging to the pixel including the identification unit and a location excluding a location belonging to a pixel within a prescribed range from the pixel including the identification unit in a direction where the line extends and of the acquired location; and obtain the information on the shape of the measured object 5 on the basis of the identified location.SELECTED DRAWING: Figure 1

Description

本発明は、計測装置および計測方法に関する。   The present invention relates to a measuring device and a measuring method.

被計測物の形状を計測する装置として、パターン投影法を用いた光学式の計測装置が知られている。パターン投影法では、所定のパターンを被計測物に投影して撮像し、撮像画像におけるパターンを検出して、三角測量の原理から各画素位置における距離情報を算出することで、被計測物の形状を求めている。   As an apparatus for measuring the shape of an object to be measured, an optical measurement apparatus using a pattern projection method is known. In the pattern projection method, a predetermined pattern is projected onto an object to be imaged, the pattern in the captured image is detected, and distance information at each pixel position is calculated from the principle of triangulation, thereby measuring the shape of the object to be measured. Seeking.

パターン投影法で用いられるパターンの代表的なものとして、明線と暗線とを交互に含み、その明線または暗線に切断点(ドット)を配するパターン(ドットラインパターン)がある(特許文献1)。ドットラインパターンを用いると、検出されたドットの座標情報から、投影された明線(または暗線)がパターン生成部であるマスクのパターン上のどの明線なのかを識別することができる。そのため、1回の撮像で被計測物全体の形状に関する情報を取得できる。   As a typical pattern used in the pattern projection method, there is a pattern (dot line pattern) that alternately includes a bright line and a dark line and places a cutting point (dot) on the bright line or the dark line (Patent Document 1). ). When the dot line pattern is used, it is possible to identify which bright line on the mask pattern that is the pattern generation unit is the projected bright line (or dark line) from the coordinate information of the detected dot. Therefore, information about the shape of the entire object to be measured can be acquired by one imaging.

特許第2517062号公報Japanese Patent No. 2517062

パターンの検出は、例えば、撮像画像の輝度値のピークや輝度勾配のピーク等の検出により行われる。ピークの検出精度は、撮像画像に含まれるノイズや系統誤差の影響により低下する。特にドットラインパターンを用いる場合、ドット近傍のピークの検出位置に誤差が生じうる。この誤差により、被計測物の計測精度が低下する。   The pattern is detected by, for example, detecting the peak of the brightness value of the captured image, the peak of the brightness gradient, and the like. The peak detection accuracy decreases due to the influence of noise and systematic errors included in the captured image. In particular, when a dot line pattern is used, an error may occur in the peak detection position near the dot. Due to this error, the measurement accuracy of the measurement object decreases.

本発明は、例えば、計測精度の点で有利な計測装置を提供することを目的とする。   An object of the present invention is to provide a measurement device that is advantageous in terms of measurement accuracy, for example.

上記課題を解決するために、本発明は、被計測物の形状を計測する計測装置であって、互いの線を識別するための識別部が設けられた複数の線を含むパターン光が投影された被計測物を撮像して得られる画像に基づいて、被計測物の形状の情報を求める処理部、を有し、処理部は、画像の線に交差する方向における輝度分布から、輝度がピークとなる位置、又は輝度分布の勾配がピークとなる位置を取得し、取得された位置のうち、線の延びる方向において、識別部を含む画素に属する位置、および、識別部を含む画素から所定の範囲の画素に属する位置を除いた位置を特定し、特定された位置に基づいて、被計測物の形状の情報を求める、ことを特徴とする。   In order to solve the above-described problem, the present invention is a measuring apparatus for measuring the shape of an object to be measured, in which pattern light including a plurality of lines provided with an identification unit for identifying each other line is projected. A processing unit that obtains information on the shape of the object to be measured based on an image obtained by imaging the object to be measured, and the processing unit has a luminance peak from a luminance distribution in a direction intersecting the line of the image. Or the position where the gradient of the luminance distribution reaches a peak, and among the acquired positions, the position belonging to the pixel including the identification unit and the pixel including the identification unit in the direction in which the line extends A position excluding a position belonging to a pixel in the range is specified, and information on the shape of the object to be measured is obtained based on the specified position.

本発明によれば、例えば、計測精度の点で有利な計測装置を提供することができる。   According to the present invention, for example, it is possible to provide a measurement device that is advantageous in terms of measurement accuracy.

本発明の一実施形態としての計測装置の構成を示す概略図である。It is the schematic which shows the structure of the measuring device as one Embodiment of this invention. ドットラインパターンの一例を示す図である。It is a figure which shows an example of a dot line pattern. ドット周辺の画像を示す図である。It is a figure which shows the image around a dot. 各評価断面における輝度分布を示す図である。It is a figure which shows the luminance distribution in each evaluation cross section. ドットからの距離とエッジの系統誤差量またはピークの偶然誤差量との関係を示す図である。It is a figure which shows the relationship between the distance from a dot, and the systematic error amount of an edge, or the accidental error amount of a peak. 採用点決定部の詳細を示す図であるIt is a figure which shows the detail of an employment point determination part. 採用点の選出方法の候補を示す図である。It is a figure which shows the candidate of the selection method of an employment point. 各候補に対応する採用点数を示す図である。It is a figure which shows the number of adoption points corresponding to each candidate. 各候補の被検面内の系統誤差および偶然誤差を示す図である。It is a figure which shows the systematic error and accidental error in the to-be-tested surface of each candidate. 各候補のモデルフィッティング誤差を示す図である。It is a figure which shows the model fitting error of each candidate. 各候補について被検面面積と採用点数との関係を示す図である。It is a figure which shows the relationship between a to-be-tested surface area and the number of adoption points about each candidate. 各候補について被検面面積とモデルフィッティング誤差との関係を示す図である。It is a figure which shows the relationship between a to-be-tested surface area and a model fitting error about each candidate.

以下、本発明を実施するための形態について図面などを参照して説明する。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態としての計測装置の構成を示す概略図である。計測装置は、パターン投影法を用いて、被計測物5の形状(例えば、3次元形状、2次元形状、位置及び姿勢など)を計測する。計測装置は、図1に示すように、投影部2と、撮像部3と、処理部100とを有する。   FIG. 1 is a schematic diagram showing a configuration of a measuring apparatus as one embodiment of the present invention. The measuring device measures the shape (for example, a three-dimensional shape, a two-dimensional shape, a position, and a posture) of the measurement object 5 using a pattern projection method. As shown in FIG. 1, the measurement device includes a projection unit 2, an imaging unit 3, and a processing unit 100.

投影部2は、例えば、光源部21と、パターン生成部22と、投影光学系23とを含み、所定のパターンを被計測物5に投影する。光源部21は、光源から射出された光で、パターン生成部22で生成されたパターンを均一に照明する(例えば、ケーラー照明)。パターン生成部22は、被計測物5に投影するパターン(パターン光)を生成し、本実施形態では、ガラス基板をクロムめっきすることによってパターンが形成されたマスクで構成されている。但し、パターン生成部22は、任意のパターンを生成可能なDLP(Digital Light Processing)プロジェクタや液晶プロジェクタなどで構成してもよい。投影光学系23は、パターン生成部22で生成されたパターンを被計測物5に投影する光学系である。   The projection unit 2 includes, for example, a light source unit 21, a pattern generation unit 22, and a projection optical system 23, and projects a predetermined pattern onto the measurement object 5. The light source unit 21 uniformly illuminates the pattern generated by the pattern generation unit 22 with light emitted from the light source (for example, Kohler illumination). The pattern generation unit 22 generates a pattern (pattern light) to be projected onto the object 5 to be measured. In this embodiment, the pattern generation unit 22 includes a mask on which a pattern is formed by chromium plating on a glass substrate. However, the pattern generation unit 22 may be configured by a DLP (Digital Light Processing) projector, a liquid crystal projector, or the like that can generate an arbitrary pattern. The projection optical system 23 is an optical system that projects the pattern generated by the pattern generation unit 22 onto the measurement object 5.

図2は、パターン生成部22によって生成され、被計測物5に投影されるパターンの一例であるドットラインパターンを示す図である。ドットラインパターンは、図2に示すように、明線で形成された明部BPと、暗線で形成された暗部DPとが図中X方向に交互に配置された周期的なラインパターン(ストライプパターン)である。また、明線BP上において明部が延びる方向(X方向に直交するY方向)において明部を切断するように明部と明部の間に、ドットDTが設けられている。ドットDTは、互いの明線を識別するための識別部である。ドットの位置は各明線上において異なるため、検出されたドットの座標(位置)情報から、投影された各明線がパターン生成部22上のどのラインに対応するかの指標が与えられ、投影された各明線の識別が可能となる。   FIG. 2 is a diagram illustrating a dot line pattern that is an example of a pattern that is generated by the pattern generation unit 22 and projected onto the measurement object 5. As shown in FIG. 2, the dot line pattern is a periodic line pattern (stripe pattern) in which bright portions BP formed by bright lines and dark portions DP formed by dark lines are alternately arranged in the X direction in the drawing. ). Further, dots DT are provided between the bright portions so as to cut the bright portions in the direction in which the bright portions extend on the bright line BP (Y direction orthogonal to the X direction). The dot DT is an identification unit for identifying each other's bright line. Since the positions of the dots are different on each bright line, an index indicating which line on the pattern generation unit 22 each projected bright line corresponds to is projected from the coordinate (position) information of the detected dot. Each bright line can be identified.

図1に戻ると、撮像部3は、例えば、撮像光学系31と、撮像素子32とを含み、被計測物5を撮像して画像を取得する。撮像部3は、本実施形態では、ドットラインパターンが投影された被計測物5を撮像して、ドットラインパターンに対応する部分を含む画像(距離画像)を取得する。撮像光学系31は、被計測物5に投影されたドットラインパターンを撮像素子32に結像するための結像光学系である。撮像素子32は、パターンが投影された被計測物5を撮像するための複数の画素を含むイメージセンサであって、例えば、CMOSセンサやCCDセンサなどで構成されている。   Returning to FIG. 1, the imaging unit 3 includes, for example, an imaging optical system 31 and an imaging element 32, and captures an image of the object to be measured 5 and acquires an image. In this embodiment, the imaging unit 3 captures the object to be measured 5 on which the dot line pattern is projected, and acquires an image (distance image) including a portion corresponding to the dot line pattern. The imaging optical system 31 is an imaging optical system for imaging the dot line pattern projected on the measurement object 5 on the imaging element 32. The image pickup device 32 is an image sensor including a plurality of pixels for picking up an image of the measurement object 5 on which a pattern is projected, and is configured by, for example, a CMOS sensor or a CCD sensor.

処理部100は、撮像部3で取得された画像に基づいて、被計測物5の形状を求める。処理部100は、制御部101と、画像記憶部102と、検出部103と、を含む。制御部101は、投影部2や撮像部3の動作、具体的には、被計測物5へのパターンの投影やパターンが投影された被計測物5の撮像などを制御する。画像記憶部102は、撮像部3で取得された画像を記憶する。検出部103は、画像記憶部102に記憶された画像を用いて、かかる画像における明線(計測線)の検出と、ドットの座標の算出とを行う。   The processing unit 100 obtains the shape of the measurement object 5 based on the image acquired by the imaging unit 3. The processing unit 100 includes a control unit 101, an image storage unit 102, and a detection unit 103. The control unit 101 controls operations of the projection unit 2 and the imaging unit 3, specifically, projection of a pattern onto the measurement target 5, imaging of the measurement target 5 on which the pattern is projected, and the like. The image storage unit 102 stores the image acquired by the imaging unit 3. The detecting unit 103 uses the image stored in the image storage unit 102 to detect a bright line (measurement line) in the image and calculate the coordinates of the dots.

画像記憶部102から検出部103に送られる画像は、平滑化フィルタがかけられ、計測線とドットとの輝度値差を少なくする処理が施されている。これは、画像上の明線とドットとの輝度値差の計測線の検出精度への影響を抑えるためである。処理後の画像において、明線平行方向(図2のY方向)の各画素座標に対して明線と交差する方向(図2のX方向)断面の輝度分布の評価を行い、ピークあるいはエッジを検出する。本実施形態では、Y方向の各座標に対して、輝度が極大となるピークと輝度分布の勾配が極大となるエッジと極小となるエッジとの計3点を検出する。   The image sent from the image storage unit 102 to the detection unit 103 is subjected to a smoothing filter and is subjected to a process for reducing the difference in luminance value between the measurement line and the dot. This is to suppress the influence of the brightness value difference between the bright line and the dot on the image on the detection accuracy of the measurement line. In the processed image, the luminance distribution of the cross section in the direction intersecting the bright line (X direction in FIG. 2) is evaluated for each pixel coordinate in the bright line parallel direction (Y direction in FIG. 2), and the peak or edge is determined. To detect. In the present embodiment, for each coordinate in the Y direction, a total of three points are detected: a peak where the luminance is maximum, an edge where the gradient of the luminance distribution is maximum, and an edge where the gradient is minimum.

ピークあるいはエッジはX方向に接続され、計測線が検出される事となる。この計測線のX方向の輝度分布に基づき、ドットの位置の検出を行う。具体的には、計測線の輝度分布に微分フィルタの適用等の処理を施した上でゼロクロス点の検出を行い、このゼロクロス点の座標をドットの座標として検出する。本実施形態では、1つのドットに対し、輝度が極大値となるピークと、輝度分布の勾配が極大となるエッジと、極小となるエッジの計3点の座標を検出する。   Peaks or edges are connected in the X direction, and a measurement line is detected. The position of the dot is detected based on the luminance distribution in the X direction of the measurement line. Specifically, the zero-cross point is detected after processing such as applying a differential filter to the luminance distribution of the measurement line, and the coordinates of the zero-cross point are detected as the coordinates of the dots. In this embodiment, the coordinates of a total of three points are detected for one dot: a peak at which the luminance is a maximum value, an edge at which the gradient of the luminance distribution is a maximum, and an edge at which the luminance distribution is a minimum.

処理部100に含まれる識別部104は、検出部103において検出されたドットの座標を基に各ドットがどの明線に属するものかを識別する。識別に際しては各ドットに対してパターンの座標系におけるエピポーラ線の位置及び傾きを計算する。エピポーラ線の位置及び傾きは、選択したドットの位置から視線方向に伸ばした直線を、パターンの座標系に投影することによって計算される。パターンの座標系での選択したドットの位置は、このエピポーラ線上にあるため、エピポーラ線上にドットを持つ計測線をパターン上から探索することにより、選択したドットがどの明線に属するものなのかを識別する。探索に際しては、識別の整合性を表す評価関数の最小化を行うが、その際にBP(Belief Propagation)やGC(Graph Cut)のアルゴリズムを用いる事が考えられる。   The identification unit 104 included in the processing unit 100 identifies which bright line each dot belongs to based on the coordinates of the dots detected by the detection unit 103. At the time of identification, the position and inclination of the epipolar line in the pattern coordinate system are calculated for each dot. The position and inclination of the epipolar line are calculated by projecting a straight line extending in the line-of-sight direction from the selected dot position onto the coordinate system of the pattern. Since the position of the selected dot in the coordinate system of the pattern is on this epipolar line, it is possible to determine which bright line the selected dot belongs to by searching the pattern for the measurement line having the dot on the epipolar line. Identify. In the search, the evaluation function representing the consistency of identification is minimized. At that time, it is possible to use an algorithm of BP (Belief Propagation) or GC (Graph Cut).

また、本実施形態においては、1つのドットにつき輝度が極大値となるピーク、輝度分布の勾配が極大となるエッジおよび、極小となるエッジの3点が検出されるが、各点をそれぞれ異なるドットに対応付けて識別を行っても良い。また、各点が同一のドットに所属するという拘束条件を課して識別を行っても良い。   Further, in the present embodiment, three points are detected: a peak at which the luminance is maximum for each dot, an edge at which the gradient of the luminance distribution is maximum, and an edge at which the luminance is minimum. Identification may be performed in association with each other. Further, identification may be performed by imposing a constraint condition that each point belongs to the same dot.

処理部100は、さらに検出点数算出部105を含む。検出点数算出部105は、画像記憶部102において記憶された画像において被計測物5が存在する領域内に存在するピークおよびエッジ(検出点)の数を算出する。まず、検出点数算出部105は、画像において被計測物5が存在する領域の面積を算出する。例えば、画像にソベルフィルタを適用し、被計測物5の輪郭情報を算出し、この輪郭情報から被計測物5の被検面の面積が何画素に相当するかが算出する。被計測物5として、15mm×15mm×15mmの立方体を考え、ある面が撮像部3に対し45度の傾きを持って撮影されたと想定する。撮影された面の実効的な被検面面積は、10.6mm×10.6mm=112.36mmとなる。1画素あたりの画素サイズを150μm×150μmとすると、被検面の寸法は5000画素相当となる。 The processing unit 100 further includes a detection point calculation unit 105. The detection point calculation unit 105 calculates the number of peaks and edges (detection points) existing in the area where the measurement object 5 exists in the image stored in the image storage unit 102. First, the detection point calculation unit 105 calculates the area of the region where the measurement object 5 exists in the image. For example, a Sobel filter is applied to the image, the contour information of the measurement object 5 is calculated, and the number of pixels corresponding to the area of the test surface of the measurement object 5 is calculated from the contour information. As an object to be measured 5, a 15 mm × 15 mm × 15 mm cube is considered, and it is assumed that a certain surface is photographed with an inclination of 45 degrees with respect to the imaging unit 3. The effective surface area of the imaged surface is 10.6 mm × 10.6 mm = 112.36 mm 2 . When the pixel size per pixel is 150 μm × 150 μm, the dimension of the test surface is equivalent to 5000 pixels.

この被検面に投影されたドットラインパターンの明線垂直方向(X方向)の明部BPと暗部DPの繰り返しピッチを8画素とすると、パターンの1周期でピーク1点、エッジ2点の検出点であるため、X方向に2.7画素ごとに1点の検出点密度となる。Y方向も同密度の検出点密度とすると、被検面における検出点数は1875点となる。以上が、検出点数算出部105で行われる検出点算出プロセスの一例である。   If the repetition pitch of the bright part BP and the dark part DP in the bright line vertical direction (X direction) of the dot line pattern projected on the test surface is 8 pixels, detection of one peak and two edges in one cycle of the pattern Since this is a point, the detection point density is one point for every 2.7 pixels in the X direction. If the detection point density is the same in the Y direction, the number of detection points on the surface to be detected is 1875. The above is an example of the detection point calculation process performed by the detection point calculation unit 105.

図3に、ドットラインパターンをある基準平面に投影した場合における、ドットDT付近の画像を示す。ここではシミュレーションによって画像を求めた。画像の横軸Xおよび縦軸Yは撮像素子32における撮像面の位置に相当し、また、図2の各軸とも対応する。検出点の座標は、ドットラインパターンの各線が延びるY方向に対して例えば垂直なX方向の評価断面における光学像情報(輝度分布)から算出される。   FIG. 3 shows an image in the vicinity of the dot DT when the dot line pattern is projected onto a certain reference plane. Here, an image was obtained by simulation. The horizontal axis X and the vertical axis Y of the image correspond to the position of the image pickup surface in the image pickup device 32, and also correspond to the respective axes in FIG. The coordinates of the detection points are calculated from optical image information (luminance distribution) in the evaluation section in the X direction perpendicular to the Y direction in which each line of the dot line pattern extends.

ドットDTの影響を受けないX方向の評価断面A、ドットDT近傍のX方向評価断面B、及び、ドットDTを通るX方向評価断面Cの各々における光学像(輝度分布)を図4に示す。図4の横軸を撮像素子32の画素の位置(pixel)とし、縦軸を輝度(任意単位a.u.)とする。横軸の1画素(pixel)は、150μmに相当する。図4において、各評価断面についての光学像において、輝度が最大(極大)となるピーク位置を丸で示し、エッジ位置を三角で示す。   FIG. 4 shows optical images (luminance distributions) in the X-direction evaluation section A that is not affected by the dot DT, the X-direction evaluation section B in the vicinity of the dot DT, and the X-direction evaluation section C that passes through the dot DT. 4 is the pixel position (pixel) of the image sensor 32, and the vertical axis is the luminance (arbitrary unit au). One pixel on the horizontal axis corresponds to 150 μm. In FIG. 4, in the optical image for each evaluation section, the peak position where the luminance is maximum (maximum) is indicated by a circle, and the edge position is indicated by a triangle.

ピーク位置は輝度分布から極値を算出することで求めることができ、エッジ位置は、輝度分布を1階微分した輝度勾配から極値を算出することで求めることができる。また、エッジ位置は、輝度勾配を評価した評価値(極値や基準値)から定まる位置として求めてもよい。また、エッジ位置は、輝度の極大値と極小値との間の中央値となる位置を算出することで求めることもできる。   The peak position can be obtained by calculating an extreme value from the luminance distribution, and the edge position can be obtained by calculating the extreme value from a luminance gradient obtained by first-order differentiation of the luminance distribution. The edge position may be obtained as a position determined from an evaluation value (extreme value or reference value) obtained by evaluating the luminance gradient. The edge position can also be obtained by calculating a position that is a median value between the maximum value and the minimum value of luminance.

図4によると、各評価断面におけるエッジ位置がそれぞれ異なった位置となっている。例えば、評価断面Aのエッジ位置と評価断面Cのエッジ位置との差はdである。これはドットの影響により光学像が非対称となった事に伴う現象であり、この位置において三次元情報を取得する限り必ず発生する、所謂系統誤差である。また、図4において、ドットDTの影響を受けないX方向の評価断面Aと比べ、ドットDTの影響を受ける評価断面BおよびCは、コントラストが劣化している。検出点の位置ずれの発生要因として、上記系統誤差の他に、撮影画像のランダムノイズ影響による、測定毎にばらつきを持った誤差、所謂偶然誤差が存在する。この誤差はコントラストが劣化する程大きく発生する。すなわち、ドットDTの影響を受ける評価断面においては、偶然誤差による影響が大きくなりうる。図4によれば、エッジの位置のような評価断面による位置ずれはピークの検出位置にみられない。しかしながら、コントラスト劣化により偶然誤差が発生すればピークの位置ずれは起こりうる。   According to FIG. 4, the edge positions in the respective evaluation sections are different from each other. For example, the difference between the edge position of the evaluation section A and the edge position of the evaluation section C is d. This is a phenomenon associated with the optical image becoming asymmetric due to the influence of dots, and is a so-called systematic error that always occurs as long as three-dimensional information is acquired at this position. In FIG. 4, the evaluation sections B and C affected by the dot DT have deteriorated contrast as compared with the evaluation section A in the X direction that is not affected by the dot DT. In addition to the above-described systematic errors, there are errors that vary depending on the measurement due to the random noise of the captured image, so-called accidental errors. This error increases as the contrast deteriorates. That is, in the evaluation cross section affected by the dot DT, the influence due to the chance error can be large. According to FIG. 4, the position shift due to the evaluation cross section such as the edge position is not observed at the peak detection position. However, if an accidental error occurs due to contrast degradation, a peak position shift can occur.

図5は、ドットからの距離とエッジの系統誤差量またはピークの偶然誤差量との関係を示す図である。横軸は、明線平行方向(Y方向)の画素上の距離を示している。また、縦軸は各誤差量を示していて、系統誤差に関しては発生量そのものを、偶然誤差に関しては20回の検出を行った場合の3σ値の計算結果例を表している。丸でプロットしているものが、エッジ点検出時の系統誤差であり、三角でプロットしているものが、ピーク点検出時の偶然誤差である。どちらの誤差もドットが近くなるほど大きくなることがわかる。処理部100に含まれる精度情報記憶部106は、図5に示すような情報(検出精度情報)を記憶している。   FIG. 5 is a diagram showing the relationship between the distance from the dot and the systematic error amount of the edge or the accidental error amount of the peak. The horizontal axis indicates the distance on the pixel in the bright line parallel direction (Y direction). Also, the vertical axis represents each error amount, and represents an example of a calculation result of a 3σ value when detection is performed for a systematic error and detection is performed 20 times for a coincidence error. What is plotted with a circle is a systematic error when an edge point is detected, and what is plotted with a triangle is a chance error when a peak point is detected. It can be seen that both errors increase as the dots get closer. The accuracy information storage unit 106 included in the processing unit 100 stores information (detection accuracy information) as shown in FIG.

計測誤差を抑える方法としては、ドット近傍の検出点をモデルフィッティングに用いないまたは、ドット近傍の検出点の検出誤差を補正することが考えられる。ドットからの距離を基準にして、使用しない検出点を選択したり、誤差の補正をしたりする場合、偶然誤差によりドットの位置を正確に検出できないと、選択や補正の判断を誤ることがある。本実施形態では、以下で述べるように、モデルフィッティングに使用しない検出点を、ドットからの画素(150μm×150μm)単位で選択しているため、ドットからの距離(μm単位)で選択する場合よりもドットの位置の検出精度は求められない。   As a method of suppressing the measurement error, it is conceivable that a detection point near the dot is not used for model fitting, or a detection error of the detection point near the dot is corrected. When selecting a detection point that is not used or correcting an error based on the distance from the dot, if the dot position cannot be detected accurately due to an accidental error, the selection or correction may be misjudged. . In the present embodiment, as described below, detection points that are not used for model fitting are selected in units of pixels (150 μm × 150 μm) from the dot, so that they are selected in the case of selecting in terms of distance from the dot (unit: μm). However, the dot position detection accuracy is not required.

検出点数算出部105で得られた検出点数情報および、精度情報記憶部106に記憶された検出精度情報(図5)は、採用点決定部107に送られ、後にモデルフィッティングに用いられる点の決定が行われる。図6は、採用点決定部107の詳細を示す図である。採用点決定部107は、採用点候補記憶部400と、比較部403と、誤差算出部402と、を含む。   The detected point number information obtained by the detected point number calculation unit 105 and the detection accuracy information (FIG. 5) stored in the accuracy information storage unit 106 are sent to the adopted point determination unit 107 to determine points used later for model fitting. Is done. FIG. 6 is a diagram showing details of the adoption point determination unit 107. Employment point determination unit 107 includes adoption point candidate storage unit 400, comparison unit 403, and error calculation unit 402.

偶然誤差は、X方向の検出点の精度に影響を与えうる。したがって、採用点の決定基準として、ドットを起点とした明線平行方向(Y方向)の範囲を用いることが考えられる。図7は、採用点の選出方法を示す図である。図7の候補(A)は、検出点を削除しない場合、図7の候補(B)は、ドットの中央画素に含まれる検出点を削除する場合、図7の候補(C)は、ドットの画素すべてを削除する場合、図7の候補(D)は、ドットの隣の画素も削除する場合である。本実施形態では、ドットはY方向に3画素に亘り存在しているものとする。ドットの位置の座標情報は、計測線の輝度分布に微分フィルタを適応し、ゼロクロス点座標を特徴部の位置座標として検出する。本実施形態では、ドットの3画素のうち中央の画素がドットの座標として検出されることとなる。また、1つの画素につき、ピーク1点、エッジ2点が検出され、図7中、ピークは丸、エッジは三角で示されている。ドットの中央画素の検出点は、四角で示されている。   Accidental errors can affect the accuracy of detection points in the X direction. Therefore, it is conceivable to use a range in the bright line parallel direction (Y direction) starting from the dot as a criterion for determining the adoption point. FIG. 7 is a diagram illustrating a method for selecting recruitment points. When the candidate (A) in FIG. 7 does not delete the detection point, the candidate (B) in FIG. 7 deletes the detection point included in the center pixel of the dot, and the candidate (C) in FIG. When all the pixels are deleted, the candidate (D) in FIG. 7 is a case where the pixels adjacent to the dots are also deleted. In the present embodiment, it is assumed that dots exist over three pixels in the Y direction. The coordinate information of the dot position applies a differential filter to the luminance distribution of the measurement line, and detects the zero-cross point coordinates as the position coordinates of the feature portion. In the present embodiment, the center pixel among the three dots is detected as the dot coordinates. Further, one peak and two edges are detected for each pixel. In FIG. 7, the peak is indicated by a circle and the edge is indicated by a triangle. The detection point of the center pixel of the dot is indicated by a square.

採用点候補記憶部400は、図7に示す採用点選出方法の候補を記憶しており、検出点数算出部105で得られた検出点数情報も用いて、各候補に対し、採用点数を決定する。明線平行方向(Y方向)に対するドットの間隔は図2に示した通り被検面内でランダムに変化するが、本実施形態においては最小間隔を6画素、最大間隔を10画素、平均間隔を8画素相当とする。この場合の各候補に対する採用点数を図8に示す。図8の(A)〜(D)は、図7の(A)〜(D)に対応している。図8に示すとおり、候補(A)の採用点数は、1875点、候補(B)の採用点数は、1688点、候補(C)の採用点数は、1125点、候補(D)の採用点数は、750点となる。これら点数情報は、各点の位置情報も含め、採用点候補記憶部400から比較部403に送られる。   The adoption point candidate storage unit 400 stores candidates for the adoption point selection method shown in FIG. 7, and also uses the detection point number information obtained by the detection point calculation unit 105 to determine the number of adoption points for each candidate. . As shown in FIG. 2, the interval between the dots with respect to the bright line parallel direction (Y direction) changes randomly within the test surface. In this embodiment, the minimum interval is 6 pixels, the maximum interval is 10 pixels, and the average interval is Equivalent to 8 pixels. The number of points adopted for each candidate in this case is shown in FIG. 8A to 8D correspond to FIGS. 7A to 7D. As shown in FIG. 8, the candidate (A) has 1875 points, the candidate (B) has 1688 points, the candidate (C) has 1125 points, and the candidate (D) has points. 750 points. The score information including the position information of each point is sent from the recruitment point candidate storage unit 400 to the comparison unit 403.

比較部403は、点数情報を所定の閾値と比較し、閾値を超えた採用点候補に関する情報を誤差算出部402に送る。本実施形態では、処理部100に含まれるモデル情報記憶部111に記憶された最小モデル点数情報を閾値として用いる。モデルフィッティングにおいて、モデル上のモデル点と距離情報が検出された検出点を対応づけてフィッティングが成される。よって、検出点数はモデル点より多い事が必要であり、検出点数がモデル点より著しく少ない場合は、モデルフィッティングが出来ないあるいは大きな位置姿勢算出誤差が生じる事がある。本実施形態では、最少モデル点数を800点とする。   The comparison unit 403 compares the score information with a predetermined threshold value, and sends information related to the adoption point candidate exceeding the threshold value to the error calculation unit 402. In the present embodiment, the minimum model score information stored in the model information storage unit 111 included in the processing unit 100 is used as a threshold value. In model fitting, fitting is performed by associating model points on the model with detection points where distance information is detected. Therefore, the number of detected points needs to be larger than that of model points. If the number of detected points is significantly smaller than model points, model fitting cannot be performed or a large position / orientation calculation error may occur. In the present embodiment, the minimum model score is 800 points.

図8に示した点数情報によれば、候補(D)の場合の採用点数が閾値である800点を下回る。よって、候補(A)、候補(B)および候補(C)の採用点が誤差算出部402に送られる。   According to the score information shown in FIG. 8, the number of adopted points in the case of the candidate (D) is below the threshold value of 800 points. Therefore, the adoption points of candidate (A), candidate (B), and candidate (C) are sent to error calculation section 402.

誤差算出部402は、各候補による点数情報および、精度情報記憶部106から送られる検出精度情報からモデルフィッティング時の誤差の想定量を算出する。図9は、各候補の被検面内の系統誤差および偶然誤差を示す図である。各誤差は、候補ごとのローカリティが出ないように、十分広い領域において誤差の面内二重平均平方根(RMS)を算出している。また、偶然誤差、系統誤差ともにエッジ点検出、ピーク点検出の両方の影響を考慮している。図5に示したように系統誤差はドットからの距離が離れた位置では急速に誤差量が減少するため、(A)から(C)へ不採用領域を広げるに従い誤差が大きく減少している。一方で、偶然誤差はドットからの距離に対する依存性が比較的小さい為、(A)から(C)へ不採用領域を広げても系統誤差程の改善効果は得られていない。   The error calculation unit 402 calculates an assumed amount of error at the time of model fitting from the score information by each candidate and the detection accuracy information sent from the accuracy information storage unit 106. FIG. 9 is a diagram showing systematic errors and chance errors in each candidate test surface. For each error, an in-plane double average square root (RMS) of the error is calculated in a sufficiently wide region so that locality for each candidate does not appear. In addition, the effects of both edge point detection and peak point detection are taken into account for both accidental errors and systematic errors. As shown in FIG. 5, since the error amount of the systematic error decreases rapidly at a position away from the dot, the error greatly decreases as the non-adopted region is expanded from (A) to (C). On the other hand, since the chance error has a relatively small dependence on the distance from the dot, even if the non-adopted area is expanded from (A) to (C), the improvement effect of the systematic error is not obtained.

図9に示した誤差に対して、図8に示した点数情報を加味したものが、各候補に対するモデルフィッティング後の精度の想定量となる。モデルフィッティグにおいてモデルと対応づけられる距離点数をnとした場合に、モデルフィッティング誤差は検出点精度に対しnの平方根を掛けたものとなる。モデルフィッティング誤差として、図9で示した偶然誤差,系統誤差の2乗和平均を計算し、それに図8で示す検出点数の平方根を掛けた後に規格化を行った結果を図10に示す。この結果によると候補(C)のモデルフィッティング誤差が最小になり、最終的な採用点判定基準として選択されることとなる。   A value obtained by adding the point information shown in FIG. 8 to the error shown in FIG. 9 is an estimated amount of accuracy after model fitting for each candidate. When the number of distance points associated with a model in model fitting is n, the model fitting error is the detection point accuracy multiplied by the square root of n. FIG. 10 shows the result of normalization after calculating the square sum of the coincidence error and systematic error shown in FIG. 9 as the model fitting error and multiplying it by the square root of the number of detection points shown in FIG. According to this result, the model fitting error of the candidate (C) is minimized, and is selected as the final adoption point determination criterion.

こうして選択された判定基準は、処理部100内の検出点選別部108に送られる。検出点選出部108は、候補(C)の判定基準および、検出部103で検出された検出点情報からモデルフィッティングで用いられる点の選別(特定)を行う。すなわち、ドットの中心画素に加え、明線平行方向に対しドット中心画素から前後1画素離れた画素に含まれる計測点を除外する。次に、処理部100内の距離情報算出部109は、検出点選別部108で選別(特定)された検出点情報と、ドットの情報から識別した各計測線の指標(番号等)を用いて、三角測量の原理から各画素における被計測物5の距離情報(3次元情報)を算出する。   The determination criterion thus selected is sent to the detection point selection unit 108 in the processing unit 100. The detection point selection unit 108 performs selection (specification) of points used in model fitting based on the determination criterion of the candidate (C) and the detection point information detected by the detection unit 103. That is, in addition to the center pixel of the dot, measurement points included in a pixel one pixel away from the center pixel of the dot in the direction parallel to the bright line are excluded. Next, the distance information calculation unit 109 in the processing unit 100 uses the detection point information selected (specified) by the detection point selection unit 108 and the index (number, etc.) of each measurement line identified from the dot information. Then, distance information (three-dimensional information) of the measurement object 5 at each pixel is calculated from the principle of triangulation.

最後に、処理部100内の位置姿勢算出部110は、距離情報算出部109が求めた3次元情報および、モデル情報記憶部111に記憶されたモデル情報によってモデルフィッティングを行い、被計測物5の位置姿勢を算出する。   Finally, the position / orientation calculation unit 110 in the processing unit 100 performs model fitting based on the three-dimensional information obtained by the distance information calculation unit 109 and the model information stored in the model information storage unit 111, and Calculate the position and orientation.

このように、本実施形態の構成を備えた計測装置は、ドットの位置の計測精度によらず、ドット近傍の検出点の計測誤差による被計測物の計測精度の影響を抑えることができる。以上のように、本実施形態によれば、計測精度の点で有利な計測装置を提供することができる。   As described above, the measurement apparatus having the configuration of the present embodiment can suppress the influence of the measurement accuracy of the measurement object due to the measurement error of the detection point in the vicinity of the dot, regardless of the measurement accuracy of the dot position. As described above, according to the present embodiment, it is possible to provide a measurement device that is advantageous in terms of measurement accuracy.

次に、被検面の寸法を考慮した計測方法について説明する。図11は、各候補について被検面面積と採用点数との関係を示す図である。採用点数の閾値である800点は、図中点線で示している。図11に示すとおり、いずれの候補も、採用点数は被検面の面積に比例する。閾値と比較をすると、被検面面積が53.3mmまでは候補(A)しか閾値を超えない。また、被検面面積が80.0mmまでは候補(A)または候補(B)が閾値を超え、80.0mmを超えて120.0mmまでは候補(A)、(B)または(C)が閾値を超え、120.0mmを超えるとすべての候補が閾値を超える。 Next, a measurement method that takes into account the dimensions of the test surface will be described. FIG. 11 is a diagram showing the relationship between the test surface area and the number of points employed for each candidate. 800 points which are threshold values for the number of points adopted are indicated by dotted lines in the figure. As shown in FIG. 11, for any candidate, the number of points adopted is proportional to the area of the test surface. When compared with the threshold value, only the candidate (A) exceeds the threshold value until the surface area to be tested is 53.3 mm 2 . Moreover, beyond the test surface area of up to 80.0 mm 2 candidate (A) or candidate (B) the threshold, until 120.0Mm 2 exceed 80.0 mm 2 candidate (A), (B) or ( If C) exceeds the threshold and exceeds 120.0 mm 2 , all candidates exceed the threshold.

図12は、各候補について被検面面積とモデルフィッティング誤差との関係を示す図である。図11で示したとおり、被検面面積が53.3mm2までは候補(A)の候補が選択される。被検面積が53.3mmから80.0mmまでは候補(A)を選択した場合の誤差(精度)と、候補(B)を選択した場合の誤差(精度)とを比較して、精度が良好な方が選択される(本実施形態では(B))。同様に、被検面面積が80.0mmから120.0mmまでは候補(C)が選択され、120.0mmより大きい場合候補(D)が選択される。選択された候補によるモデルフィッティング誤差を、図12中に実線で示す。 FIG. 12 is a diagram showing the relationship between the test surface area and the model fitting error for each candidate. As shown in FIG. 11, candidates (A) are selected until the surface area to be examined is 53.3 mm 2. When the test area is 53.3 mm 2 to 80.0 mm 2, the error (accuracy) when the candidate (A) is selected is compared with the error (accuracy) when the candidate (B) is selected. Is selected (in this embodiment, (B)). Similarly, the candidate (C) is selected when the surface area to be examined is from 80.0 mm 2 to 120.0 mm 2, and the candidate (D) is selected when it is larger than 120.0 mm 2 . The model fitting error due to the selected candidate is indicated by a solid line in FIG.

以上のように、被検面面積により選択する候補を変えることで、多様なサイズの被検物の計測に対応することができる。例えば、被検面面積が53.3mm以下の小型ワークでは候補(B)から(D)を選択するとモデルフィッティングに用いられる距離点点数がモデル点より少なくなりえるので、位置姿勢推定が行えない。または、大幅にモデルフィッティング誤差が増大する事が起こり得る。しかし、本実施形態の採用点選出方法においては、必ずモデルフィッティングに必要な距離点数が得られるような候補を選択可能である。 As described above, by changing the candidate to be selected according to the area of the test surface, it is possible to cope with measurement of test objects of various sizes. For example, in the case of a small work having a surface area of 53.3 mm 2 or less, if (D) is selected from candidates (B), the number of distance points used for model fitting may be less than that of model points, and thus position and orientation cannot be estimated. . Or, the model fitting error may increase significantly. However, in the adopted point selection method of the present embodiment, a candidate that can always obtain the number of distance points necessary for model fitting can be selected.

また、例えば、被検面面積が120mm以上の大型ワークにおいて、候補(A)を採用した場合と、候補(D)を採用した場合を比較する。図9に記す最大被検面面積である、200mmの場合、候補(D)を採用する事で、候補(A)を採用した場合に比べて、誤差量が45%となる。 Further, for example, a case where the candidate (A) is adopted and a case where the candidate (D) is adopted are compared in a large workpiece having a surface area of 120 mm 2 or more. In the case of 200 mm 2 which is the maximum test surface area shown in FIG. 9, adopting the candidate (D) results in an error amount of 45% compared to the case of adopting the candidate (A).

以上のように、モデルフィッティングに必要な検出点数を保証した上で、計測精度の悪化要因となりうる検出点を除外する事で、計測精度の低下を抑えることができる。上述の実施形態では計測線の識別を行った後、距離情報を算出する前に採用点範囲を決定するものとしたが、計測線の識別および、距離情報の算出をした後に、上記と同様の採用点範囲の決定を行い、距離情報を不採用してもよい。   As described above, by assuring the number of detection points necessary for model fitting and excluding detection points that can be a cause of deterioration in measurement accuracy, a decrease in measurement accuracy can be suppressed. In the above-described embodiment, after the measurement line is identified, the adopted point range is determined before calculating the distance information. However, after the measurement line is identified and the distance information is calculated, the same as the above is performed. It is also possible to determine the adoption point range and not adopt the distance information.

ドットは計測線の識別のために必要であるが、識別に用いられた後、最終的な三次元計測結果を導出するまでに、ドットの画素に含まれる計測点またはその周囲の画素に含まれる計測点をどの段階で不採用とするかは任意で決める事が可能である。   The dot is necessary for identifying the measurement line, but after being used for identification, it is included in the measurement point included in the pixel of the dot or in the surrounding pixels until the final three-dimensional measurement result is derived. It is possible to arbitrarily decide at which stage the measurement point is not adopted.

上述の実施形態において、閾値はモデル情報記憶部110に記憶された最少モデル点数情報とした。この閾値は、計測装置の計測対象となるワークのうち、最小の被検面を有するワークを計測したときに得られる検出点数に基づいて決定しても良い。上記の通り、計測装置の精度は各点の検出精度と検出点数で決定されている。検出点削除を行わない場合、あるいはワークサイズによらず同様に検出点を削除する場合、ワークサイズが大きくなるほど、検出点数が増えるため、計測精度は向上する。すなわち、装置の精度は計測対象のワークの最小被検面の計測精度で律速されるものであり、それより大きなワークを測定した場合、各点の検出精度同等以上かつ前記の閾値点数以上であれば計測精度が保証値より悪くなる事はない。   In the above-described embodiment, the threshold value is the minimum model score information stored in the model information storage unit 110. This threshold value may be determined based on the number of detection points obtained when measuring a workpiece having the smallest test surface among the workpieces to be measured by the measuring apparatus. As described above, the accuracy of the measuring device is determined by the detection accuracy of each point and the number of detection points. When detection points are not deleted, or when detection points are similarly deleted regardless of the workpiece size, the number of detection points increases as the workpiece size increases, so the measurement accuracy improves. In other words, the accuracy of the device is limited by the measurement accuracy of the minimum test surface of the workpiece to be measured, and when measuring a workpiece larger than that, the accuracy of detection at each point should be equal to or greater than the above threshold score. In this case, the measurement accuracy will not be worse than the guaranteed value.

上記の実施形態では、検出点数は画像から求めた輪郭情報に基づいて算出したが、距離点群情報を先に求める場合、そこから求めた被検面の傾き情報と計測対象物情報から検出面積に基づいて算出しても良い。更に、上述の実施形態では、検出点数は実測画像に基づいて導出したが、計測対象物情報と撮影される対象物被検面の最大傾斜角情報に基づいた想定最小検出点数に基づいて導出しても良い。この場合、実測の検出点数より少ない想定検出点数を閾値と比較することになり、実計測条件に鑑みた不採用パターンの切り替えは行われない。しかし、簡易な方法でパターンの切り替えが行われる事に加え、前述の判定方法で生じ得る輪郭情報の誤差等の各種検出誤差影響を受けない。   In the above embodiment, the number of detection points is calculated based on the contour information obtained from the image. However, when the distance point group information is obtained first, the detection area is obtained from the inclination information of the test surface obtained from the information and the measurement object information. You may calculate based on. Further, in the above-described embodiment, the number of detection points is derived based on the actual measurement image. However, the number of detection points is derived based on the estimated minimum number of detection points based on the measurement object information and the maximum inclination angle information of the object surface to be imaged. May be. In this case, an assumed number of detection points smaller than the actually detected number of detection points is compared with a threshold value, and the non-adopted pattern is not switched in view of actual measurement conditions. However, in addition to the fact that the pattern is switched by a simple method, it is not affected by various detection errors such as errors in contour information that can occur in the above-described determination method.

上記の実施形態においては、モデルは位置姿勢計測結果を求めるために3次元モデルを用いる事を想定して記している。例えば、ある被検面の面情報を求めるためには、その平面の2次元モデルがあればよく、その場合においても本実施形態の選択方法は有効である。   In the above embodiment, the model is described assuming that a three-dimensional model is used to obtain the position and orientation measurement result. For example, in order to obtain the surface information of a certain test surface, it is sufficient if there is a two-dimensional model of the plane, and even in this case, the selection method of this embodiment is effective.

なお、パターン生成部22によって生成され、被計測物5に投影されるパターンは、図2に示すパターンに限らず、明と暗を反転したパターンでもよい。また、パターン生成部22によって生成され、被計測物5に投影されるパターンは、明部と暗部に限らず、階調パターンや多色パターンなど、複数の線を含むパターンであればよい。また、線は直線でも曲線でもよい。また、識別部としては、ドットに限らず、丸形状や、幅を狭くした部分など、各線を識別できる符号であればよい。ドットが設けられる位置は、明部上であっても暗部上であってもよい。   Note that the pattern generated by the pattern generation unit 22 and projected onto the measurement object 5 is not limited to the pattern shown in FIG. 2 but may be a pattern in which light and dark are reversed. The pattern generated by the pattern generation unit 22 and projected onto the measurement object 5 is not limited to a bright part and a dark part, and may be a pattern including a plurality of lines such as a gradation pattern and a multicolor pattern. The line may be a straight line or a curved line. In addition, the identification unit is not limited to a dot, and may be any code that can identify each line, such as a round shape or a portion with a narrow width. The position where the dot is provided may be on the bright part or on the dark part.

以上、本発明の実施の形態を説明してきたが、本発明はこれらの実施の形態に限定されず、その要旨の範囲内において様々な変更が可能である。   As mentioned above, although embodiment of this invention has been described, this invention is not limited to these embodiment, A various change is possible within the range of the summary.

2 投影部
3 撮像部
5 被計測物
100 処理部


2 Projection unit 3 Imaging unit 5 Object to be measured 100 Processing unit


Claims (7)

被計測物の形状を計測する計測装置であって、
互いの線を識別するための識別部が設けられた複数の線を含むパターン光が投影された前記被計測物を撮像して得られる画像に基づいて、前記被計測物の形状の情報を求める処理部、を有し、
前記処理部は、
前記画像の前記線に交差する方向における輝度分布から、輝度がピークとなる位置、又は輝度分布の勾配がピークとなる位置を取得し、
取得された前記位置のうち、前記線の延びる方向において、前記識別部を含む画素に属する位置、および、前記識別部を含む画素から所定の範囲の画素に属する位置を除いた位置を特定し、 前記特定された位置に基づいて、前記被計測物の形状の情報を求める、ことを特徴とする計測装置。
A measuring device for measuring the shape of an object to be measured,
Information on the shape of the object to be measured is obtained based on an image obtained by imaging the object to be measured on which pattern light including a plurality of lines provided with an identification unit for identifying each other line is projected. A processing unit,
The processor is
From the luminance distribution in the direction intersecting the line of the image, obtain a position where the luminance is a peak, or a position where the gradient of the luminance distribution is a peak,
Among the acquired positions, in the direction in which the line extends, the position belonging to the pixel including the identification unit and the position excluding the position belonging to a pixel in a predetermined range from the pixel including the identification unit, A measuring apparatus characterized in that information on the shape of the object to be measured is obtained based on the specified position.
前記所定の範囲は、前記特定された位置の数が前記情報を求めるために必要な数を満たすように決定される、ことを特徴とする請求項1に記載の計測装置。   The measuring apparatus according to claim 1, wherein the predetermined range is determined so that the number of the specified positions satisfies a number necessary for obtaining the information. 前記必要な数は、前記被計測物の寸法、又は形状に基づいて決定される、ことを特徴とする請求項2に記載の計測装置。   The measuring apparatus according to claim 2, wherein the necessary number is determined based on a size or a shape of the object to be measured. 前記所定の範囲は、前記必要な数を満たし、かつ、前記情報が求める際の精度が小さい範囲である、ことを特徴とする請求項1乃至3のうちいずれか1項に記載の計測装置。   The measuring apparatus according to claim 1, wherein the predetermined range is a range that satisfies the required number and has a small accuracy when the information is obtained. 前記処理部は、
前記輝度がピークとなる位置又は輝度分布の勾配がピークとなる位置のうち、前記識別部を含む画素に属する位置、および、前記識別部を含む画素から前記線の延びる方向における第1範囲の画素に属する位置を除いた位置に基づいて求めた前記被計測物の形状の情報の第1精度と、
前記輝度がピークとなる位置又は輝度分布の勾配がピークとなる位置のうち、前記識別部を含む画素に属する位置、および、前記識別部を含む画素から前記線の延びる方向における前記第1範囲とは異なる第2範囲の画素に属する位置を除いた位置に基づいて求めた前記被計測物の形状の情報の第2精度と、を算出し、
算出された第1精度と第2精度を比較することによって前記所定の範囲を決定する、ことを特徴とする請求項1乃至4のうちいずれか1項に記載の計測装置。
The processor is
Of the position where the luminance reaches a peak or the position where the gradient of the luminance distribution reaches a peak, the position belonging to the pixel including the identification unit, and the pixels in the first range in the direction in which the line extends from the pixel including the identification unit First accuracy of the information on the shape of the measurement object obtained based on the position excluding the position belonging to
Of the position where the luminance reaches a peak or the position where the gradient of the luminance distribution reaches a peak, the position belonging to the pixel including the identification unit, and the first range in the direction in which the line extends from the pixel including the identification unit Calculates a second accuracy of the information on the shape of the measurement object obtained based on a position excluding a position belonging to a pixel in a different second range,
5. The measuring apparatus according to claim 1, wherein the predetermined range is determined by comparing the calculated first accuracy and second accuracy. 6.
前記パターン光を前記被計測物に投影する投影部と、
前記パターン光が投影された前記被計測物を撮像して画像を取得する撮像部と、を有し、
前記処理部は、前記撮像部によって取得された前記画像に基づいて前記被計測物の形状の情報を求める、ことを特徴とする請求項1乃至5のうちいずれか1項に記載の計測装置。
A projection unit that projects the pattern light onto the measurement object;
An imaging unit that captures an image of the object to be measured on which the pattern light is projected;
The measurement apparatus according to claim 1, wherein the processing unit obtains information on a shape of the measurement object based on the image acquired by the imaging unit.
互いの線を識別するための識別部が設けられた複数の線を含むパターン光が投影された前記被計測物を撮像して得られる画像に基づいて、被計測物の形状の情報を求める計測方法であって、
前記線に交差する方向における輝度分布から、輝度がピークとなる位置、又は輝度分布の勾配がピークとなる位置を取得し、
取得された前記位置のうち、前記線の延びる方向において、前記識別部を含む画素に属する位置、および、前記識別部を含む画素から所定の範囲の画素に属する位置を除いた位置を特定し、
前記特定された位置に基づいて前記被計測物の形状の情報を求める、ことを特徴とする計測方法。
Measurement for obtaining information on the shape of the object to be measured based on an image obtained by imaging the object to be measured on which pattern light including a plurality of lines provided with an identification unit for identifying each other line is projected A method,
From the luminance distribution in the direction intersecting the line, obtain the position where the luminance is the peak, or the position where the gradient of the luminance distribution is the peak,
Among the acquired positions, in the direction in which the line extends, the position belonging to the pixel including the identification unit and the position excluding the position belonging to a pixel in a predetermined range from the pixel including the identification unit,
Information on the shape of the object to be measured is obtained based on the specified position.
JP2016039099A 2016-03-01 2016-03-01 Measurement device and measurement method Pending JP2017156197A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016039099A JP2017156197A (en) 2016-03-01 2016-03-01 Measurement device and measurement method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016039099A JP2017156197A (en) 2016-03-01 2016-03-01 Measurement device and measurement method

Publications (1)

Publication Number Publication Date
JP2017156197A true JP2017156197A (en) 2017-09-07

Family

ID=59809583

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016039099A Pending JP2017156197A (en) 2016-03-01 2016-03-01 Measurement device and measurement method

Country Status (1)

Country Link
JP (1) JP2017156197A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108613634A (en) * 2018-03-12 2018-10-02 四川大学 A kind of method and apparatus of slope splicing detection plane component face shape

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150206325A1 (en) * 2014-01-20 2015-07-23 Canon Kabushiki Kaisha Three-dimensional measurement apparatus, three-dimensional measurement method and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150206325A1 (en) * 2014-01-20 2015-07-23 Canon Kabushiki Kaisha Three-dimensional measurement apparatus, three-dimensional measurement method and program
JP2015155886A (en) * 2014-01-20 2015-08-27 キヤノン株式会社 Three-dimensional measurement apparatus, three-dimensional measurement method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108613634A (en) * 2018-03-12 2018-10-02 四川大学 A kind of method and apparatus of slope splicing detection plane component face shape

Similar Documents

Publication Publication Date Title
JP5576726B2 (en) Three-dimensional measuring apparatus, three-dimensional measuring method, and program
JP6512912B2 (en) Measuring device for measuring the shape of the object to be measured
JP6465682B2 (en) Information processing apparatus, information processing method, and program
US9007602B2 (en) Three-dimensional measurement apparatus, three-dimensional measurement method, and computer-readable medium storing control program
JP5132832B1 (en) Measuring apparatus and information processing apparatus
JP5631025B2 (en) Information processing apparatus, processing method thereof, and program
JP2017146298A (en) Shape measurement system, shape measurement device and shape measurement method
JP7186019B2 (en) Three-dimensional shape measuring device and three-dimensional shape measuring method
US20150189144A1 (en) Information processing apparatus and method thereof
KR20190104367A (en) 3D shape measuring device, 3D shape measuring method and program
US20160356596A1 (en) Apparatus for measuring shape of object, and methods, system, and storage medium storing program related thereto
JP6521700B2 (en) Measuring device and measuring method
JP2017156197A (en) Measurement device and measurement method
CN107810384B (en) Stripe projection method, stripe projection apparatus, and computer program product
JP2018151172A (en) Three-dimensional measuring device, three-dimensional measuring method, and program
JP6456084B2 (en) Image processing apparatus, image processing method, and program
JP6552230B2 (en) Measuring device
JP5968370B2 (en) Three-dimensional measuring apparatus, three-dimensional measuring method, and program
CN110906884B (en) Three-dimensional geometry measuring apparatus and three-dimensional geometry measuring method
JP6170714B2 (en) Ranging device
JP7390239B2 (en) Three-dimensional shape measuring device and three-dimensional shape measuring method
JP2013037012A (en) Measurement device, information processing device, measurement method, information processing method and program
US11948321B2 (en) Three-dimensional geometry measurement apparatus and three-dimensional geometry measurement method
CN111829456A (en) Three-dimensional shape measuring device and three-dimensional shape measuring method
TWI499823B (en) Image compensation method for laser reflective patterns

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191217

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200804