JP2016121916A - Shape measurement device - Google Patents

Shape measurement device Download PDF

Info

Publication number
JP2016121916A
JP2016121916A JP2014261095A JP2014261095A JP2016121916A JP 2016121916 A JP2016121916 A JP 2016121916A JP 2014261095 A JP2014261095 A JP 2014261095A JP 2014261095 A JP2014261095 A JP 2014261095A JP 2016121916 A JP2016121916 A JP 2016121916A
Authority
JP
Japan
Prior art keywords
display
target
pattern
unit
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014261095A
Other languages
Japanese (ja)
Inventor
知弘 廣瀬
Tomohiro Hirose
知弘 廣瀬
塚田 敏彦
Toshihiko Tsukada
敏彦 塚田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2014261095A priority Critical patent/JP2016121916A/en
Publication of JP2016121916A publication Critical patent/JP2016121916A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To simplify a process for measuring the shape of a target by a pattern mirrored in the target.SOLUTION: A first image-capturing device 10 and a second image-capturing device 12 capture an image of each pattern mirrored in a target 20 from a display 16. A control/arithmetic unit 18 finds, on the basis of an image of each mirrored pattern, a physical relationship vector m1 indicating physical relationship between a center point C1 of image capture and a display point A1 on a display surface, and finds a physical relationship vector m2 indicating physical relationship between a center point C2 of image capture and a display point A2 on a display surface. The control/arithmetic unit 18 finds the position of each measurement point on the target 20 using the physical relationship vectors m1 and m2 on the basis of a geometric optical relation that holds true with regard to an optical path from the display point through measurement points on the target 20 to the first center point C1 of image capture and a geometric optical relation that holds true with regard to an optical path from the display point through measurement points on the target 20 to the second center point C2 of image capture.SELECTED DRAWING: Figure 1

Description

本発明は、形状測定装置に関し、特に、目標物に写り込ませたパターンによって目標物の形状を測定する装置に関する。   The present invention relates to a shape measuring apparatus, and more particularly to an apparatus for measuring the shape of a target by using a pattern reflected on the target.

物体の表面形状を測定する装置につき広く研究開発が行われている。このような形状測定装置には、目標物の3次元形状を非接触で測定する表面形状測定装置がある。とりわけ、鏡面性の高い目標物の表面形状を測定する装置としては、ディスプレイに表示したパターンを目標物に写り込ませる方式を採用したものがある。この方式では、目標物に写り込んだパターンを撮像器によって撮影する。そして、撮像器による撮影データに基づいて、目標物に写り込んだパターン上の位置と、ディスプレイ表示面上の表示点の位置との対応関係を求める。さらに、この対応関係に基づいて目標物上の各測定点における法線ベクトル、および、表示点から測定点を経て撮像器に至る光路に関する幾何光学的な解析を行い、目標物上の各測定点の位置を求め、目標物の形状を求める。   Research and development has been extensively conducted on devices for measuring the surface shape of objects. Such a shape measuring apparatus includes a surface shape measuring apparatus that measures a three-dimensional shape of a target without contact. In particular, as an apparatus for measuring the surface shape of a target with high specularity, there is one that employs a method of reflecting a pattern displayed on a display on a target. In this method, a pattern reflected on a target is photographed by an imager. Then, a correspondence relationship between the position on the pattern reflected on the target and the position of the display point on the display surface is obtained based on the data captured by the imager. Furthermore, based on this correspondence relationship, a normal vector at each measurement point on the target object and a geometric optical analysis on the optical path from the display point to the image sensor through the measurement point are performed, and each measurement point on the target object is analyzed. To determine the shape of the target.

特許文献1および非特許文献1には、鏡面性の高い目標物の形状を計測する手法が記載されている。これらの文献には位相シフト法が記載されている。位相シフト法では、ディスプレイに表示するパターンとして、縦方向に輝度が波形状に変化するパターン、および横方向に輝度が波形状に変化するパターンが用いられる。波形状の明暗パターン(濃淡パターン)を縞の長手方向に垂直な方向に所定の位相だけ移動させ、目標物に写り込んだ縞模様の変化が解析される。   Patent Document 1 and Non-Patent Document 1 describe a technique for measuring the shape of a target with high specularity. These documents describe the phase shift method. In the phase shift method, as a pattern to be displayed on the display, a pattern in which the luminance changes in a waveform in the vertical direction and a pattern in which the luminance changes in a waveform in the horizontal direction are used. A wave-like light / dark pattern (light / dark pattern) is moved by a predetermined phase in a direction perpendicular to the longitudinal direction of the stripe, and the change of the stripe pattern reflected on the target is analyzed.

非特許文献2には、レンズおよび受光面を有する撮像器をピンホールカメラによって表す技術や、測定に用いられる各機材の姿勢を校正する技術が記載されている。   Non-Patent Document 2 describes a technique for representing an image pickup device having a lens and a light receiving surface with a pinhole camera, and a technique for calibrating the posture of each equipment used for measurement.

特開2007−322162号公報JP 2007-322162 A

エム.シー.クナウアー(M. C. Knauer)外2名、「位相測定デフレクトメトリ:鏡面測定の新しいアプローチ(Phase Measuring Deflectometry: a new approach to measure specular free-form surfaces)」、国際光工学会論文集(Proceedings of SPIE)、平成16年、第5457巻、p.366−377M. Sea. 2 outside MC Knauer, “Phase Measuring Deflectometry: a new approach to measure specular free-form surfaces”, Proceedings of SPIE 2004, 5457, p. 366-377 ゼット.ザング(Z. Zhang)「カメラキャリブレーションのためのフレキシブルな新しい技術(A Flexible New Technique for Camera Calibration)」、IEEE会報、パターン解析と機械知能(Pattern Analysis and Machine Intelligence, IEEE Transactions)、22巻、p.1300−1334Zet. Z. Zhang “A Flexible New Technique for Camera Calibration”, IEEE Bulletin, Pattern Analysis and Machine Intelligence, IEEE Transactions, Volume 22, p. 1300-1334

一般に、目標物に写り込ませた明暗パターンによって目標物の形状を測定する方法では、明暗パターンの縞模様の間隔、すなわち、明暗の変化の波長が短い程、ディスプレイ表示面上の表示点の位置を求める際の測定分解能が高くなる。これは、波長が短い程、ディスプレイ表示面において隣接する画素間での明暗の変化が大きくなり、ノイズの影響を受け難いためである。しかし、波長を短くすると、目標物に写り込んだ明暗変化の各周期における絶対的な位相値を、隣接する周期の位相を考慮して求める処理が必要となる。ここで絶対的な位相値とは、−πから+πの位相範囲における位相値に2πκを加算した値をいう。κは、明暗の変化方向に沿って1周期ごとに1ずつ増加する整数であり、ディスプレイ表面上に表示された明暗パターンの各周期に対応する。このような、隣接周期間で位相を接続する処理には、目標物に写り込んだパターンの撮影画像を用いた複雑な処理が伴うことがある。   In general, in the method of measuring the shape of a target by a light / dark pattern reflected on the target, the distance between the stripes of the light / dark pattern, that is, the position of the display point on the display surface becomes shorter as the wavelength of the light / dark change is shorter. The measurement resolution when obtaining is increased. This is because the shorter the wavelength, the greater the change in brightness between adjacent pixels on the display surface, making it less susceptible to noise. However, if the wavelength is shortened, it is necessary to perform processing for obtaining an absolute phase value in each period of the change in brightness reflected in the target in consideration of the phase of the adjacent period. Here, the absolute phase value means a value obtained by adding 2πκ to the phase value in the phase range of −π to + π. κ is an integer that increases by 1 for each period along the light-dark change direction, and corresponds to each period of the light-dark pattern displayed on the display surface. Such processing for connecting phases between adjacent periods may involve complicated processing using a captured image of a pattern reflected in a target.

本発明は、目標物に写り込ませたパターンによって目標物の形状を測定する処理を簡単にすることを目的とする。   An object of this invention is to simplify the process which measures the shape of a target object by the pattern reflected on the target object.

本発明は、複数種の表示パターンを目標物に1種類ずつ写り込ませるパターン表示部と、前記パターン表示部が有するパターン表示面上の表示点に対し、前記複数種の表示パターンに基づく表示位置符号を対応付ける表示位置符号対応付け部と、前記目標物に写り込んだ各パターンを撮影する撮像部と、前記撮像部が撮影した各写り込み画像上の各点に対し、測定点位置符号を対応付ける測定点位置符号対応付け部と、前記表示位置符号と前記測定点位置符号とに基づいて、前記撮像部と、前記目標物上の測定点に対応する前記パターン表示面上の表示点との位置関係を表す位置関係量を求める位置関係演算部と、前記パターン表示面上の表示点から前記目標物上の測定点を経て前記撮像部に至る光路について成立する幾何光学的関係であって、前記位置関係量によって表される位置関係を含む幾何光学的関係に基づいて、前記目標物上の測定点の位置を求める測定点演算部と、を備えることを特徴とする。   The present invention provides a pattern display unit that displays a plurality of types of display patterns one by one on a target, and a display position based on the plurality of types of display patterns with respect to display points on a pattern display surface of the pattern display unit. A display position code associating unit for associating codes, an image capturing unit for capturing each pattern reflected in the target, and a point on the reflected image captured by the image capturing unit for associating a measurement point position code Based on the measurement point position code association unit, the display position code, and the measurement point position code, the position of the imaging unit and the display point on the pattern display surface corresponding to the measurement point on the target A positional relationship calculation unit for obtaining a positional relationship amount representing a relationship, and a geometric optical relationship established for an optical path from a display point on the pattern display surface through a measurement point on the target to the imaging unit. , Based on the geometrical optics relationships including the position relationship represented by the position related quantity, characterized in that it comprises a measurement point calculation unit for determining the position of the measurement point on the target.

望ましくは、前記複数種の表示パターンはその輝度が二値からなり、前記表示位置符号対応付け部は、前記パターン表示面を構成する表示点の位置を、前記複数種の表示パターンの枚数と同じ桁数の二値符号で表される前記表示位置符号として符号化し、前記測定点位置符号対応付け部は、前記撮像部が撮影した各前記写り込み画像に基づいて、前記写り込み画像を構成する各画素を、前記複数種の表示パターンの枚数と同じ桁数の二値符号で表される前記測定点位置符号として符号化する。   Preferably, the plurality of types of display patterns are binary in luminance, and the display position code association unit has the same position of the display points constituting the pattern display surface as the number of the plurality of types of display patterns. The measurement point position code association unit encodes the display position code represented by a binary code of the number of digits, and configures the reflected image based on each reflected image captured by the imaging unit. Each pixel is encoded as the measurement point position code represented by a binary code having the same number of digits as the number of the plurality of types of display patterns.

望ましくは、前記撮像部は、前記目標物に写り込んだ各パターンを第1位置および第2位置から撮影して、それぞれ、第1画像および第2画像を生成し、前記位置関係演算部は、前記第1画像および前記第2画像に基づいて、前記目標物上の測定点につきステレオマッチング条件が成立する前記位置関係量として、それぞれ、第1位置関係量および第2位置関係量を求め、前記測定点演算部は、ステレオマッチング条件を成立させる前記第1位置関係量および前記第2位置関係量に基づいて前記目標物上の測定点の位置を求める。   Preferably, the imaging unit captures each pattern captured on the target from a first position and a second position, and generates a first image and a second image, respectively, and the positional relationship calculation unit includes: Based on the first image and the second image, a first positional relationship amount and a second positional relationship amount are obtained as the positional relationship amounts for which a stereo matching condition is satisfied for the measurement points on the target, respectively, The measurement point calculation unit obtains the position of the measurement point on the target based on the first positional relationship amount and the second positional relationship amount that satisfy the stereo matching condition.

望ましくは、前記測定点演算部は、 前記目標物上の複数の測定点のそれぞれについての前記幾何光学的関係と、隣接する測定点における平面要素の連続性とに基づく方程式を解くことにより、前記目標物上の複数の測定点の各位置を求める方程式演算部を備え、前記方程式演算部は、前記目標物上の複数の測定点のうち、ステレオマッチング条件に基づき位置が求められた代表点の位置を用いて、前記方程式を解く。   Preferably, the measurement point calculation unit solves the equation based on the geometric optical relationship for each of a plurality of measurement points on the target and the continuity of planar elements at adjacent measurement points, thereby An equation calculation unit for obtaining each position of a plurality of measurement points on the target is provided, and the equation calculation unit is a representative point for which the position is determined based on a stereo matching condition among the plurality of measurement points on the target. The position is used to solve the equation.

また、本発明は、目標物に表示パターンを写り込ませるパターン表示部と、前記目標物に写り込んだ各パターンを撮影する撮像部と、前記パターン表示部および前記撮像部の位置関係および姿勢関係と、前記撮像部によって撮影された写り込み画像とに基づいて、前記目標物上の測定点の位置を求める演算部と、を備え、前記パターン表示部および前記撮像部の位置関係および姿勢関係を求める校正時には、前記パターン表示部から鏡に至り、その鏡から前記撮像部に至る光路が形成されるように、前記パターン表示部、前記鏡、および前記撮像部が配置され、前記校正時に前記演算部は、前記撮像部で撮影された前記鏡の形状と、前記パターン表示部によって前記鏡に写され前記撮像部で撮影された校正用パターンの鏡像とに基づいて、前記パターン表示部および前記撮像部の位置関係および姿勢関係を求めることを特徴とする。   In addition, the present invention provides a pattern display unit that displays a display pattern on a target, an imaging unit that captures each pattern reflected on the target, and a positional relationship and an attitude relationship between the pattern display unit and the imaging unit. And a calculation unit for obtaining the position of the measurement point on the target based on the reflected image captured by the imaging unit, and the positional relationship and the posture relationship between the pattern display unit and the imaging unit At the time of calibration, the pattern display unit, the mirror, and the imaging unit are arranged so that an optical path from the pattern display unit to the mirror and from the mirror to the imaging unit is formed. Based on the shape of the mirror imaged by the imaging unit and the mirror image of the calibration pattern imaged by the imaging unit and imaged by the pattern display unit. And obtaining the positional relationship and orientation relationship between the pattern display unit and the imaging unit.

望ましくは、前記校正時に前記演算部は、前記撮像部で撮影された前記校正用パターンの鏡像に基づいて、前記撮像部をピンホールカメラに置き換えた場合における当該ピンホールカメラの幾何学的な内部パラメータを求める。   Preferably, at the time of the calibration, the calculation unit is configured to have a geometric internal structure of the pinhole camera when the imaging unit is replaced with a pinhole camera based on a mirror image of the calibration pattern captured by the imaging unit. Find the parameters.

望ましくは、前記校正時に前記演算部は、前記撮像部で撮影された前記鏡の形状に基づいて、前記撮像部および前記鏡の位置関係および姿勢関係を求め、求められた位置関係および姿勢関係に基づいて、前記パターン表示部および前記撮像部の位置関係および姿勢関係を求める。   Preferably, at the time of the calibration, the calculation unit obtains the positional relationship and the posture relationship between the imaging unit and the mirror based on the shape of the mirror photographed by the imaging unit, and the calculated positional relationship and the posture relationship are obtained. Based on this, the positional relationship and the posture relationship between the pattern display unit and the imaging unit are obtained.

本発明によれば、目標物に写り込ませたパターンによって目標物の形状を測定する処理を簡単にすることができる。   According to the present invention, it is possible to simplify the process of measuring the shape of a target by using a pattern reflected on the target.

形状測定装置の構成を示す図である。It is a figure which shows the structure of a shape measuring apparatus. ディスプレイに表示される白黒パターンを示す図である。It is a figure which shows the monochrome pattern displayed on a display. 目標物に現れる各写り込みパターンを示す図である。It is a figure which shows each reflection pattern which appears on a target object. 複数種のランダム白黒パターンを示す図である。It is a figure which shows multiple types of random monochrome patterns. ディスプレイ、第1撮像器、および目標物表面の位置関係を示す図である。It is a figure which shows the positional relationship of a display, a 1st image pick-up device, and a target surface. ステレオマッチングを説明するためのモデルを示す図である。It is a figure which shows the model for demonstrating a stereo matching. 形状測定方程式の解の収束結果を示す図である。It is a figure which shows the convergence result of the solution of a shape measurement equation. 目標物の形状の測定結果を示す図である。It is a figure which shows the measurement result of the shape of a target object. キャリブレーションが行われる際の各機材の配置を示す図である。It is a figure which shows arrangement | positioning of each apparatus at the time of calibration. ディスプレイに表示される校正用パターンの例を示す図である。It is a figure which shows the example of the pattern for a calibration displayed on a display. 第1撮像器によって撮影された鏡の画像の例を示す図である。It is a figure which shows the example of the image of the mirror image | photographed with the 1st image pick-up device. 撮影された鏡の形状と第1撮像器の撮像面に定義されたxyz座標との関係を示す図である。It is a figure which shows the relationship between the shape of the image | photographed mirror, and the xyz coordinate defined on the imaging surface of a 1st imaging device.

(1)形状測定の概要
図1には本発明の実施形態に係る形状測定装置の構成が示されている。形状測定装置は、目標物20の表面上の各測定点の位置を測定することによって目標物20の形状を測定する。形状測定装置は、撮像部14、ディスプレイ16、および制御/演算部18を備える。ディスプレイ16は、制御/演算部18の制御に従い、複数種の表示パターンのそれぞれを、1種類ずつ目標物20に写り込ませる。本実施形態においては、ディスプレイ16による表示パターンは白黒パターンである。このようなディスプレイ16に代えて、白黒パターン等のパターンを表示する一般的な表示装置が用いられてもよい。白黒パターンは、その輝度が二値によって表されるパターンであってもよい。
(1) Outline of Shape Measurement FIG. 1 shows the configuration of a shape measuring apparatus according to an embodiment of the present invention. The shape measuring device measures the shape of the target 20 by measuring the position of each measurement point on the surface of the target 20. The shape measuring apparatus includes an imaging unit 14, a display 16, and a control / calculation unit 18. The display 16 causes each of the plural types of display patterns to be reflected on the target 20 one by one under the control of the control / calculation unit 18. In the present embodiment, the display pattern on the display 16 is a monochrome pattern. Instead of such a display 16, a general display device that displays a pattern such as a black and white pattern may be used. The black and white pattern may be a pattern whose luminance is represented by a binary value.

撮像部14は、異なる位置に設置された第1撮像器10および第2撮像器12を備える。撮像部14は、制御/演算部18の制御に従い、第1撮像器10および第2撮像器12によって、ディスプレイ16から目標物20に写り込ませた複数種のパターンのそれぞれを2つの異なる位置から撮影する。   The imaging unit 14 includes a first imaging device 10 and a second imaging device 12 installed at different positions. Under the control of the control / arithmetic unit 18, the imaging unit 14 causes each of the plurality of types of patterns reflected on the target 20 from the display 16 by the first imaging device 10 and the second imaging device 12 from two different positions. Take a picture.

制御/演算部18は、コンピュータ等の情報処理装置によって構成されている。制御/演算部18は、2つの位置から撮影された複数種の写り込みパターンの各画像を用いて、目標物20上の各測定点について成立する幾何光学的関係に基づく形状測定方程式を解くことで各測定点の位置を求める。この幾何光学的関係は、ディスプレイ表示面上の表示点A1から目標物20上の測定点qに至る入射光路22と、測定点qから第1撮像器10の撮像中心点C1に至る反射光路24について成立する関係、および、ディスプレイ表示面上の表示点A2から目標物20上の測定点qに至る入射光路23と、測定点qから第2撮像器12の撮像中心点C2に至る反射光路25について成立する関係である。ここで、第1撮像中心点C1および第2撮像中心点C2は、それぞれ、第1撮像器10および第2撮像器12をピンホールカメラモデルに置き換えたときの撮像中心点であり、各撮像器における基準点となる。   The control / arithmetic unit 18 is configured by an information processing apparatus such as a computer. The control / arithmetic unit 18 solves the shape measurement equation based on the geometrical optical relationship established for each measurement point on the target 20 using each image of a plurality of types of reflection patterns photographed from two positions. To find the position of each measurement point. This geometrical optical relationship is such that the incident optical path 22 from the display point A1 on the display surface to the measurement point q on the target 20 and the reflected optical path 24 from the measurement point q to the imaging center point C1 of the first imager 10. And the incident optical path 23 from the display point A2 on the display surface to the measurement point q on the target 20, and the reflected optical path 25 from the measurement point q to the imaging center point C2 of the second imager 12. This is the relationship that holds. Here, the first imaging center point C1 and the second imaging center point C2 are imaging center points when the first imaging device 10 and the second imaging device 12 are replaced with pinhole camera models, respectively. This is the reference point.

入射光路22および反射光路24について成立する幾何光学的関係には、撮像中心点C1と表示点A1との位置関係が含まれる。制御/演算部18は、第1撮像器10によって撮影された複数種の写り込みパターンの各画像を用いて、位置関係量として位置関係ベクトルm1を求め、形状測定方程式を解く演算に用いる。位置関係ベクトルm1は、撮像中心点C1を始点とし、表示点A1を終点とするベクトルである。   The geometric optical relationship established for the incident optical path 22 and the reflected optical path 24 includes the positional relationship between the imaging center point C1 and the display point A1. The control / arithmetic unit 18 obtains a positional relationship vector m1 as a positional relationship amount using each image of a plurality of types of reflection patterns photographed by the first imager 10, and uses it for calculation to solve the shape measurement equation. The positional relationship vector m1 is a vector having an imaging center point C1 as a start point and a display point A1 as an end point.

同様に、入射光路23および反射光路25について成立する幾何光学的関係には、撮像中心点C2と表示点A2との位置関係が含まれる。制御/演算部18は、第2撮像器12によって撮影された複数種の写り込みパターンの各画像を用いて、位置関係量として位置関係ベクトルm2を求め、形状測定方程式を解く演算に用いる。位置関係ベクトルm2は、撮像中心点C2を始点とし、表示点A2を終点とするベクトルである。   Similarly, the geometric optical relationship established for the incident optical path 23 and the reflected optical path 25 includes the positional relationship between the imaging center point C2 and the display point A2. The control / arithmetic unit 18 obtains a positional relationship vector m2 as a positional relationship amount using each image of a plurality of types of reflection patterns photographed by the second imager 12, and uses it for calculation to solve the shape measurement equation. The positional relationship vector m2 is a vector having an imaging center point C2 as a start point and a display point A2 as an end point.

後述するように、第1撮像器10によって撮影された画像については、複数の測定点のそれぞれについて成立する幾何光学的関係に加え、隣接する測定点における平面要素が連続であるという条件が形状測定方程式に反映される。第2撮像器12によって撮影された画像については、複数の測定点のうちの1つである代表点について成立する幾何光学的関係が形状測定方程式に反映される。制御/演算部18は、形状測定方程式を解くことにより、撮像中心点C1から各測定点までの方向および距離を求め、撮像中心点C1を基準とした各測定点の位置を求める。   As will be described later, with respect to an image photographed by the first imager 10, in addition to the geometric optical relationship established for each of a plurality of measurement points, the condition that the planar elements at adjacent measurement points are continuous is a shape measurement. Reflected in the equation. For the image photographed by the second imager 12, the geometrical optical relationship established for the representative point that is one of the plurality of measurement points is reflected in the shape measurement equation. The control / arithmetic unit 18 obtains the direction and distance from the imaging center point C1 to each measurement point by solving the shape measurement equation, and obtains the position of each measurement point based on the imaging center point C1.

(2)空間コード化法(位置関係ベクトルm1およびm2を求める処理)
形状測定装置が実行する具体的な処理について説明する。ここでは、ディスプレイ16、第1撮像器10および第2撮像器12の相互間の距離と、ディスプレイ16、第1撮像器10および第2撮像器12の姿勢の関係が予め求められているものとする。
(2) Spatial coding method (processing for obtaining positional relationship vectors m1 and m2)
Specific processing executed by the shape measuring apparatus will be described. Here, the relationship between the distance between the display 16, the first imager 10 and the second imager 12, and the orientation of the display 16, the first imager 10 and the second imager 12 is obtained in advance. To do.

ディスプレイ表示面には、ディスプレイ表示面上の点Uを原点とする3次元座標としてディスプレイ座標系U0が定義されている。第1撮像器10には、撮像中心点C1を原点とする3次元座標として第1撮像座標系C10が定義されている。また、第2撮像器12には、撮像中心点C2を原点とする3次元座標として第2撮像座標系C2が定義されている。ディスプレイ座標系U0、第1撮像座標系C10および第2撮像座標系C20は、相互に座標変換が可能である。   A display coordinate system U0 is defined on the display display surface as three-dimensional coordinates with a point U on the display display surface as an origin. In the first imager 10, a first imaging coordinate system C10 is defined as three-dimensional coordinates with the imaging center point C1 as the origin. In the second imager 12, a second imaging coordinate system C2 is defined as three-dimensional coordinates with the imaging center point C2 as the origin. The display coordinate system U0, the first imaging coordinate system C10, and the second imaging coordinate system C20 can be coordinate-converted with each other.

形状測定方程式を解くため、制御/演算部18は、次に説明する空間コード化法によって、第1撮像器10で撮影される各測定点について位置関係ベクトルm1を求める。同様に、制御/演算部18は、第2撮像器12で撮影される各測定点について位置関係ベクトルm2を求める。   In order to solve the shape measurement equation, the control / arithmetic unit 18 obtains a positional relationship vector m1 for each measurement point photographed by the first imager 10 by a spatial coding method described below. Similarly, the control / calculation unit 18 obtains a positional relationship vector m2 for each measurement point imaged by the second imager 12.

ディスプレイ16は、複数種の白黒パターンを1種類ずつ表示し、各白黒パターンを1種類ずつ目標物20に写り込ませる。第1撮像器10は、目標物20に1種類ずつ写り込んだ各パターンを撮影し、各写り込み画像データを制御/演算部18に出力する。同様に、第2撮像器12は、目標物20に1種類ずつ写り込んだ各パターンを撮影し、各写り込み画像データを制御/演算部18に出力する。   The display 16 displays a plurality of types of black and white patterns one by one and causes each black and white pattern to be reflected on the target 20 one by one. The first imager 10 captures each pattern captured on the target 20 one by one, and outputs each captured image data to the control / arithmetic unit 18. Similarly, the second imager 12 captures each pattern captured one by one on the target 20 and outputs each captured image data to the control / calculation unit 18.

図2には、ディスプレイ16に表示される白黒パターンが示されている。図2(a−1)〜(a−n)に示されている白黒パターンでは、縦方向の線によって、上から順に1/2、1/3、1/4・・・・1/(n+1)にディスプレイ表示面が分割されている。ディスプレイ表示面が1/2に分割された白黒パターンでは、左側に白い領域が配置され、右側に黒い領域が配置されている。ディスプレイ表示面が1/3、1/4・・・・1/(n+1)に分割された白黒パターンでは、左から右に向かって、白い領域、黒い領域が交互に配置されている。図2(b−1)〜(b−N)に示されている白黒パターンでは、横方向の線によって、上から順に1/2、1/3、1/4・・・・1/(N+1)にディスプレイ表示面が分割されている。ディスプレイ表示面が1/2に分割された白黒パターンでは、上側に白い領域が配置され、下側に黒い領域が配置されている。ディスプレイ表示面が1/3、1/4・・・・1/(N+1)に分割された白黒パターンでは、上から下に向かって白い領域、黒い領域が交互に配置されている。   FIG. 2 shows a monochrome pattern displayed on the display 16. In the black and white pattern shown in FIGS. 2A-1 to 2A-n, 1/2, 1/3, 1/4... 1 / (n + 1) in order from the top by vertical lines. ) Is divided into display areas. In the monochrome pattern in which the display display surface is divided into ½, a white area is arranged on the left side and a black area is arranged on the right side. In the monochrome pattern in which the display display surface is divided into 1/3, 1/4... 1 / (n + 1), white areas and black areas are alternately arranged from the left to the right. In the monochrome patterns shown in FIGS. 2B-1 to 2B-N, 1/2, 1/3, 1/4... 1 / (N + 1) in order from the top by horizontal lines. ) Is divided into display areas. In the monochrome pattern in which the display display surface is divided into ½, the white area is arranged on the upper side and the black area is arranged on the lower side. In the monochrome pattern in which the display display surface is divided into 1/3, 1/4... 1 / (N + 1), white areas and black areas are alternately arranged from the top to the bottom.

図3には、図2に示された各白黒パターンを球形の目標物に写り込ませた場合に、目標物に現れる各写り込みパターンが示されている。図3(a−1)〜(a−n)は、それぞれ、図2(a−1)〜(a−n)に対応し、図3(b−1)〜(b−N)は、それぞれ、図2(b−1)〜(b−N)に対応する。図3に示されているように、目標物に写り込んだパターンの形状は、目標物の表面形状に応じて歪む。   FIG. 3 shows each reflection pattern appearing on the target when each monochrome pattern shown in FIG. 2 is reflected on the spherical target. 3 (a-1) to (an) correspond to FIGS. 2 (a-1) to (an), respectively, and FIGS. 3 (b-1) to (bN) respectively correspond to FIGS. 2 corresponds to FIGS. 2B-1 to 2B-N. As shown in FIG. 3, the shape of the pattern reflected on the target is distorted according to the surface shape of the target.

形状測定装置では、白黒パターンおよび写り込みパターンの白い領域に対して符号「1」が割り当てられ、黒い領域に対して符号「0」が割り当てられている。各領域に対する1および0の割り当ては、この逆であってもよい。また、このような二値符号「1」および「0」の他、その他の二値符号が用いられてもよい。図2における表示点Aの横方向の位置は、図2(a−1)〜(a−n)に示されるn種類の白黒パターンによって、「101・・・1」のn桁の符号で特定される。図2における表示点Aの縦方向の位置は、図2(b−1)〜(b−N)に示されているN種類の白黒パターンによって、「001・・・1」のN桁の符号で特定される。したがって、これらの符号を併せたn+N桁のディスプレイ位置符号「101・・・1001・・・1」によって、ディスプレイ表示面上の表示点Aの位置がディスプレイ座標系で特定される。   In the shape measuring apparatus, the code “1” is assigned to the white area of the black and white pattern and the reflection pattern, and the code “0” is assigned to the black area. The assignment of 1 and 0 for each region may be reversed. In addition to such binary codes “1” and “0”, other binary codes may be used. The horizontal position of the display point A in FIG. 2 is specified by the n-digit code “101... 1” by the n types of black and white patterns shown in FIGS. Is done. The vertical position of the display point A in FIG. 2 is an N-digit code “001... 1” according to the N types of black and white patterns shown in FIGS. Specified by Therefore, the position of the display point A on the display surface is specified in the display coordinate system by an n + N-digit display position code “101... 1001.

目標物表面上の各測定点については、n+N種類の白黒パターンによって得られるn+N種類の写り込みパターンを撮影することによって、n+N桁の測定点位置符号が得られる。すなわち、n+N種類の白黒パターンをディスプレイ16から順番に目標物に写り込ませた場合には、各測定点で順番に観測された白黒に応じて、符号「1」または「0」が対応付けられ、各測定点についてn+N桁の測定点位置符号が得られる。   For each measurement point on the target surface, n + N types of measurement point position codes are obtained by photographing n + N types of reflection patterns obtained by n + N types of black and white patterns. That is, when n + N types of black and white patterns are projected onto the target sequentially from the display 16, the code “1” or “0” is associated with the black and white observed in order at each measurement point. , N + N-digit measurement point position codes are obtained for each measurement point.

目標物表面上の測定点には、その測定点位置符号と同一のディスプレイ位置符号を有するディスプレイ表示面上の表示点が対応する。例えば、ある測定点について測定点位置符号として「101・・・1001・・・・1」が得られた場合には、その測定点には図2に示された表示点Aが対応し、その測定点には表示点Aの像が写り込んだとされる。   A display point on the display surface having the same display position code as the measurement point position code corresponds to the measurement point on the target surface. For example, when “101... 1001... 1” is obtained as a measurement point position code for a certain measurement point, the display point A shown in FIG. It is assumed that an image of display point A is reflected at the measurement point.

図1に戻り、制御/演算部18は、各写り込みパターンについて第1撮像器10から得られた写り込み画像データに基づいて、各測定点に対応する表示点を特定する。そして、撮像中心点C1を始点とし、表示点を終点とする位置関係ベクトルm1を各測定点について求める。位置関係ベクトルm1は、ディスプレイ座標系U0での表示点の座標値を、第1撮像座標系C10での座標値に変換することで得られる。   Returning to FIG. 1, the control / arithmetic unit 18 specifies a display point corresponding to each measurement point based on the reflected image data obtained from the first imager 10 for each reflected pattern. Then, a positional relationship vector m1 having the imaging center point C1 as a start point and the display point as an end point is obtained for each measurement point. The positional relationship vector m1 is obtained by converting the coordinate value of the display point in the display coordinate system U0 into the coordinate value in the first imaging coordinate system C10.

同様に、制御/演算部18は、各写り込みパターンについて第2撮像器12から得られた写り込み画像データに基づいて、各測定点に対応する表示点を特定する。そして、第2撮像器12の撮像中心点C2を始点とし、表示点を終点とする位置関係ベクトルm2を各測定点について求める。位置関係ベクトルm2は、ディスプレイ座標系U0での表示点の座標値を、第2撮像座標系C20での座標値に変換することで得られる。   Similarly, the control / calculation unit 18 specifies a display point corresponding to each measurement point based on the reflected image data obtained from the second image pickup device 12 for each reflected pattern. Then, a positional relationship vector m2 having the imaging center point C2 of the second imager 12 as a start point and the display point as an end point is obtained for each measurement point. The positional relationship vector m2 is obtained by converting the coordinate value of the display point in the display coordinate system U0 into the coordinate value in the second imaging coordinate system C20.

なお、上記では、図2に示されるように、ディスプレイ表示面が白い領域および黒い領域に等分割された白黒パターンを用いる例について説明した。ディスプレイ表示面は、必ずしも等分割されなくてもよく、白い領域と黒い領域の面積割合を目標物の形状の傾向に合わせて調整してもよい。例えば、目標物のおおよその形が既知である場合には、目標物表面が、ディスプレイ表示面に対してなす角度が90°に近い領域程、白黒パターンを細かくしてもよい。また、複数の白黒パターンは、図2に示されているように、縦方向に白黒が分割されたパターンの組と、横方向に白黒が分割されたパターンの組とを備えていなくてもよい。例えば、疎密が異なる複数種の市松模様の白黒パターンを用いてもよい。また、大きさの異なる複数の黒い多角形の領域と、大きさの異なる複数の白い多角形の領域とをディスプレイ表示面上にランダムに散在させた複数種の白黒パターンを用いてもよい。さらに、図4(c−1)〜(c−n)に示されているように、ディスプレイ表示面上に大きさがランダムである粒子、毛羽、スクラッチ等の模様をランダムに散在させた複数種のランダム白黒パターンを用いてもよい。   In the above description, as shown in FIG. 2, an example using a monochrome pattern in which a display display surface is equally divided into a white area and a black area has been described. The display display surface does not necessarily need to be equally divided, and the area ratio of the white area and the black area may be adjusted according to the tendency of the shape of the target. For example, when the approximate shape of the target is known, the black and white pattern may be made finer in a region where the angle of the target surface with respect to the display surface is close to 90 °. Further, as shown in FIG. 2, the plurality of black and white patterns may not include a set of patterns in which black and white are divided in the vertical direction and a set of patterns in which black and white are divided in the horizontal direction. . For example, a plurality of types of checkered black and white patterns with different density may be used. A plurality of types of black and white patterns in which a plurality of black polygonal regions having different sizes and a plurality of white polygonal regions having different sizes are randomly scattered on the display display surface may be used. Furthermore, as shown in FIGS. 4 (c-1) to (cn), a plurality of types in which patterns such as particles, fluff, and scratches having random sizes are randomly scattered on the display surface. Alternatively, a random black and white pattern may be used.

また、ここでは、ディスプレイ16による表示パターンとして、白色および黒色を用いた白黒パターンについて説明したが、その他の色が用いられてもよい。また、色の種類を増加させて多階調パターンとし、各色に複数桁の符号を割り当て、ディスプレイ位置符号および測定点位置符号の桁数を増加させてもよい。   In addition, here, a black and white pattern using white and black has been described as a display pattern on the display 16, but other colors may be used. Alternatively, the number of colors may be increased to form a multi-tone pattern, and a multi-digit code may be assigned to each color to increase the number of digits of the display position code and the measurement point position code.

なお、測定点の位置分解能は、第1撮像器10および第2撮像器12で撮影される画像を構成する画素の大きさまたは画素の数(画素分解能)に応じて定まる。一方、白黒パターンの細かさは、各撮像器で撮影される画像を構成する各画素に対して測定点位置符号およびディスプレイ位置符号が割り当てられる程度の細かさとして決定される。   Note that the position resolution of the measurement point is determined according to the size of the pixels or the number of pixels (pixel resolution) constituting the image captured by the first imager 10 and the second imager 12. On the other hand, the fineness of the black-and-white pattern is determined as the fineness to which the measurement point position code and the display position code are assigned to each pixel constituting the image photographed by each image pickup device.

(3)各測定点の位置の測定
(3−1)測定系
各測定点について位置関係ベクトルm1および位置関係ベクトルm2を求めた後、制御/演算部18は、形状測定方程式を解くことにより、撮像中心点C1の位置を基準とした各測定点の位置を求める。
(3) Measurement of the position of each measurement point (3-1) Measurement system After obtaining the positional relationship vector m1 and the positional relationship vector m2 for each measurement point, the control / calculation unit 18 solves the shape measurement equation, The position of each measurement point with respect to the position of the imaging center point C1 is obtained.

図5には、ディスプレイ16、第1撮像器10および目標物20の位置関係が概念的に示されている。第1撮像器10は、撮像中心点C1および撮像面P1を含むピンホールカメラモデルによって表されている。撮像器をピンホールカメラモデルに置き換える技術については非特許文献2に記載されている。ピンホールカメラモデルは内部パラメータによって幾何学的に表される。内部パラメータは、撮像中心点C1の座標値、撮像中心点C1と撮像面P1との間の焦点距離F、撮像面P1の中心座標値、撮像面P1の形状を表すパラメータ、撮像面P1に含まれる各画素の座標値等を含み、後述のキャリブレーションによって求められる。ここで、撮像中心点C1の座標値、および撮像面P1に含まれる各画素の座標値は、例えば、撮像面P1に定義された局所的な2次元座標系における座標値である。   FIG. 5 conceptually shows the positional relationship among the display 16, the first imager 10, and the target 20. The first imager 10 is represented by a pinhole camera model including an imaging center point C1 and an imaging surface P1. A technique for replacing an image pickup device with a pinhole camera model is described in Non-Patent Document 2. The pinhole camera model is geometrically represented by internal parameters. The internal parameters include the coordinate value of the imaging center point C1, the focal length F between the imaging center point C1 and the imaging surface P1, the central coordinate value of the imaging surface P1, the parameter representing the shape of the imaging surface P1, and the imaging surface P1. Including the coordinate value of each pixel to be obtained and obtained by calibration described later. Here, the coordinate value of the imaging center point C1 and the coordinate value of each pixel included in the imaging surface P1 are, for example, coordinate values in a local two-dimensional coordinate system defined on the imaging surface P1.

本実施形態における絶対座標系は第1撮像座標系とされている。すなわち、絶対座標系は、撮像中心点C1を原点とし、原点C1から撮像面P1に向かって右方向をx軸正方向、下方向をy軸正方向とし、原点C1から撮像面P1に向かう方向をz軸正方向とする。なお、第1撮像座標系を絶対座標系とする代わりに、第2撮像座標系、ディスプレイ座標系、または、その他の3次元座標系を絶対座標系としてもよい。   The absolute coordinate system in the present embodiment is the first imaging coordinate system. That is, in the absolute coordinate system, the imaging center point C1 is the origin, the right direction from the origin C1 toward the imaging plane P1 is the x-axis positive direction, the downward direction is the y-axis positive direction, and the direction from the origin C1 to the imaging plane P1. Is the z-axis positive direction. Instead of using the first imaging coordinate system as the absolute coordinate system, the second imaging coordinate system, the display coordinate system, or another three-dimensional coordinate system may be used as the absolute coordinate system.

(3−2)測定点画素ベクトルIを求める処理
第1撮像器10は、目標物20を撮影して目標物画像データを生成する。目標物画像データは、目標物20を撮像面P1上で認識するためのものである。したがって、空間コード化法において得られた複数の写り込み画像データのうちいずれかを目標物画像データとして援用してもよい。
(3-2) Processing for Obtaining Measurement Point Pixel Vector I The first imager 10 captures the target 20 and generates target image data. The target image data is for recognizing the target 20 on the imaging plane P1. Therefore, any of the plurality of reflected image data obtained by the spatial coding method may be used as the target image data.

制御/演算部18は、第1撮像器10によって得られた目標物画像データに基づき目標像Tgを認識する。目標像Tgは、目標物20を表す画素PQの集合であり、各画素PQが目標物20上の各測定点に対応する。制御/演算部18は、内部パラメータおよび目標像Tgに基づいて、撮像中心点C1から測定点qの方向に向かう測定点画素ベクトルI=(e,e、F)を、目標像Tgを表す各画素PQについて求める。測定点画素ベクトルIは、撮像中心点C1を始点とし測定点qに対応する画素PQを終点とするベクトルである。 The control / arithmetic unit 18 recognizes the target image Tg based on the target image data obtained by the first imager 10. The target image Tg is a set of pixels PQ representing the target 20, and each pixel PQ corresponds to each measurement point on the target 20. Control / calculation unit 18, based on the internal parameters and the target image Tg, measured point pixel vector I = toward the direction of the measurement point q from the image center point C1 (e x, e y, F) , and the target image Tg It calculates | requires about each pixel PQ to represent. The measurement point pixel vector I is a vector having the imaging center point C1 as a start point and a pixel PQ corresponding to the measurement point q as an end point.

ここでは、第1撮像器10について測定点画素ベクトルI=(e,e、F)を求める処理ついて説明したが、同様の処理によって、第2撮像器12について測定点画素ベクトルI=(e,e、F)が求められる。 Here, the process for obtaining the measurement point pixel vector I = (e x , e y , F) for the first imager 10 has been described. However, the measurement point pixel vector I = ( e x , e y , F) are determined.

(3−3)形状測定方程式
形状測定方程式について図5を参照して説明する。画素PQに対応する測定点qの平面要素Qは、(数1)に示される平面の式によって表される。
(3-3) Shape Measurement Equation The shape measurement equation will be described with reference to FIG. The plane element Q of the measurement point q corresponding to the pixel PQ is expressed by the plane equation shown in (Equation 1).

Figure 2016121916
Figure 2016121916

ここで、(数1)に含まれる距離変数kは、撮像中心点C1から測定点までの距離を測定点画素ベクトルIと共に、k・|I|として表す未知のスカラー変数である。目標像Tgを構成する各画素PQについて距離変数kが求められることで、目標物20上の各測定点qまでの方向および距離が求められる。(数1)に含まれるfおよびfは、それぞれ、(数2)および(数3)によって表される。ベクトルn=(f,f,1)は、平面要素Qの法線ベクトルである。 Here, the distance variable k included in (Expression 1) is an unknown scalar variable that represents the distance from the imaging center point C1 to the measurement point together with the measurement point pixel vector I as k · | I |. By obtaining the distance variable k for each pixel PQ constituting the target image Tg, the direction and distance to each measurement point q on the target 20 is obtained. F x and f y included in (Equation 1) are expressed by (Equation 2) and (Equation 3), respectively. Vector n = (f x, f y , 1) is the normal vector of the planar element Q.

Figure 2016121916
Figure 2016121916

Figure 2016121916
Figure 2016121916

さらに、(数2)および(数3)に含まれるEおよびDは、それぞれ、(数4)および(数5)によって表される。   Further, E and D included in (Equation 2) and (Equation 3) are expressed by (Equation 4) and (Equation 5), respectively.

Figure 2016121916
Figure 2016121916

Figure 2016121916
Figure 2016121916

測定点画素ベクトルI=(e,e、F)および位置関係ベクトルm1=(m,m,m)は先に求められている。したがって、EおよびDが(数2)および(数3)に代入され、さらに、(数2)および(数3)で表されるfおよびfが(数1)に代入されることで、(数1)における係数が求められる。 The measurement point pixel vector I = (e x , e y , F) and the positional relationship vector m 1 = (m x , m y , m z ) are obtained in advance. Therefore, is assigned to E and D (Equation 2) and (Equation 3), further, it is substituted into equation (2) and f x and f y is expressed by the equation (3) (Equation 1) , The coefficient in (Equation 1) is obtained.

撮像面P1上の画素は縦方向および横方向に2次元配列されている。x軸方向への配列位置を正の整数iで表し、y軸方向の配列位置を正の整数jで表すことで、各画素に画素符号(i,j)が割り当てられる。画素符号(i,j)が割り当てられた画素に対応する数式であることを示す添字「i,j」を付することで、(数1)は、(数6)のように表される。   The pixels on the imaging surface P1 are two-dimensionally arranged in the vertical direction and the horizontal direction. A pixel code (i, j) is assigned to each pixel by representing the array position in the x-axis direction by a positive integer i and the array position in the y-axis direction by a positive integer j. By adding a subscript “i, j” indicating that the pixel code (i, j) is an expression corresponding to the assigned pixel, (Equation 1) is expressed as (Equation 6).

Figure 2016121916
Figure 2016121916

次に、隣接する平面要素は連続であるという条件を考慮する。画素符号(i,j)が割り当てられた画素に対応する平面要素Qi,jと、画素符号(i+1,j)が割り当てられた画素に対応する平面要素Qi+1,jは隣接する。画素符号(i+1,j)が割り当てられた画素に対応する平面要素Qi+1,jの式は、(数7)のように表される。 Next, consider the condition that adjacent planar elements are continuous. The planar element Q i, j corresponding to the pixel to which the pixel code (i, j) is assigned is adjacent to the planar element Q i + 1, j corresponding to the pixel to which the pixel code (i + 1, j) is assigned. The expression of the planar element Q i + 1, j corresponding to the pixel to which the pixel code (i + 1, j) is assigned is expressed as (Equation 7).

Figure 2016121916
Figure 2016121916

(数6)および(数7)で表される各平面要素上の測定点の中点座標αは、(数8)のように表される。   The midpoint coordinate α of the measurement point on each planar element represented by (Expression 6) and (Expression 7) is expressed as (Expression 8).

Figure 2016121916
Figure 2016121916

この中点αにおいて(数6)および(数7)のz座標値が等しいとすると、(数6)〜(数8)から(数9)が得られる。   If the z-coordinate values of (Equation 6) and (Equation 7) are equal at this midpoint α, (Equation 9) is obtained from (Equation 6) to (Equation 8).

Figure 2016121916
Figure 2016121916

撮像面P1の横方向にはX個の画素が配列され、縦方向にはY個の画素が配列されているものとする。画素符号(i,j)=(1,1)、(1,2)、・・・・(1,Y)、(2,1)、(2,2)、・・・・・(2,Y)、(3,1)、(3,2)・・・・・・・(X,Y)の総ての画素について(数9)を連立させると(数10)〜(数13)で表される方程式が得られる。   It is assumed that X pixels are arranged in the horizontal direction of the imaging surface P1, and Y pixels are arranged in the vertical direction. Pixel code (i, j) = (1,1), (1,2),... (1, Y), (2,1), (2,2),. Y), (3, 1), (3, 2)... (X, Y), when (Equation 9) is made simultaneous, (Equation 10) to (Equation 13) The equation represented is obtained.

Figure 2016121916
Figure 2016121916

Figure 2016121916
Figure 2016121916

Figure 2016121916
Figure 2016121916

Figure 2016121916
Figure 2016121916

(数10)は、X×Y個の未知の距離変数ki,jを含む連立方程式である。(数10)に含まれる係数行列Gは、X×Y行・X×Y列の行列であり、(数12)および(数13)で示される行列成分Gi,jおよびGi+1,j以外の成分は0である。(数11)で示される距離変数ベクトルkは、X×Y個の未知の距離変数をベクトル成分として含む。ベクトル0は、値が0であるX×Y個のベクトル成分を含むゼロベクトルである。 (Equation 10) is a simultaneous equation including X × Y unknown distance variables k i, j . The coefficient matrix G included in (Equation 10) is a matrix of X × Y rows and X × Y columns , and other than the matrix components G i, j and G i + 1, j represented by (Equation 12) and (Equation 13). The component of is zero. The distance variable vector k expressed by (Equation 11) includes X × Y unknown distance variables as vector components. The vector 0 is a zero vector including X × Y vector components having a value of 0.

(数10)〜(数13)で表される方程式は、画素符号(i,j)および画素符号(i+1,j)の各画素に関する方程式である。同様にして、画素符号(i,j)および画素符号(i−1,j)の各画素に関する方程式を作成することが可能である。さらに、画素符号(i,j)および画素符号(i,j+1)の各画素に関する方程式を作成することが可能であり、加えて、画素符号(i,j)および画素符号(i,j−1)の各画素に関する方程式を作成することが可能である。(数10)〜(数13)で表される方程式にこれらの方程式を連立させることで、係数行列Gを(4×X×Y)行・(X×Y)列の行列に拡大した拡大連立方程式が得られる。   The equations represented by (Equation 10) to (Equation 13) are equations relating to each pixel of the pixel code (i, j) and the pixel code (i + 1, j). Similarly, equations relating to each pixel of pixel code (i, j) and pixel code (i-1, j) can be created. Furthermore, it is possible to create equations for each pixel of pixel code (i, j) and pixel code (i, j + 1), and in addition, pixel code (i, j) and pixel code (i, j−1) ) For each pixel. By expanding these equations to the equations represented by (Equation 10) to (Equation 13), the coefficient matrix G is expanded to a matrix of (4 × X × Y) rows and (X × Y) columns. The equation is obtained.

複数の測定点のうちの1つである代表点qs,tの位置が既知であり、代表点qs,tについての距離変数として代表値ks,tが既知であるという条件を、ラグランジュの未定乗数法によって拡大連立方程式に反映させることで、(数14)で表される形状測定方程式が得られる。 A Lagrange condition is that the position of the representative point q s, t , which is one of a plurality of measurement points, is known, and the representative value k s, t is known as a distance variable for the representative point q s, t. The shape measurement equation represented by (Equation 14) is obtained by reflecting it in the expanded simultaneous equations by the undetermined multiplier method.

Figure 2016121916
Figure 2016121916

ここで、形状測定方程式に含まれる代表点ベクトルhは、距離変数ベクトルkの要素のうち、既知の代表値ks,t以外の要素を0とした列ベクトルであり、(数15)のように表される。代表値ks,tは、代表点qs,tについて予め求められた距離変数であり、例えば、後述するステレオマッチングによって求められる。ステレオマッチングとは別の方法によって、第1撮像中心点C1から代表点qs,tまでの距離を測定し、代表値ks,tが求められてもよい。この場合第2撮像器12は不要となる。 Here, the representative point vector h included in the shape measurement equation is a column vector in which elements other than the known representative values k s and t among the elements of the distance variable vector k are 0, as shown in (Expression 15). It is expressed in The representative value k s, t is a distance variable obtained in advance for the representative point q s, t , and is obtained, for example, by stereo matching described later. The representative value k s, t may be obtained by measuring the distance from the first imaging center point C1 to the representative point q s, t by a method different from stereo matching. In this case, the second imager 12 is not necessary.

Figure 2016121916
Figure 2016121916

また、媒介単位ベクトルMは、代表点ベクトルhに対応する要素を1とし、その他の要素を0とした行ベクトルであり、(数16)のように表される。   The mediation unit vector M is a row vector in which the element corresponding to the representative point vector h is 1 and the other elements are 0, and is expressed as (Equation 16).

Figure 2016121916
Figure 2016121916

(数14)の形状測定方程式から差分方程式を導くと(数17)が得られる。   When the difference equation is derived from the shape measurement equation of (Equation 14), (Equation 17) is obtained.

Figure 2016121916
Figure 2016121916

(数17)における距離変数ベクトルkの添字「p」は、第p番目の計算における値であることを示す。距離変数ベクトルkの初期ベクトルkを与えて、pを1ずつ増加させて反復計算を行い、(数18)によって求められる誤差Errが所定値以下、例えば、Errが1×10−16以下となるまで反復計算を行うことで、距離変数ベクトルkの解が求められる。初期ベクトルkには、例えば、総てのベクトル成分を代表値ks,tとしたベクトルが用いられる。 The subscript “p” of the distance variable vector k p in (Expression 17) indicates a value in the p-th calculation. An initial vector k 0 of the distance variable vector k p is given, p is incremented by 1, and the error Err obtained by (Equation 18) is less than a predetermined value, for example, Err is less than or equal to 1 × 10 −16 The solution of the distance variable vector k is obtained by performing iterative calculation until. As the initial vector k 0 , for example, a vector having all vector components as representative values k s, t is used.

Figure 2016121916
Figure 2016121916

(3−4)形状測定方程式に基づく演算処理
制御/演算部18は、(数17)に示された差分表現の形状測定方程式(差分・形状測定方程式)を解くことにより、距離変数ベクトルkを求める。距離変数ベクトルkの要素ki,jによって画素符号(i,j)に対応する測定点の位置が求められる。すなわち、画素符号(i,j)に対応する測定点の位置は、撮像中心点C1を基準として、(数19)のベクトルqi,jで表される。
(3-4) Arithmetic processing based on shape measurement equation The control / calculation unit 18 solves the difference measurement shape measurement equation (difference / shape measurement equation) shown in (Equation 17) to obtain the distance variable vector k. Ask. The position of the measurement point corresponding to the pixel code (i, j) is obtained from the elements k i, j of the distance variable vector k. That is, the position of the measurement point corresponding to the pixel code (i, j) is represented by the vector q i, j in (Equation 19) with the imaging center point C1 as a reference.

Figure 2016121916
Figure 2016121916

(3−5)ステレオマッチング
制御/演算部18は、差分・形状測定方程式を解く前に、初期ベクトルkおよび代表点ベクトルhに含める代表値ks,tを求める。代表値ks,tは代表点qs,tについての距離変数である。制御/演算部18は、代表値ks,tを以下に説明するステレオマッチングによって求める。
(3-5) Stereo Matching The control / calculation unit 18 obtains representative values k s, t to be included in the initial vector k 0 and the representative point vector h before solving the difference / shape measurement equation. The representative value k s, t is a distance variable for the representative point q s, t . The control / calculation unit 18 obtains the representative values k s, t by stereo matching described below.

図6には、ステレオマッチングを説明するためのモデルが概念的に示されている。図6に示される構成要素のうち、図1に示されている構成要素と同一のものについては同一の符号を付してその説明を省略する。   FIG. 6 conceptually shows a model for explaining stereo matching. Among the components shown in FIG. 6, the same components as those shown in FIG. 1 are denoted by the same reference numerals and description thereof is omitted.

撮像面P1上の画素のうち画素符号(s,t)が割り当てられた画素が代表点画素PQs,tとして示されている。代表点画素PQs,tは、ユーザの操作によって決定されてもよいし、予め記憶された画素符号(s,t)に従って決定されてもよい。 Of the pixels on the imaging surface P1, the pixel to which the pixel code (s, t) is assigned is shown as the representative point pixel PQ s, t . The representative point pixel PQ s, t may be determined by a user operation or may be determined according to a pixel code (s, t) stored in advance.

代表点画素PQs,tに対しては、目標物20上の代表点qs,tと、予め求められた位置関係ベクトルm1s,tが対応付けられる。ただし、第1撮像器10による撮影によって得られる値の限りでは、撮像中心点C1および代表点画素PQs,tを通る視線V1上のいずれかの位置に代表点qs,tがあることが判るのみである。すなわち、撮像中心点C1を始点とする位置関係ベクトルm1s,tの終点にある表示点As,tの位置は特定できるものの、表示点As,tから視線V1に向かって伸びるあらゆる入射光路β1と視線V1との交点CRSのうちいずれが代表点qs,tとなるかは特定することができない。図5には測定点qs,tとなり得る複数の交点CRSが視線V1上に示されている。 Representative point pixels PQ s, for the t, the representative point on the target object 20 q s, t and, previously obtained positional relationship vector m1 s, t is associated. However, as long as the value obtained by photographing with the first imager 10 is present, the representative point q s, t may be at any position on the line of sight V1 passing through the imaging center point C1 and the representative point pixel PQ s, t. I only understand. That is, the position relation vector m1 s to start the imaging center point C1, display point A s in the end of t, although the position of t can be specified, any incident light path extending toward the display point A s, a t the line of sight V1 It cannot be specified which of the intersection points CRS between β1 and the line of sight V1 is the representative point q s, t . In FIG. 5, a plurality of intersection points CRS that can be the measurement points q s, t are shown on the line of sight V1.

そこで、制御/演算部18は、第1撮像器10による撮影によって得られる値の他、第2撮像器12の撮像によって得られる値を用いて代表点qs,tを特定する。 Therefore, the control / arithmetic unit 18 specifies the representative points q s and t using values obtained by imaging by the second imaging device 12 in addition to values obtained by imaging by the first imaging device 10.

制御/演算部18は、上記「(3−1)測定系」で述べた処理によって、第2撮像器12については、第1撮像器10に対する処理と同様の処理によって、撮像面P2上の各画素PQ2i,jに対応する位置関係ベクトルm2i,jを求める。また、各画素PQ2i,jについては、撮像中心点C2および画素PQ2i,jを通る視線V2i,jと、表示点A2i,jから視線V2i,jに向かって伸びる入射光路β2i,jを求める。ここで、iは1からXまでの整数、jは1からYまでの整数であり、X×Y個の画素PQ2i,jのそれぞれについて、視線V2i,j、位置関係ベクトルm2i,j、および入射光路β2i,jが求められる。 The control / arithmetic unit 18 performs each process on the imaging plane P2 by the process described in the above “(3-1) Measurement System” and the second imager 12 by the same process as the process for the first imager 10. A positional relationship vector m2 i, j corresponding to the pixel PQ2 i, j is obtained. Further, each pixel PQ2 i, for j, imaging center points C2 and pixel PQ2 i, gaze through j V2 i, j and the display point A2 i, gaze from j V2 i, extending toward the j incident light path .beta.2 i , J. Here, i is an integer from 1 to X, j is an integer from 1 to Y, and for each of X × Y pixels PQ2 i, j , the line of sight V2 i, j and the positional relationship vector m2 i, j , And the incident optical path β2 i, j .

制御/演算部18は、撮像面P2上の画素PQ2i,jのうち、入射光路β1および視線V1と幾何光学的関係が物理的に矛盾しないものを探索する。すなわち、入射光路β2i,jと入射光路β1とがなす角度θ1と、視線V2j,iと視線V1とがなす角度θ2とが等しくなるような撮像面P2上の画素PQ2i,jを探索する。 The control / arithmetic unit 18 searches for pixels PQ2 i, j on the imaging surface P2 that have a geometrical optical relationship that is not physically inconsistent with the incident optical path β1 and the line of sight V1. That is, a search is made for a pixel PQ2 i, j on the imaging surface P2 such that an angle θ1 formed by the incident light path β2 i, j and the incident light path β1 is equal to an angle θ2 formed by the line of sight V2 j, i and the line of sight V1. To do.

制御/演算部18は、入射光路β1と視線V1とのあらゆる交点CRSのうち、このようなステレオマッチング条件が成立する交点を代表点qs,tとして決定し、撮像中心点C1から代表点qs,tまでの距離を代表値ks,tとして求める。 The control / arithmetic unit 18 determines, as representative points q s, t , among the intersection points CRS between the incident optical path β1 and the line of sight V1 as representative points q s, t , and represents the representative point q from the imaging center point C1. s, determine the distance to the t representative value k s, as t.

制御/演算部18は、代表値ks,tを用いて(数17)に示された差分表現の形状測定方程式を解き、距離変数ベクトルkを求める。そして、距離変数ベクトルkに基づいて、撮像中心点C1の位置を基準とした各測定点の位置を求める。 The control / arithmetic unit 18 solves the shape measurement equation of the differential expression shown in (Equation 17) using the representative values k s, t to obtain the distance variable vector k. Then, based on the distance variable vector k, the position of each measurement point with respect to the position of the imaging center point C1 is obtained.

(4)測定結果
図7には、(数17)で示される形状測定方程式の解の収束結果が示されている。目標物は、曲率半径103.35mmの凸面ミラーである。横軸は反復回数pを示し、縦軸は、(数18)で定義される誤差Errを示す。反復回数p=16において誤差Errが1×10−16以下となった。図8には目標物の形状の測定結果が示されている。この図では、各測定点の集合が、第1撮像座標系C10における平面によって示されている。曲率半径103.35mmの理想的な球面に対する誤差は、3σ=46.7μm(σは標準偏差)であった。
(4) Measurement Result FIG. 7 shows the convergence result of the solution of the shape measurement equation represented by (Equation 17). The target is a convex mirror with a curvature radius of 103.35 mm. The horizontal axis represents the number of iterations p, and the vertical axis represents the error Err defined by (Equation 18). The error Err was 1 × 10 −16 or less at the number of iterations p = 16. FIG. 8 shows the measurement result of the shape of the target. In this figure, a set of measurement points is indicated by a plane in the first imaging coordinate system C10. The error with respect to an ideal spherical surface having a curvature radius of 103.35 mm was 3σ = 46.7 μm (σ is a standard deviation).

(5)変形例
上記では、複数の測定点のうち代表点qs,tについてその距離変数としての代表値ks,tをステレオマッチングによって求め、代表値ks,tを用いて差分・形状測定方程式を解く処理について説明した。このような処理の他、総ての測定点についてステレオマッチングに基づき距離変数を求めてもよい。この場合、目標像Tgを表す撮像面P1上の各画素PQから伸びる各視線上において、第2撮像器12を用いて上述のステレオマッチング条件を満たす測定点を探索し、探索された各測定点について距離変数を求める。この場合、差分・形状測定方程式を解かなくても、第1撮像座標系C10における各測定点の位置が求められる。
(5) Modification In the above, the representative value k s, t as the distance variable is obtained by stereo matching for the representative point q s, t among the plurality of measurement points, and the difference / shape is obtained using the representative value k s, t. The process of solving the measurement equation has been described. In addition to such processing, distance variables may be obtained based on stereo matching for all measurement points. In this case, on each line of sight extending from each pixel PQ on the imaging plane P1 representing the target image Tg, the second imaging device 12 is used to search for a measurement point that satisfies the above stereo matching condition, and each measured measurement point is searched. Find the distance variable for. In this case, the position of each measurement point in the first imaging coordinate system C10 can be obtained without solving the difference / shape measurement equation.

また、上記では、撮像部14が第1撮像器10および第2撮像器12を備える構成について説明した。このような構成の他、撮像部14が第1撮像器10のみを備え、第2撮像器12を用いない構成としてもよい。この場合、形状測定装置には、第1撮像器10を移動させる移動機構が設けられる。第1撮像器10を移動させる前および後にそれぞれ撮影を行い、第1撮像器10によって2つの異なる位置から撮影を行うことで、2つの撮像器を備える場合と同様の処理が実行される。   In the above description, the configuration in which the imaging unit 14 includes the first imaging device 10 and the second imaging device 12 has been described. In addition to such a configuration, the imaging unit 14 may include only the first imaging device 10 and the second imaging device 12 may not be used. In this case, the shape measuring apparatus is provided with a moving mechanism that moves the first imager 10. Photographing is performed before and after the first imager 10 is moved, and the first imager 10 captures images from two different positions, whereby the same processing as in the case of providing two imagers is performed.

また、上記では、第1撮像器10の撮像面P1の各画素ごとに測定点が定められる。測定点は、撮像面P1の複数の画素ごとに定められてもよい。例えば、1つの画素とその画素を囲む8個の画素に対して、1つの測定点を定めてもよいし、さらに、その9個の画素を囲む16個の画素(合計25個の画素)に対して、1つの測定点を定めてもよい。   In the above description, a measurement point is determined for each pixel on the imaging surface P1 of the first imager 10. The measurement point may be determined for each of a plurality of pixels on the imaging surface P1. For example, one measurement point may be determined for one pixel and eight pixels surrounding the pixel, and further, 16 pixels (a total of 25 pixels) surrounding the nine pixels may be defined. On the other hand, one measurement point may be determined.

(6)形状測定装置による効果
本実施形態に係る形状測定装置は、複数種の表示パターンを目標物20に1種類ずつ写り込ませるパターン表示部としてのディスプレイ16、目標物20に1種類ずつ写り込ませた表示パターンを撮影する撮像部14、および、目標物20上の測定点の位置を求める制御/演算部18を備える。制御/演算部18には、次の構成要素が含まれる。すなわち、パターン表示面としてのディスプレイ表示面上の表示点に対し、複数種の表示パターンに基づく表示位置符号(ディスプレイ位置符号)を対応付ける表示位置符号対応付け部が含まれる。また、撮像部14が撮影した各写り込み画像上の各点に対し、測定点位置符号を対応付ける測定点位置符号対応付け部が含まれる。さらに、ディスプレイ位置符号と測定点位置符号とに基づいて、撮像部14と、目標物20上の測定点に対応するパターン表示面上の表示点との位置関係を表す位置関係量を求める位置関係演算部が含まれる。加えて、パターン表示面上の表示点から目標物20上の測定点を経て撮像部に至る光路について成立する幾何光学的関係に基づいて、目標物20上の測定点の位置を求める測定点演算部が含まれる。この測定点演算部には、目標物20上の複数の測定点のそれぞれについて成立する幾何光学的関係と、隣接する測定点における平面要素の連続性とに基づく形状方程式を解くことにより、目標物20上の複数の測定点の各位置を求める方程式演算部が含まれる。
(6) Effect by Shape Measuring Device The shape measuring device according to the present embodiment displays a display 16 as a pattern display unit that displays a plurality of types of display patterns one by one on the target 20 and one type on the target 20. An image capturing unit 14 that captures the displayed display pattern and a control / calculation unit 18 that obtains the position of the measurement point on the target 20 are provided. The control / arithmetic unit 18 includes the following components. That is, a display position code associating unit that associates display position codes (display position codes) based on a plurality of types of display patterns with display points on the display display surface as a pattern display surface is included. Further, a measurement point position code associating unit that associates a measurement point position code with each point on each reflected image captured by the imaging unit 14 is included. Further, based on the display position code and the measurement point position code, a positional relation for obtaining a positional relation amount representing the positional relation between the imaging unit 14 and the display point on the pattern display surface corresponding to the measurement point on the target 20 A calculation unit is included. In addition, the measurement point calculation for obtaining the position of the measurement point on the target 20 based on the geometric optical relationship established for the optical path from the display point on the pattern display surface to the imaging unit through the measurement point on the target 20 Part is included. The measurement point calculation unit solves the geometric equation based on the geometric optical relationship established for each of the plurality of measurement points on the target 20 and the continuity of the planar elements at the adjacent measurement points, thereby obtaining the target An equation calculation unit for obtaining each position of a plurality of measurement points on 20 is included.

このように、形状測定装置では、ディスプレイ位置符号と測定点位置符号とに基づいて、撮像部14と、測定点に対応する表示点との位置関係を表す位置関係量が求められる。そのため、目標物に写り込ませたパターンの絶対的な位相値を求めなくてもよく、目標物の形状を測定する処理を簡単にすることができる。   As described above, in the shape measuring apparatus, the positional relationship amount representing the positional relationship between the imaging unit 14 and the display point corresponding to the measurement point is obtained based on the display position code and the measurement point position code. Therefore, it is not necessary to obtain the absolute phase value of the pattern reflected on the target, and the process for measuring the shape of the target can be simplified.

(7)測定系のキャリブレーション
上記では、ディスプレイ16、第1撮像器10および第2撮像器12の相互間の距離と、ディスプレイ16、第1撮像器10および第2撮像器12の姿勢の関係が既知であるものとした。すなわち、図1に示されるディスプレイ座標系U0、第1撮像座標系C10、および、第2撮像座標系C20の相互の位置および姿勢の関係が既知であるものとした。これらの座標系の相互の関係は、形状測定を行う前にキャリブレーションによって求められる。
(7) Calibration of Measurement System In the above, the relationship between the distance between the display 16, the first imager 10, and the second imager 12 and the posture of the display 16, the first imager 10, and the second imager 12. Is known. That is, the relationship between the position and orientation of the display coordinate system U0, the first imaging coordinate system C10, and the second imaging coordinate system C20 shown in FIG. 1 is known. The mutual relationship between these coordinate systems is obtained by calibration before measuring the shape.

図9には、キャリブレーションが行われる際の各機材の配置が示されている。キャリブレーションには、円形の鏡面を有する鏡26が用いられる。第1配置位置(i)および第2配置位置(ii)は、同一の鏡26を異なる位置または異なる姿勢で配置することを示したものである。第1配置位置にある鏡26は実線で描かれ、第2配置位置にある鏡26は二点鎖線で描かれている。キャリブレーションでは、第1配置位置および第2配置位置に加えて、第3配置位置、第4配置位置、・・・・のように、複数の異なる位置または姿勢で鏡26が配置される。   FIG. 9 shows the arrangement of each equipment when calibration is performed. For the calibration, a mirror 26 having a circular mirror surface is used. The first arrangement position (i) and the second arrangement position (ii) indicate that the same mirror 26 is arranged at different positions or different postures. The mirror 26 at the first arrangement position is drawn with a solid line, and the mirror 26 at the second arrangement position is drawn with a two-dot chain line. In the calibration, in addition to the first arrangement position and the second arrangement position, the mirror 26 is arranged at a plurality of different positions or postures such as a third arrangement position, a fourth arrangement position,.

ディスプレイ16、鏡26および第1撮像器10は、ディスプレイ表示面から鏡に至る入射光路32と、鏡26から第1撮像器10に至る反射光路34が形成されるように配置される。撮像中心点C1から第1配置位置にある鏡26に向かって伸び、鏡26を貫通して伸びる視線V−1上には、第1配置位置にある鏡26の鏡面に関して対称に、ディスプレイ16の鏡像16−1が現れる。撮像中心点C1から第2配置位置にある鏡26に向かって伸び、鏡26を貫通して伸びる視線V−2上には、第2配置位置にある鏡26の鏡面に関して対称に、ディスプレイ16の鏡像16−2が現れる。図9には、ディスプレイ座標系の原点の鏡像が点U−1および点U−2として示されている。   The display 16, the mirror 26, and the first imager 10 are arranged so that an incident light path 32 from the display display surface to the mirror and a reflected light path 34 from the mirror 26 to the first imager 10 are formed. A line of sight V-1 extending from the imaging center point C1 toward the mirror 26 at the first arrangement position and extending through the mirror 26 is symmetrical with respect to the mirror surface of the mirror 26 at the first arrangement position. A mirror image 16-1 appears. A line of sight V-2 extending from the imaging center point C1 toward the mirror 26 at the second arrangement position and extending through the mirror 26 is symmetrical with respect to the mirror surface of the mirror 26 at the second arrangement position. A mirror image 16-2 appears. In FIG. 9, mirror images of the origin of the display coordinate system are shown as point U-1 and point U-2.

図10には、ディスプレイ16に表示される校正用パターン28の例が示されている。校正用パターン28は、予め定められた間隔でドット30(斑点)が縦方向および横方向に配置されたパターンである。すなわち、校正用パターン28では、縦方向に複数のドット30が配列され、ドット30による複数の列が横方向に並べて配置されている。   FIG. 10 shows an example of the calibration pattern 28 displayed on the display 16. The calibration pattern 28 is a pattern in which dots 30 (spots) are arranged in the vertical direction and the horizontal direction at predetermined intervals. That is, in the calibration pattern 28, a plurality of dots 30 are arranged in the vertical direction, and a plurality of rows of dots 30 are arranged in the horizontal direction.

図9に戻り、第1撮像器10は、第1配置位置、第2配置位置、第3配置位置、・・・・・のように複数の配置位置に鏡26が配置されるごとに、校正用パターンの鏡像を撮影する。そして、各配置位置に対応する各画像データを制御/演算部18に出力する。   Returning to FIG. 9, the first imager 10 is calibrated each time the mirror 26 is arranged at a plurality of arrangement positions such as the first arrangement position, the second arrangement position, the third arrangement position,. Take a mirror image of the pattern. Then, each image data corresponding to each arrangement position is output to the control / arithmetic unit 18.

制御/演算部18は、複数の配置位置について撮影された校正用パターンの解析により、第1撮像器10をピンホールカメラモデルに置き換えた場合における内部パラメータを求める。具体的には、制御/演算部18は、仮の内部パラメータを変化させながら複数回に亘って校正用パターンの解析を行い、適切な内部パラメータを求める。理想的な内部パラメータに基づくピンホールカメラモデルでは、校正用パターンのドットの鏡像と、第1撮像器10の撮像面に投影されるドットとを結ぶ直線が、総ての鏡26の配置位置おいて撮像中心点C1を通る。制御/演算部18は、このような理想的な内部パラメータと同一の、または、このような理想的な内部パラメータに近似したパラメータを適切な内部パラメータとして求める。   The control / arithmetic unit 18 obtains internal parameters when the first image pickup device 10 is replaced with a pinhole camera model by analyzing calibration patterns photographed at a plurality of arrangement positions. Specifically, the control / arithmetic unit 18 analyzes the calibration pattern a plurality of times while changing the temporary internal parameter to obtain an appropriate internal parameter. In the pinhole camera model based on ideal internal parameters, the straight line connecting the mirror image of the dot of the calibration pattern and the dot projected on the imaging surface of the first imager 10 is the position where all the mirrors 26 are arranged. And passes through the imaging center point C1. The control / arithmetic unit 18 obtains, as an appropriate internal parameter, a parameter that is the same as the ideal internal parameter or approximated to the ideal internal parameter.

図11には、第1撮像器10によって撮影された鏡26の画像の例が示されている。このキャリブレーション画像が写り込んだ鏡26の形状は楕円形となる。キャリブレーション画像上の鏡26には、実際の鏡の位置および姿勢に応じて配列位置が歪んだ複数のドット30が写っている。   FIG. 11 shows an example of an image of the mirror 26 photographed by the first imager 10. The shape of the mirror 26 in which the calibration image is reflected is an ellipse. The mirror 26 on the calibration image shows a plurality of dots 30 whose arrangement positions are distorted according to the actual position and orientation of the mirror.

図9に戻り、制御/演算部18は、キャリブレーション画像に現れた各ドットの鏡像の位置に基づいて、第1撮像器10の内部パラメータと、ディスプレイ座標系の鏡像の位置および姿勢を表す並進ベクトルTQLおよび回転行列RQLを、各配置位置について求める。添字のLは、第L配置位置についての値であることを示す。並進ベクトルTQLは、撮像中心点C1を始点としディスプレイ座標系の原点Uの鏡像U−Lを終点とするベクトルであり、3つのベクトル成分を含む。回転行列RQLは、第1撮像座標系を基準としたディスプレイ座標系の鏡像の姿勢を表す3行3列の行列である。回転行列RQLは、例えば、第1撮像座標系の3軸方向に対する、ディスプレイ座標系の鏡像の3軸のピッチ角およびロール角によって求められる。 Returning to FIG. 9, the control / calculation unit 18 translates the internal parameters of the first imager 10 and the mirror image position and orientation of the display coordinate system based on the mirror image position of each dot appearing in the calibration image. A vector T QL and a rotation matrix R QL are obtained for each arrangement position. The subscript L indicates a value for the Lth arrangement position. The translation vector T QL is a vector having the imaging center point C1 as a start point and a mirror image UL at the origin U of the display coordinate system as an end point, and includes three vector components. The rotation matrix R QL is a matrix of 3 rows and 3 columns representing the attitude of the mirror image of the display coordinate system with reference to the first imaging coordinate system. The rotation matrix R QL is obtained by, for example, the three-axis pitch angle and roll angle of the mirror image of the display coordinate system with respect to the three-axis directions of the first imaging coordinate system.

制御/演算部18は、内部パラメータ、およびキャリブレーション画像に現れた鏡26の形状(投影形状)に基づいて、鏡26の位置および姿勢を表す並進ベクトルTmLおよび回転行列RmLを、各配置位置について求める。鏡26には、鏡面中心点mrを原点とする鏡座標系が定義されている。並進ベクトルTmLは、撮像中心点C1を始点とし、鏡座標系の原点mrを終点とするベクトルであり、3つのベクトル成分を含む。回転行列RmLは、第1撮像座標系を基準とした鏡座標系の姿勢を表す3行3列の行列である。回転行列RmLは、例えば、第1撮像座標系の3軸方向に対する、鏡座標系の3軸のピッチ角およびロール角によって表される。 The control / arithmetic unit 18 arranges a translation vector T mL and a rotation matrix R mL representing the position and orientation of the mirror 26 based on the internal parameters and the shape (projection shape) of the mirror 26 appearing in the calibration image. Ask for position. The mirror 26 defines a mirror coordinate system having the mirror center point mr as the origin. The translation vector T mL is a vector having an imaging center point C1 as a start point and an origin mr in the mirror coordinate system as an end point, and includes three vector components. The rotation matrix R mL is a 3 × 3 matrix representing the attitude of the mirror coordinate system with reference to the first imaging coordinate system. The rotation matrix R mL is represented by, for example, the triaxial pitch angle and roll angle of the mirror coordinate system with respect to the triaxial direction of the first imaging coordinate system.

図12には、鏡26の投影形状と撮像面P1に定義されたxyz座標との関係が概念的に示されている。本実施形態においては鏡26の直径は既知である。そのため、内部パラメータ、鏡26の投影形状である楕円の長軸γの長さおよび方向によって、撮像中心点C1から鏡座標系の原点mrまでの方向および距離と、第1撮像座標系における鏡座標系の姿勢が求められる。制御/演算部18は、内部パラメータ、鏡26の投影形状の中心点ξの位置、長軸γの長さ、長軸γがx軸正方向に対してなす角度φ、鏡26の既知の直径に基づいて並進ベクトルTmLおよび回転行列RmLを求める。 FIG. 12 conceptually shows the relationship between the projection shape of the mirror 26 and the xyz coordinates defined on the imaging surface P1. In this embodiment, the diameter of the mirror 26 is known. Therefore, the direction and distance from the imaging center point C1 to the origin mr of the mirror coordinate system, and the mirror coordinates in the first imaging coordinate system, depending on the internal parameters and the length and direction of the major axis γ of the ellipse that is the projection shape of the mirror 26 The attitude of the system is required. The control / calculation unit 18 determines the internal parameters, the position of the center point ξ of the projection shape of the mirror 26, the length of the major axis γ, the angle φ formed by the major axis γ with respect to the x-axis positive direction, and the known diameter of the mirror 26. A translation vector T mL and a rotation matrix R mL are obtained based on

なお、鏡26の姿勢については、鏡座標系の原点mrから撮像中心点C1に向かう方向を基準として、鏡面が撮像中心点C1の上方を仰ぎ見る姿勢と、鏡面が撮像中心点C1の下方を見下ろす姿勢との2つの解がある。制御/演算部18は、ディスプレイ16、鏡26、および第1撮像器10について予め定められた位置関係の範囲に基づいて、2つの解のうち一方の解を採用する。   Regarding the posture of the mirror 26, the mirror surface looks up above the imaging center point C1 with respect to the direction from the origin mr of the mirror coordinate system to the imaging center point C1, and the mirror surface is below the imaging center point C1. There are two solutions to the attitude of looking down. The control / arithmetic unit 18 employs one of the two solutions based on a predetermined positional relationship range for the display 16, the mirror 26, and the first imager 10.

制御/演算部18は、ディスプレイ16の鏡像に対して求められた並進ベクトルTQLおよび回転行列RQLと、鏡26に対して求められた並進ベクトルTmLおよび回転行列RmLとを用いて、(数20)に従い、ディスプレイ16に対する並進ベクトルTdLおよび回転行列RdLを求める。 The control / arithmetic unit 18 uses the translation vector T QL and the rotation matrix R QL obtained for the mirror image of the display 16 and the translation vector T mL and the rotation matrix R mL obtained for the mirror 26. According to (Equation 20), a translation vector T dL and a rotation matrix R dL for the display 16 are obtained.

Figure 2016121916
Figure 2016121916

制御/演算部18は、各配置位置(L=1,2,3,・・・・Lmax)について並進ベクトルTdLおよび回転行列RdLを求める。そして、L=1〜Lmaxのそれぞれについて求められた並進ベクトルTdLおよび回転行列RdLを用いた最適化によって、最終的な並進ベクトルTおよび回転行列Rを求める。最適化は、並進ベクトルTおよび回転行列Rによって再現される校正用パターン28の各ドット30の位置についての誤差が所定値より小さくなるように、あるいは、最小となるように行われる。各ドット30の真の位置は、ディスプレイ16に実際に表示された各ドットの位置である。このような処理としては、例えば、並進ベクトルTおよび回転行列Rによって再現される各ドット30の位置についての自乗誤差(総てのドット30について誤差の自乗を合計した値)が最小となるような並進ベクトルTおよび回転行列Rを求める最小自乗法が用いられてもよい。 The control / arithmetic unit 18 obtains a translation vector T dL and a rotation matrix R dL for each arrangement position (L = 1, 2, 3,... Lmax). Then, the final translation vector T d and the rotation matrix R d are obtained by optimization using the translation vector T dL and the rotation matrix R dL obtained for each of L = 1 to Lmax. The optimization is performed so that the error regarding the position of each dot 30 of the calibration pattern 28 reproduced by the translation vector T d and the rotation matrix R d is smaller than a predetermined value or minimized. The true position of each dot 30 is the position of each dot actually displayed on the display 16. Such processing, for example, a square error of the position of each dot 30 is reproduced by the translation vector T d and the rotation matrix R d (total value of the square of errors for all of the dot 30) is minimum A least square method for obtaining the translation vector T d and the rotation matrix R d may be used.

制御/演算部18は、同様の処理によって、第2撮像座標系の原点C2を始点とし、ディスプレイ座標系の原点Uを終点とする並進ベクトルTd_2、および、第2撮像座標系を基準としたディスプレイ座標系の姿勢を表す回転行列Rd_2を求める。そして、(数21)に従い、第1撮像座標系の原点C1を始点とし、第2撮像座標系の原点C2を終点とする並進ベクトルRrel、および、第1撮像座標系を基準とした第2撮像座標系の姿勢を表す回転行列Rrelを求める。 The control / arithmetic unit 18 performs the same processing based on the translation vector T d — 2 starting from the origin C2 of the second imaging coordinate system and the origin U of the display coordinate system, and the second imaging coordinate system. A rotation matrix R d — 2 representing the orientation of the display coordinate system is obtained. Then, according to (Expression 21), the translation vector R rel starting from the origin C1 of the first imaging coordinate system and ending at the origin C2 of the second imaging coordinate system, and the second based on the first imaging coordinate system A rotation matrix R rel representing the orientation of the imaging coordinate system is obtained.

Figure 2016121916
Figure 2016121916

このようにして、ディスプレイ座標系、第1撮像座標系、および、第2撮像座標系の相互の関係が求められる。すなわち、第1撮像座標系の原点C1から他の2つの座標系の原点に向かう並進ベクトルと、第1撮像座標系C1を基準とした他の2つの座標系の姿勢を表す回転行列が求められる。このような座標系の相互の関係が、上述の形状測定に用いられる。   In this manner, the mutual relationship among the display coordinate system, the first imaging coordinate system, and the second imaging coordinate system is obtained. That is, a translation vector from the origin C1 of the first imaging coordinate system to the origin of the other two coordinate systems and a rotation matrix representing the postures of the other two coordinate systems with respect to the first imaging coordinate system C1 are obtained. . Such mutual relationship between coordinate systems is used for the above-described shape measurement.

なお、上記では、鏡の鏡面形状は直径が既知である円形のものとした。鏡には、鏡面の形状および大きさが既知であるその他の形状のものが用いられてもよい。例えば、多角形、楕円形等の鏡が用いられてもよい。この場合、制御/演算部18は、内部パラメータ、鏡の投影形状の位置、投影形状、既知の形状および大きさに基づいて並進ベクトルTmLおよび回転行列RmLを求める。 In the above description, the mirror shape of the mirror is a circular shape having a known diameter. A mirror having another shape whose mirror surface shape and size are known may be used. For example, a polygonal or elliptical mirror may be used. In this case, the control / calculation unit 18 obtains the translation vector T mL and the rotation matrix R mL based on the internal parameters, the position of the projection shape of the mirror, the projection shape, and the known shape and size.

このように、キャリブレーションでは、ディスプレイ16に表示され、鏡に写った校正用パターンと、鏡の投影形状とが演算に用いられる。目標物20の形状測定に用いられるディスプレイ16が校正用パターンの表示にも用いられるため、キャリブレーションを行うための構成が簡単となる。さらに、鏡26は、校正用パターンの鏡像と共に、自らの投影形状を第1撮像器10および第2撮像器12に提供する。鏡26が用いられることで、校正用パターンおよび自らの投影形状という複数種のパラメータが各撮像器に提供されるため、キャリブレーションを行う構成が簡単となる。   Thus, in the calibration, the calibration pattern displayed on the display 16 and reflected in the mirror and the projection shape of the mirror are used for the calculation. Since the display 16 used for measuring the shape of the target 20 is also used for displaying a calibration pattern, the configuration for performing calibration is simplified. Furthermore, the mirror 26 provides the first imaging device 10 and the second imaging device 12 with its own projected shape together with a mirror image of the calibration pattern. Since the mirror 26 is used, a plurality of types of parameters such as a calibration pattern and its own projected shape are provided to each image pickup device, so that the configuration for performing calibration becomes simple.

10 第1撮像器、12 第2撮像器、14 撮像部、16 ディスプレイ、18 制御/演算部、20 目標物、22,23,32 入射光路、24,25,34 反射光路、26 鏡、28 校正用パターン、30 ドット。
DESCRIPTION OF SYMBOLS 10 1st image pick-up device, 12 2nd image pick-up device, 14 Image pick-up part, 16 Display, 18 Control / calculation part, 20 Target object, 22, 23, 32 Incident light path, 24, 25, 34 Reflected light path, 26 Mirror, 28 Calibration Pattern, 30 dots.

Claims (7)

複数種の表示パターンを目標物に1種類ずつ写り込ませるパターン表示部と、
前記パターン表示部が有するパターン表示面上の表示点に対し、前記複数種の表示パターンに基づく表示位置符号を対応付ける表示位置符号対応付け部と、
前記目標物に写り込んだ各パターンを撮影する撮像部と、
前記撮像部が撮影した各写り込み画像上の各点に対し、測定点位置符号を対応付ける測定点位置符号対応付け部と、
前記表示位置符号と前記測定点位置符号とに基づいて、前記撮像部と、前記目標物上の測定点に対応する前記パターン表示面上の表示点との位置関係を表す位置関係量を求める位置関係演算部と、
前記パターン表示面上の表示点から前記目標物上の測定点を経て前記撮像部に至る光路について成立する幾何光学的関係であって、前記位置関係量によって表される位置関係を含む幾何光学的関係に基づいて、前記目標物上の測定点の位置を求める測定点演算部と、
を備えることを特徴とする形状測定装置。
A pattern display unit that displays a plurality of types of display patterns one by one on the target;
A display position code associating unit for associating display position codes based on the plurality of types of display patterns with respect to display points on the pattern display surface of the pattern display unit;
An imaging unit that captures each pattern reflected on the target;
A measurement point position code association unit that associates a measurement point position code with each point on each reflected image captured by the imaging unit;
A position for obtaining a positional relation amount representing a positional relation between the imaging unit and a display point on the pattern display surface corresponding to a measurement point on the target based on the display position code and the measurement point position code A relational computation unit;
Geometrical optical relationship established for the optical path from the display point on the pattern display surface to the imaging unit via the measurement point on the target, and including the positional relationship represented by the positional relationship amount Based on the relationship, a measurement point calculation unit for obtaining the position of the measurement point on the target,
A shape measuring apparatus comprising:
請求項1に記載の形状測定装置において、
前記複数種の表示パターンはその輝度が二値からなり、
前記表示位置符号対応付け部は、
前記パターン表示面を構成する表示点の位置を、前記複数種の表示パターンの枚数と同じ桁数の二値符号で表される前記表示位置符号として符号化し、
前記測定点位置符号対応付け部は、
前記撮像部が撮影した各前記写り込み画像に基づいて、前記写り込み画像を構成する各画素を、前記複数種の表示パターンの枚数と同じ桁数の二値符号で表される前記測定点位置符号として符号化することを特徴とする形状測定装置。
In the shape measuring apparatus according to claim 1,
The plurality of types of display patterns are binary in luminance.
The display position code association unit includes:
The position of the display point constituting the pattern display surface is encoded as the display position code represented by a binary code having the same number of digits as the number of the plurality of types of display patterns,
The measurement point position code association unit
The measurement point position represented by a binary code having the same number of digits as the number of the plurality of types of display patterns, for each pixel constituting the reflected image based on each reflected image captured by the imaging unit A shape measuring apparatus that performs coding as a code.
請求項1または請求項2に記載の形状測定装置において、
前記撮像部は、前記目標物に写り込んだ各パターンを第1位置および第2位置から撮影して、それぞれ、第1画像および第2画像を生成し、
前記位置関係演算部は、前記第1画像および前記第2画像に基づいて、前記目標物上の測定点につきステレオマッチング条件が成立する前記位置関係量として、それぞれ、第1位置関係量および第2位置関係量を求め、
前記測定点演算部は、ステレオマッチング条件を成立させる前記第1位置関係量および前記第2位置関係量に基づいて前記目標物上の測定点の位置を求めることを特徴とする形状測定装置。
In the shape measuring device according to claim 1 or 2,
The imaging unit captures each pattern reflected on the target from a first position and a second position, and generates a first image and a second image, respectively.
The positional relationship calculation unit, based on the first image and the second image, as the positional relationship amount for which the stereo matching condition is satisfied for the measurement point on the target, respectively, Find the positional relationship quantity,
The shape measuring apparatus, wherein the measurement point calculation unit obtains a position of a measurement point on the target based on the first positional relationship amount and the second positional relationship amount that establish a stereo matching condition.
請求項3に記載の形状測定装置において、
前記測定点演算部は、
前記目標物上の複数の測定点のそれぞれについての前記幾何光学的関係と、隣接する測定点における平面要素の連続性とに基づく方程式を解くことにより、前記目標物上の複数の測定点の各位置を求める方程式演算部を備え、
前記方程式演算部は、
前記目標物上の複数の測定点のうち、ステレオマッチング条件に基づき位置が求められた代表点の位置を用いて、前記方程式を解くことを特徴とする形状測定装置。
In the shape measuring device according to claim 3,
The measurement point calculator is
Each of the plurality of measurement points on the target is solved by solving an equation based on the geometric optical relationship for each of the plurality of measurement points on the target and the continuity of planar elements at adjacent measurement points. Equipped with an equation calculation unit to find the position,
The equation calculator is
A shape measuring apparatus that solves the equation using a position of a representative point whose position is obtained based on a stereo matching condition among a plurality of measurement points on the target.
目標物に表示パターンを写り込ませるパターン表示部と、
前記目標物に写り込んだ各パターンを撮影する撮像部と、
前記パターン表示部および前記撮像部の位置関係および姿勢関係と、前記撮像部によって撮影された写り込み画像とに基づいて、前記目標物上の測定点の位置を求める演算部と、を備え、
前記パターン表示部および前記撮像部の位置関係および姿勢関係を求める校正時には、前記パターン表示部から鏡に至り、その鏡から前記撮像部に至る光路が形成されるように、前記パターン表示部、前記鏡、および前記撮像部が配置され、
前記校正時に前記演算部は、
前記撮像部で撮影された前記鏡の形状と、前記パターン表示部によって前記鏡に写され前記撮像部で撮影された校正用パターンの鏡像とに基づいて、前記パターン表示部および前記撮像部の位置関係および姿勢関係を求めることを特徴とする形状測定装置。
A pattern display section for reflecting the display pattern on the target;
An imaging unit that captures each pattern reflected on the target;
A calculation unit that obtains the position of the measurement point on the target based on the positional relationship and the posture relationship of the pattern display unit and the imaging unit, and the reflected image captured by the imaging unit;
At the time of calibration for obtaining the positional relationship and the posture relationship between the pattern display unit and the imaging unit, the pattern display unit, the pattern display unit, the optical path from the pattern display unit to the mirror and the imaging unit is formed. A mirror, and the imaging unit,
At the time of the calibration, the calculation unit
The positions of the pattern display unit and the imaging unit based on the shape of the mirror photographed by the imaging unit and the mirror image of the calibration pattern that is copied to the mirror by the pattern display unit and photographed by the imaging unit A shape measuring device for obtaining a relationship and a posture relationship.
請求項5に記載の形状測定装置において、
前記校正時に前記演算部は、
前記撮像部で撮影された前記校正用パターンの鏡像に基づいて、前記撮像部をピンホールカメラに置き換えた場合における当該ピンホールカメラの幾何学的な内部パラメータを求めることを特徴とする形状測定装置。
In the shape measuring apparatus according to claim 5,
At the time of the calibration, the calculation unit
A shape measuring apparatus for obtaining a geometric internal parameter of the pinhole camera when the imaging unit is replaced with a pinhole camera based on a mirror image of the calibration pattern imaged by the imaging unit .
請求項5または請求項6に記載の形状測定装置において、
前記校正時に前記演算部は、
前記撮像部で撮影された前記鏡の形状に基づいて、前記撮像部および前記鏡の位置関係および姿勢関係を求め、求められた位置関係および姿勢関係に基づいて、前記パターン表示部および前記撮像部の位置関係および姿勢関係を求めることを特徴とする形状測定装置。
In the shape measuring apparatus according to claim 5 or 6,
At the time of the calibration, the calculation unit
Based on the shape of the mirror imaged by the imaging unit, the positional relationship and posture relationship of the imaging unit and the mirror are obtained, and based on the obtained positional relationship and posture relationship, the pattern display unit and the imaging unit A shape measuring apparatus characterized by obtaining a positional relationship and a posture relationship of each other.
JP2014261095A 2014-12-24 2014-12-24 Shape measurement device Pending JP2016121916A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014261095A JP2016121916A (en) 2014-12-24 2014-12-24 Shape measurement device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014261095A JP2016121916A (en) 2014-12-24 2014-12-24 Shape measurement device

Publications (1)

Publication Number Publication Date
JP2016121916A true JP2016121916A (en) 2016-07-07

Family

ID=56327350

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014261095A Pending JP2016121916A (en) 2014-12-24 2014-12-24 Shape measurement device

Country Status (1)

Country Link
JP (1) JP2016121916A (en)

Similar Documents

Publication Publication Date Title
JP6079333B2 (en) Calibration apparatus, method and program
US10571668B2 (en) Catadioptric projector systems, devices, and methods
ES2801395T3 (en) System and method for the three-dimensional measurement of the shape of material objects
CN103988048B (en) The alignment methods of the pattern on space encoding slide image and system
JP6172495B2 (en) Calibration apparatus, apparatus, projector, three-dimensional scanner, calibration method, method, program, and storage medium
WO2014020823A1 (en) Image processing system, and image processing method
JP6282098B2 (en) Calibration apparatus and method
CN107808398B (en) Camera parameter calculation device, calculation method, program, and recording medium
JP6097903B2 (en) Three-dimensional shape acquisition apparatus, processing method, and program
WO2022126870A1 (en) Three-dimensional imaging method and method based on light field camera and three-dimensional imaging measuring production line
Deetjen et al. Automated calibration of multi-camera-projector structured light systems for volumetric high-speed 3D surface reconstructions
JP7168077B2 (en) Three-dimensional measurement system and three-dimensional measurement method
CN106767526A (en) A kind of colored multi-thread 3-d laser measurement method based on the projection of laser MEMS galvanometers
Aliaga et al. Photogeometric structured light: A self-calibrating and multi-viewpoint framework for accurate 3d modeling
CN116250017A (en) Systems, methods, and media for directly restoring planar surfaces in a scene using structured light
JP5761750B2 (en) Image processing method and apparatus
Robson et al. Optimised multi-camera systems for dimensional control in factory environments
WO2008075632A1 (en) Test method for compound-eye distance measuring device, its test device and chart used for same
JP6486083B2 (en) Information processing apparatus, information processing method, and program
Visentini-Scarzanella et al. Simultaneous camera, light position and radiant intensity distribution calibration
Yamauchi et al. Calibration of a structured light system by observing planar object from unknown viewpoints
Nishimura et al. A linear generalized camera calibration from three intersecting reference planes
CN115661226B (en) Three-dimensional measuring method of mirror surface object, computer readable storage medium
CN109690241A (en) Three directional measuring device and three-dimensional measurement method
Garbat et al. Structured light camera calibration