JP2014190800A - Three-dimensional measuring method and three-dimensional measuring system - Google Patents

Three-dimensional measuring method and three-dimensional measuring system Download PDF

Info

Publication number
JP2014190800A
JP2014190800A JP2013065875A JP2013065875A JP2014190800A JP 2014190800 A JP2014190800 A JP 2014190800A JP 2013065875 A JP2013065875 A JP 2013065875A JP 2013065875 A JP2013065875 A JP 2013065875A JP 2014190800 A JP2014190800 A JP 2014190800A
Authority
JP
Japan
Prior art keywords
measurement
plane
distance
dimensional
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013065875A
Other languages
Japanese (ja)
Inventor
Tetsuya Suzuka
哲也 鈴鹿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PHC Corp
Original Assignee
Panasonic Healthcare Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Healthcare Co Ltd filed Critical Panasonic Healthcare Co Ltd
Priority to JP2013065875A priority Critical patent/JP2014190800A/en
Publication of JP2014190800A publication Critical patent/JP2014190800A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a three-dimensional measuring method and a three-dimensional measuring system for measuring a three-dimensional shape of a target by measuring the distance to the target capable of easily performing geometric calibration processing.SOLUTION: The three-dimensional measuring method includes the steps of: measuring a distance to a group of a flat surface 12 at a position of which is given as a flat surface equation 72 (step 33); calculating an estimation distance 55 to the flat surface based on a calibration parameter 80 and the flat surface equation 72 (step 51); and updating the calibration parameter 80 based on a piece of difference information 56 between a measured distance 62 and the estimation distance 55 (step 52b).

Description

本発明は、測定対象までの距離を計測することで測定対象の3次元形状を計測する3次元計測方式および3次元計測装置に関するものである。   The present invention relates to a three-dimensional measurement method and a three-dimensional measurement apparatus that measure a three-dimensional shape of a measurement target by measuring a distance to the measurement target.

測定対象からのエネルギーを観測することで、そのエネルギーの伝達経路上での、観測点(以下では「測定基準点」と呼ぶ)から測定対象までの距離を計測する方法がある。例えば、Time of Flight法では、光パルスまたは音波パルスを測定対象に当て、反射して帰ってくるまでの時間を計測して距離を求める。また、共焦点法、Shape from Focus法、Shape from Defocus法等の合焦法では光軸方向に測定対象までの距離を変化させて、測定対象の像の合焦点を探索することで距離を求める。さらに、特許文献1のOCT(Optical Coherence Tomography)のように断層画像を観測可能な計測方法も、断層内境界面への距離を計測していることに相当する。   There is a method of measuring the distance from an observation point (hereinafter referred to as “measurement reference point”) to the measurement target on the energy transmission path by observing the energy from the measurement target. For example, in the Time of Flight method, a light pulse or a sound wave pulse is applied to a measurement object, and the time until the light returns after being reflected is obtained. Also, in the focusing methods such as confocal method, Shape from Focus method, Shape from Defocus method, etc., the distance to the measurement object is changed in the optical axis direction, and the distance is obtained by searching the focal point of the image of the measurement object. . Furthermore, a measurement method capable of observing a tomographic image, such as OCT (Optical Coherence Tomography) of Patent Document 1, corresponds to measuring the distance to the boundary surface within the fault.

上記のエネルギー伝達経路は測定基準点を始点とする線分(以下では「計測線分」と呼ぶ)となるが、この線分式が既知ならば計測された距離を3次元座標値に変換することができる。このような2点間の距離計測を測定対象全体にわたって2次元的に実施すれば、測定対象の形状を表す3次元点群が得られる。   The energy transmission path is a line segment starting from the measurement reference point (hereinafter referred to as “measurement line segment”). If this line segment formula is known, the measured distance is converted into a three-dimensional coordinate value. be able to. If such a distance measurement between two points is performed two-dimensionally over the entire measurement object, a three-dimensional point group representing the shape of the measurement object can be obtained.

計測線分は、温度等の環境変化、経年変化等により動的に変化する。よって、3次元計測の精度を保証するためには、計測線分式を更新する「校正」を定期的に実施する必要がある。   The measurement line segment dynamically changes due to environmental changes such as temperature, aging, and the like. Therefore, in order to guarantee the accuracy of the three-dimensional measurement, it is necessary to periodically perform “calibration” for updating the measurement line segment formula.

図2により、従来の3次元計測方法およびその校正方法を説明する。   A conventional three-dimensional measurement method and its calibration method will be described with reference to FIG.

3次元計測方法10aは、測定基準点83を始点とし、方向ベクトル84に延びる計測線分81上で、測定対象の歯11までの距離(計測距離62)を計測する機能をもつ。3次元計測方法10aは、(式1)の計測線分式と計測距離の距離変換比率82を用いて、計測距離62を測定点63の3次元計測座標64に変換する。   The three-dimensional measurement method 10 a has a function of measuring the distance (measurement distance 62) to the tooth 11 to be measured on the measurement line segment 81 starting from the measurement reference point 83 and extending in the direction vector 84. The three-dimensional measurement method 10 a converts the measurement distance 62 into the three-dimensional measurement coordinates 64 of the measurement point 63 using the measurement line segment formula of (Expression 1) and the distance conversion ratio 82 of the measurement distance.

Figure 2014190800
ここで変換比率82とは、計測距離から3次元座標系14aにおける距離への変換比率を表し、例えば、Time of Flight法では照射したエネルギーが帰ってくるまでの時間を計測するが、この時間を距離に変換する比率に相当する。
Figure 2014190800
Here, the conversion ratio 82 represents the conversion ratio from the measurement distance to the distance in the three-dimensional coordinate system 14a. For example, in the Time of Flight method, the time until the irradiated energy returns is measured. Corresponds to the ratio converted to distance.

測定基準点83は、2次元的に広がりを持った領域(以下では基準曲面290と呼ぶ)に分布して多数存在し(図2ではI×J個)、対応する計測線分群で計測した3次元座標を集めると、測定対象11の3次元形状を表す3次元点群13となる。   A large number of measurement reference points 83 are distributed in a two-dimensionally broadened area (hereinafter referred to as a reference curved surface 290) (I × J in FIG. 2), and measured by the corresponding measurement line group 3 When the dimensional coordinates are collected, a three-dimensional point group 13 representing the three-dimensional shape of the measurement object 11 is obtained.

3次元計測方法10aは、測定対象11の3次元座標13を計測する計測処理20と、校正パラメータ80を更新する校正処理50aと、校正処理50aへの入力である計測データ60aを取得するデータ取得処理30aからなる。   The three-dimensional measurement method 10a includes a measurement process 20 that measures the three-dimensional coordinate 13 of the measurement object 11, a calibration process 50a that updates the calibration parameter 80, and data acquisition that acquires measurement data 60a that is an input to the calibration process 50a. It consists of process 30a.

計測処理20では、まず距離計測ステップ21において、測定対象11までの距離(計測距離23)を計測する。次に3次元座標算出ステップ22において、(式2)に示すように校正パラメータ80を用いて計測距離23を対応する3次元座標13に変換する。   In the measurement process 20, first, in a distance measurement step 21, the distance to the measurement object 11 (measurement distance 23) is measured. Next, in the three-dimensional coordinate calculation step 22, the measurement distance 23 is converted into the corresponding three-dimensional coordinate 13 using the calibration parameter 80 as shown in (Expression 2).

Figure 2014190800
3次元計測方法10aの校正では、撮像素子からなる平面12aを測定対象とし、まずデータ取得処理30aにより計測データ60aを取得し、次に校正処理50aが計測データ60aに基づいて校正パラメータ80を更新する。
Figure 2014190800
In the calibration of the three-dimensional measurement method 10a, the measurement target is the plane 12a made of an image sensor, first the measurement data 60a is acquired by the data acquisition process 30a, and then the calibration process 50a updates the calibration parameter 80 based on the measurement data 60a. To do.

データ取得処理30aでは、まずZステージ15aを用いて平面12aをZ方向に移動する(ステップ31a)。次に、平面12aと計測線分81との交点の3次元座標(測定点の計測座標64)を、撮像素子の画素位置と、Zステージ15aのステージ位置により決定する(ステップ32a)。そして、平面12aまでの計測距離62を計測する(ステップ33)。以上のステップ31a〜ステップ33を繰り返して、複数の測定点63に対する計測データ60aを取得する。   In the data acquisition process 30a, first, the plane 12a is moved in the Z direction using the Z stage 15a (step 31a). Next, the three-dimensional coordinate (measurement coordinate 64 of the measurement point) of the intersection of the plane 12a and the measurement line segment 81 is determined based on the pixel position of the image sensor and the stage position of the Z stage 15a (step 32a). And the measurement distance 62 to the plane 12a is measured (step 33). Steps 31a to 33 are repeated to obtain measurement data 60a for a plurality of measurement points 63.

校正処理50aは、複数の測定点の計測座標64と計測距離62を用いて、(式3)により距離変換比率82を同定する(ステップ51a)。   The calibration process 50a identifies the distance conversion ratio 82 by (Equation 3) using the measurement coordinates 64 and the measurement distances 62 of a plurality of measurement points (step 51a).

Figure 2014190800
次に、同定した距離変換比率82、計測座標64および計測距離62を用いて、(式4)により計測線分式81の方向ベクトル84と測定基準点83を同定する(ステップ52a)。
Figure 2014190800
Next, using the identified distance conversion ratio 82, measurement coordinates 64, and measurement distance 62, the direction vector 84 and the measurement reference point 83 of the measurement line segment expression 81 are identified by (Expression 4) (Step 52a).

Figure 2014190800
このような従来の技術としては、例えば特許文献2または非特許文献1に記載されたものが知られている。
Figure 2014190800
As such conventional techniques, for example, those described in Patent Document 2 or Non-Patent Document 1 are known.

特開2011−179902号公報JP 2011-179902 A 特開平1−214706号公報(第1図)JP-A-1-214706 (FIG. 1)

Alkhazur M. et al:” A Mathematical Model and Calibration Procedure for Galvanometric Laser Scanning Systems”, Vision, Modeling, and Visualization (2011)Alkhazur M. et al: ”A Mathematical Model and Calibration Procedure for Galvanometric Laser Scanning Systems”, Vision, Modeling, and Visualization (2011) Z. Zhang,“A flexible new technique for camera calibration,” Technical Report MSRTR-98-71, Microsoft Research, Dec 1998.Z. Zhang, “A flexible new technique for camera calibration,” Technical Report MSRTR-98-71, Microsoft Research, Dec 1998. C. Ricolfe-Viala et al, "Improved Camera Calibration Method Based on a Two-Dimensional Template", Lecture Notes in Computer Science Volume 4478, 2007, pp 420-427C. Ricolfe-Viala et al, "Improved Camera Calibration Method Based on a Two-Dimensional Template", Lecture Notes in Computer Science Volume 4478, 2007, pp 420-427 金谷健一著 「形状CADと図形の数学」 共立出版、1998、P. 34Kenichi Kanaya “Shape CAD and Mathematics of Figures” Kyoritsu Shuppan, 1998, p. 34

しかしながら、前記従来の3次元計測方法10aでは、校正処理50aで同定される校正パラメータ80の精度が、(式3)と(式4)により測定点63の3次元計測座標64の計測精度に直接依存する。よって、高い校正精度を実現するためには、解像度の高い撮像素子12aを正確に位置決めできるZステージ15aで移動させる必要がある。このため従来の校正方法は共焦点レーザー顕微鏡等の元々可動ステージを有する装置には適している。   However, in the conventional three-dimensional measurement method 10a, the accuracy of the calibration parameter 80 identified by the calibration process 50a is directly related to the measurement accuracy of the three-dimensional measurement coordinate 64 of the measurement point 63 according to (Equation 3) and (Equation 4). Dependent. Therefore, in order to realize high calibration accuracy, it is necessary to move the imaging element 12a having a high resolution by the Z stage 15a that can accurately position the imaging element 12a. Therefore, the conventional calibration method is suitable for an apparatus having an originally movable stage such as a confocal laser microscope.

しかし、口腔内3次元スキャナ(ODS: Oral Direct Scanner)のような3次元ハンドスキャナは通常動作時に可動ステージを必要としないので、従来方法で校正するためには、別途ステージを設ける必要が生じ、装置構成を複雑化する。また、従来方法ではZステージの正確な位置決めが必要であるので、Zステージに自動移動機構を設けるか、ユーザ操作により移動させることになり、装置構成を複雑化するか、ユーザ操作を複雑化する。すなわち、従来の3次元計測方法および3次元計測装置は、校正のための構成およびユーザ操作が複雑化するという課題を有していた。   However, since a 3D hand scanner such as an intraoral 3D scanner (ODS: Oral Direct Scanner) does not require a movable stage during normal operation, it is necessary to provide a separate stage for calibration using the conventional method. The device configuration is complicated. In addition, since the conventional method requires accurate positioning of the Z stage, an automatic movement mechanism is provided on the Z stage or moved by a user operation, which complicates the apparatus configuration or complicates the user operation. . That is, the conventional three-dimensional measurement method and three-dimensional measurement apparatus have a problem that the configuration for calibration and the user operation are complicated.

本発明は、前記従来の課題を解決するもので、簡単な構成/操作で校正を実行できる3次元計測方法および3次元計測装置を提供することを目的とする。   The present invention solves the above-described conventional problems, and an object thereof is to provide a three-dimensional measurement method and a three-dimensional measurement apparatus capable of executing calibration with a simple configuration / operation.

前記従来の課題を解決するために、本発明の3次元計測方法は、測定基準点を始点とする計測線分上で測定対象までの距離を計測するステップと、所定の3次元座標系における前記計測線分を表す線分式と、前記3次元座標系における計測距離の変換比率を用いて、前記距離から測定対象の三次元座標を算出するステップを有する3次元計測方法であって、位置が平面方程式として表された、複数の平面までの、前記計測線分上での第1の距離を計測する第1のステップと、前記平面方程式、前記線分式および前記換比率を用いて、前記第1の距離に対する推定値を算出する第2のステップと、前記第1の距離と前記推定値の差分情報に基づいて、前記線分式と前記変換比率を更新する第3のステップと、前記線分式と前記変換比率の更新を終了すべきか判断する第4のステップを有し、前記第4のステップで終了と判断されるまで前記第2のステップ、前記第3のステップおよび前記第4のステップを繰返すことを特徴としたものである。   In order to solve the above-described conventional problems, the three-dimensional measurement method of the present invention includes a step of measuring a distance to a measurement target on a measurement line segment starting from a measurement reference point, and the predetermined three-dimensional coordinate system. A three-dimensional measurement method including a step of calculating a three-dimensional coordinate of a measurement object from the distance using a line segment expression representing a measurement line segment and a conversion ratio of a measurement distance in the three-dimensional coordinate system, A first step of measuring a first distance on the measurement line segment to a plurality of planes expressed as a plane equation, and using the plane equation, the line segment formula, and the conversion ratio, A second step of calculating an estimated value for the first distance; a third step of updating the line segment formula and the conversion ratio based on difference information between the first distance and the estimated value; Update the line segment formula and the conversion ratio A fourth step for determining whether or not to end, and repeating the second step, the third step, and the fourth step until it is determined in the fourth step to end It is.

また、本発明の3次元計測装置は、測定基準点を始点とする計測線分上で測定対象までの距離を計測する計測部と、所定の3次元座標系における前記計測線分を表す線分式と、前記3次元座標系における計測距離の変換比率を用いて、前記距離から測定対象の三次元座標を算出する座標算出部を有する3次元計測装置であって、位置が平面方程式として表された、複数の平面までの、前記計測線分上での第1の距離を計測する平面距離計測部と、前記平面方程式、前記線分式および前記換比率を用いて、前記第1の距離に対する推定値を算出する距離推定部と、前記第1の距離と前記推定値の差分情報に基づいて、前記線分式と前記変換比率を更新するパラメータ更新部と、前記線分式と前記変換比率の更新を終了すべきか判断する校正終了判定部を有し、前記校正終了判定部で終了と判断されるまで前記距離推定部、前記パラメータ更新部および前記校正終了判定部での処理を繰返すことを特徴としたものである。   In addition, the three-dimensional measurement apparatus of the present invention includes a measurement unit that measures a distance to a measurement target on a measurement line segment starting from a measurement reference point, and a line segment that represents the measurement line segment in a predetermined three-dimensional coordinate system. A three-dimensional measurement apparatus having a coordinate calculation unit that calculates a three-dimensional coordinate of a measurement target from the distance using an equation and a conversion ratio of a measurement distance in the three-dimensional coordinate system, where the position is expressed as a plane equation In addition, a plane distance measuring unit that measures a first distance on the measurement line segment to a plurality of planes, and the plane equation, the line segment formula, and the conversion ratio are used for the first distance. A distance estimating unit that calculates an estimated value; a parameter updating unit that updates the line segment formula and the conversion ratio based on difference information between the first distance and the estimated value; and the line segment formula and the conversion ratio. End of calibration to determine whether renewal should end Has a tough, said distance estimation unit until it is determined to be terminated in the calibration end determining unit, in which is characterized by repeating the processing in the parameter updating unit and the calibrating end determining unit.

発明による3次元計測方法では、校正時に必要な位置情報が計測対象平面の平面方程式のみであるので、従来の測定点の3次元座標に基づく校正法よりも校正のための計測ステップを簡略化できる。   In the three-dimensional measurement method according to the present invention, the positional information necessary for calibration is only the plane equation of the measurement target plane, and therefore the measurement step for calibration can be simplified as compared with the conventional calibration method based on the three-dimensional coordinates of the measurement point. .

また発明による3次元計測装置では、校正時に必要な位置情報が計測対象平面の平面方程式のみであるので、従来の測定点の3次元座標に基づく校正を実装した装置よりも校正のための機構を簡略化できる。   In the three-dimensional measuring apparatus according to the invention, since the position information necessary for calibration is only the plane equation of the measurement target plane, a mechanism for calibration is provided rather than a conventional apparatus that implements calibration based on the three-dimensional coordinates of the measurement point. It can be simplified.

本発明の実施の形態2における3次元計測方法の処理フロー図Process flow diagram of three-dimensional measurement method in Embodiment 2 of the present invention 従来技術による3次元計測方法の処理フロー図と概要図Process flow diagram and schematic diagram of 3D measurement method according to the prior art 本発明の1つの効果を説明する図The figure explaining one effect of this invention 本発明の実施の形態1における装置の概要図Schematic diagram of an apparatus according to Embodiment 1 of the present invention 本発明の実施の形態1における装置の構成図Configuration diagram of an apparatus according to Embodiment 1 of the present invention 本発明の実施の形態1における計測処理の概要図Overview diagram of measurement processing in Embodiment 1 of the present invention 本発明の実施の形態1における処理フロー図Processing flow diagram in Embodiment 1 of the present invention 本発明の実施の形態1における平面同定処理の概要図Overview of plane identification processing in Embodiment 1 of the present invention 本発明の実施の形態1における校正パラメータ同定の処理概要図Processing outline diagram of calibration parameter identification in Embodiment 1 of the present invention 本発明の実施の形態2における装置の構成図Configuration diagram of apparatus in embodiment 2 of the present invention

以下に、本発明の3次元計測方法および3次元計測装置の実施の形態を図面とともに詳細に説明する。   Embodiments of a three-dimensional measurement method and a three-dimensional measurement apparatus according to the present invention will be described below in detail with reference to the drawings.

(実施の形態1)
図4は、本発明の第1の実施の形態におけるOCT−ODS(Oral Direct Scanner)装置の概要を示す。
(Embodiment 1)
FIG. 4 shows an outline of an OCT-ODS (Oral Direct Scanner) apparatus according to the first embodiment of the present invention.

OCT−ODS装置100は、歯科医等の検査者(以下ではユーザと呼ぶ)が手でプローブ230を患者口腔内に挿入して、歯11の3次元形状を計測する装置である。計測は、プローブ230先端の計測用ヘッド235を歯11の計測対象部分に位置決めし、計測スイッチ239を押すことで実行される。計測結果は、本体101で処理されて、表示部304上に3次元座標13の群として出力される。   The OCT-ODS apparatus 100 is an apparatus for measuring a three-dimensional shape of the tooth 11 by an operator such as a dentist (hereinafter referred to as a user) inserting the probe 230 into a patient's oral cavity by hand. The measurement is executed by positioning the measurement head 235 at the tip of the probe 230 on the measurement target portion of the tooth 11 and pressing the measurement switch 239. The measurement result is processed by the main body 101 and output as a group of three-dimensional coordinates 13 on the display unit 304.

図5に基づいて、OCT−ODS装置100の構成について説明する。   The configuration of the OCT-ODS apparatus 100 will be described based on FIG.

OCT−ODS装置100は、距離計測部200、座標計測部300、平面同定部400および校正処理部500の4つの機能ブロックと、計測データメモリ1(130)、計測データメモリ2(131)、平面情報メモリ140および校正パラメータメモリ150の4つのメモリをもつ。各機能ブロックおよびその構成要素は、制御バス120を介して制御部110により動作を制御される。   The OCT-ODS apparatus 100 includes a distance measurement unit 200, a coordinate measurement unit 300, a plane identification unit 400, and a calibration processing unit 500, a measurement data memory 1 (130), a measurement data memory 2 (131), and a plane. There are four memories, an information memory 140 and a calibration parameter memory 150. The operation of each functional block and its components is controlled by the control unit 110 via the control bus 120.

距離計測部200は、計測スイッチ239をトリッガとして測定対象の歯11にビーム状の測定光17を照射し、その戻り光を観測することで測定対象の歯11までの計測距離群を計測する。測定光17は、波長掃引光源210で発した光線をビームスプリッタ220で測定光17と参照光18に分けることで生成され、プローブ230を介して測定対象の歯11に照射される。測定対象の歯11からの戻り光は、プローブ230を介して干渉部250に達し、ここで参照ミラー240を経由した参照光18と干渉し、干渉光19を生じる。この干渉光19の強度を受光部260で検出し、その検出結果を信号処理部270と界面検出280でデータ処理することで、測定対象の歯11までの距離を計測する。このデータ処理の詳細は後述する。   The distance measurement unit 200 measures the measurement distance group to the measurement target tooth 11 by irradiating the measurement target tooth 11 with the beam-shaped measurement light 17 using the measurement switch 239 as a trigger and observing the return light. The measurement light 17 is generated by dividing the light beam emitted from the wavelength swept light source 210 into the measurement light 17 and the reference light 18 by the beam splitter 220, and irradiates the tooth 11 to be measured via the probe 230. The return light from the tooth 11 to be measured reaches the interference unit 250 via the probe 230, and interferes with the reference light 18 that passes through the reference mirror 240, thereby generating interference light 19. The intensity of the interference light 19 is detected by the light receiving unit 260, and the detection result is subjected to data processing by the signal processing unit 270 and the interface detection 280, thereby measuring the distance to the tooth 11 to be measured. Details of this data processing will be described later.

測定光17はプローブ内の光走査部231で2次元的に走査されるので、測定対象の歯11の表面領域全体にわたって前記の距離計測が実施される。   Since the measurement light 17 is two-dimensionally scanned by the optical scanning unit 231 in the probe, the distance measurement is performed over the entire surface area of the tooth 11 to be measured.

距離計測部200は、距離の計測と同時に、プローブ内のカメラ部237で測定対象の歯11からの可視光48を観測して、測定対象の2次元画像も生成する。   At the same time as the distance measurement, the distance measurement unit 200 observes the visible light 48 from the measurement target tooth 11 with the camera unit 237 in the probe, and also generates a two-dimensional image of the measurement target.

OCT−ODS装置100は、プローブ230の先端部に計測用ヘッド235が装備されている時は測定対象の歯11の計測処理を実行するが、校正用ヘッド236が装備されると幾何学的な校正処理を実行する。この計測モードと校正モードの間のモード切替は、ヘッドセンサ238が装備されているヘッドの種類を検出してそれを制御部110へ通知し、それを受けて制御部110が現在のヘッド種別に基づいて距離計測部200からの出力(計測距離群と測定対象の2次元画像)の行き先を、データフロー切り替えスイッチ160,170によって切り換えることで実現される。   The OCT-ODS apparatus 100 executes the measurement process of the tooth 11 to be measured when the measurement head 235 is provided at the tip of the probe 230, but if the calibration head 236 is provided, the OCT-ODS apparatus 100 is geometric. Perform calibration processing. In this mode switching between the measurement mode and the calibration mode, the type of the head equipped with the head sensor 238 is detected and notified to the control unit 110, and in response to this, the control unit 110 changes to the current head type. Based on this, the destination of the output from the distance measurement unit 200 (measurement distance group and measurement target two-dimensional image) is switched by the data flow changeover switches 160 and 170.

計測モード時は、図5に示すように、距離計測部200からの計測距離群と測定対象の2次元画像は共に座標計測部300へ渡される。計測された計測距離23の群は、3次元座標算出301によりを校正パラメータメモリ内の距離変換比率82と計測線分81に基づいて3次元座標13の群に変換され、その3次元座標13の群は点群描画302により表示部304に描画される。また、入力された測定対象の2次元画像は、プレビュー画面描画303により表示部304に表示される。   In the measurement mode, as shown in FIG. 5, the measurement distance group from the distance measurement unit 200 and the two-dimensional image to be measured are both passed to the coordinate measurement unit 300. The measured group of measured distances 23 is converted into a group of three-dimensional coordinates 13 by the three-dimensional coordinate calculation 301 based on the distance conversion ratio 82 and the measurement line segment 81 in the calibration parameter memory. The group is drawn on the display unit 304 by the point cloud drawing 302. The input two-dimensional image to be measured is displayed on the display unit 304 by the preview screen drawing 303.

校正モード時は、距離計測部200からの出力はメモリに保存される。すなわち、計測距離群は計測データメモリ2(131)へ、測定対象の2次元画像は計測データメモリ1(130)へ保存される。   In the calibration mode, the output from the distance measuring unit 200 is stored in the memory. That is, the measurement distance group is stored in the measurement data memory 2 (131), and the two-dimensional image to be measured is stored in the measurement data memory 1 (130).

校正モード時の測定対象は校正用ヘッド236に取り付けられている平面12である。平面12は校正用ヘッド236の螺旋状の溝(以下では平面移動部15と呼ぶ)を介して傾斜して取り付けられているので、平面12を回すことにより、校正用ヘッド236との距離と傾きを変えることができる。そこで、ユーザが平面12のチャートを適当に回して、計測スイッチ239を押していくことで、異なる位置の平面12に対する2次元画像61と計測距離62の群が、計測データメモリ1(130)と計測データメモリ2(131)にそれぞれ保存される。   The measurement target in the calibration mode is the plane 12 attached to the calibration head 236. Since the plane 12 is inclined and attached via a spiral groove (hereinafter referred to as the plane moving unit 15) of the calibration head 236, the distance and the inclination with respect to the calibration head 236 can be obtained by turning the plane 12. Can be changed. Therefore, when the user appropriately turns the chart of the plane 12 and presses the measurement switch 239, the group of the two-dimensional image 61 and the measurement distance 62 with respect to the plane 12 at different positions becomes the measurement data memory 1 (130) and the measurement. The data is stored in the data memory 2 (131).

その後、校正用ヘッド236が取り外されて計測用ヘッド235が取り付けられると、制御部110は平面同定部400と校正処理部500を活性化する。平面同定部400は計測データメモリ1(130)内の平面の2次元画像61の群に基づいて平面12の位置を表す平面方程式72の群を同定し、校正処理部500に渡す。校正処理部500は、渡された平面方程式72の群と、計測データメモリ2(131)内の計測距離62の群に基づいて、校正パラメータメモリ150内の距離変換比率82と計測線分81を更新する。   Thereafter, when the calibration head 236 is removed and the measurement head 235 is attached, the control unit 110 activates the plane identification unit 400 and the calibration processing unit 500. The plane identification unit 400 identifies a group of plane equations 72 representing the position of the plane 12 based on the group of plane two-dimensional images 61 in the measurement data memory 1 (130), and passes the group to the calibration processing unit 500. The calibration processing unit 500 calculates the distance conversion ratio 82 and the measurement line segment 81 in the calibration parameter memory 150 based on the group of the plane equation 72 and the group of the measurement distance 62 in the measurement data memory 2 (131). Update.

校正モード時のデータフローの詳細を図6に基づいて説明する。   Details of the data flow in the calibration mode will be described with reference to FIG.

3次元座標13を特定するためには、3次元座標系を導入する必要がある。ここでは、カメラ部237のカメラ座標系を3次元座標系14とする。   In order to specify the three-dimensional coordinate 13, it is necessary to introduce a three-dimensional coordinate system. Here, the camera coordinate system of the camera unit 237 is a three-dimensional coordinate system 14.

波長掃引光源210は、発するビーム光の発光周波数を時間的に変化させる。ビーム光の発光周波数は、図6に示すようにノコギリ波形状に周期的に変化を繰り返し、この1周期(Aスキャン期間と呼ぶ)が1つの計測線分81での計測時間に相当する。   The wavelength swept light source 210 temporally changes the emission frequency of the emitted beam light. The light emission frequency of the beam light periodically changes in a sawtooth shape as shown in FIG. 6, and this one period (referred to as A scan period) corresponds to the measurement time in one measurement line segment 81.

波長掃引光源210の発したビーム光はビームスプリッタ220で測定光17と参照光に分けられる。測定光17は光走査部231を経由して平面12に入射し、拡散反射されて逆の経路をたどって干渉部250に戻ってくる。参照光18は参照ミラーで反射されて干渉部250に達する。   The beam light emitted from the wavelength swept light source 210 is divided into the measurement light 17 and the reference light by the beam splitter 220. The measurement light 17 is incident on the plane 12 via the optical scanning unit 231, diffusely reflected, and returns to the interference unit 250 along the reverse path. The reference light 18 is reflected by the reference mirror and reaches the interference unit 250.

光走査部231は、測定光17の照射先を2次元的に走査するために、1次独立な2方向(Bスキャン方向291、Cスキャン方向292)に走査する2つのスキャニングミラー(Bスキャンミラー232、Cスキャンミラー233)をもつ。スキャニングミラーで振られた測定光はレンズ234により向きが整えられる。Bスキャンミラー232により、Bスキャン方向291にJ個の走査点が作られる。各走査点には少なくとも前記のAスキャン期間は留まる。Cスキャンミラー233はCスキャン方向292にI個の走査点を作るが、各走査点にはBスキャン方向291の1ライン分の走査が完了するまで留まる。これにより2次元面(例えば基準曲面290)上にI×J個の走査点を均等に配分できる。   The optical scanning unit 231 has two scanning mirrors (B scan mirrors) that scan in two primary directions (B scan direction 291 and C scan direction 292) in order to two-dimensionally scan the irradiation destination of the measurement light 17. 232, C scan mirror 233). The direction of the measuring light swung by the scanning mirror is adjusted by the lens 234. The B scan mirror 232 creates J scan points in the B scan direction 291. At least the A-scan period remains at each scanning point. The C scan mirror 233 creates I scan points in the C scan direction 292, but remains at each scan point until the scanning for one line in the B scan direction 291 is completed. Thereby, I × J scanning points can be evenly distributed on a two-dimensional surface (for example, the reference curved surface 290).

干渉部250では測定光17と参照光18を干渉して干渉光19を生成し、受光部260でその強度が計測される。この干渉光強度を信号処理部270でフーリエ変換して、断層画像600が生成される。   The interference unit 250 interferes with the measurement light 17 and the reference light 18 to generate interference light 19, and the light receiving unit 260 measures the intensity thereof. The interference light intensity is Fourier transformed by the signal processing unit 270 to generate a tomographic image 600.

断層画像600は、Bスキャン方向を横軸とし、干渉光周波数を縦軸とする空間における干渉光強度の分布を表す2次元スカラー場である。特許文献1で説明されているように、干渉光周波数は、測定光17と参照光18の光路長差と線形な関係がある。   The tomographic image 600 is a two-dimensional scalar field representing the distribution of interference light intensity in a space having the B scan direction as the horizontal axis and the interference light frequency as the vertical axis. As described in Patent Document 1, the interference light frequency has a linear relationship with the optical path length difference between the measurement light 17 and the reference light 18.

そこで、測定光17の光路上で参照光18の光路長と等しい点を測定基準点83とすると、測定光17の光線方向(以下では方向ベクトル84と呼ぶ)への測定基準点83から平面12までの距離(以下での補正計測距離と呼ぶ)が、断層画像600の縦軸(すなわち干渉光周波数)と線形な関係にある。この線形係数を距離変換比率82とし、干渉光周波数を計測距離62とする。   Therefore, if a point on the optical path of the measurement light 17 equal to the optical path length of the reference light 18 is defined as a measurement reference point 83, the plane 12 from the measurement reference point 83 in the light beam direction of the measurement light 17 (hereinafter referred to as a direction vector 84). Is a linear relationship with the vertical axis of the tomographic image 600 (that is, the interference light frequency). This linear coefficient is the distance conversion ratio 82, and the interference light frequency is the measurement distance 62.

断層画像600では、平面12の表面に相当する干渉光周波数で強度が最高となり、平面内部にいくほど散乱・吸収等により減衰し強度が低下する。そこで、界面検出280では断層画像600における強度のピーク位置に相当する干渉光周波数を、平面12の表面までの計測距離62とする。この計測距離62に距離変換比率82を掛けた値(補正計測距離)は、測定基準点83を始点とする方向ベクトル84方向の線分(計測線分81)上での平面12までの距離に相当する。   In the tomographic image 600, the intensity becomes maximum at the interference light frequency corresponding to the surface of the plane 12, and the intensity decreases as the distance to the inside of the plane decreases due to scattering / absorption. Therefore, in the interface detection 280, the interference light frequency corresponding to the intensity peak position in the tomographic image 600 is set as the measurement distance 62 to the surface of the plane 12. The value obtained by multiplying the measurement distance 62 by the distance conversion ratio 82 (corrected measurement distance) is the distance to the plane 12 on the line segment (measurement line segment 81) in the direction vector 84 starting from the measurement reference point 83. Equivalent to.

計測線分81と距離変換比率82は、幾何学的校正のパラメータとして校正パラメータメモリ150に保存されている。
前記のように光走査部231によりI×J本の計測線分81が存在するので、1回の計測で、I×J個の計測距離群が得られる。したがってこの計測は、I×J個の測定基準点83で構成される曲面(基準曲面290)と、平面12の間の距離をI×J個のサンプリング点(すなわち測定基準点83)で計測していることに相当する。この基準曲面290と平面12間の距離計測を、平面移動部15を使って平面12を異なる位置に移動してK回繰返すと、I×J×K個の計測距離62の群が得られ、これが計測データメモリ2(131)に保存される。
The measurement line segment 81 and the distance conversion ratio 82 are stored in the calibration parameter memory 150 as geometric calibration parameters.
Since there are I × J measurement line segments 81 by the optical scanning unit 231 as described above, I × J measurement distance groups can be obtained by one measurement. Therefore, this measurement is performed by measuring the distance between the curved surface (reference curved surface 290) composed of I × J measurement reference points 83 and the plane 12 at I × J sampling points (that is, measurement reference points 83). Is equivalent to When this distance measurement between the reference curved surface 290 and the plane 12 is repeated K times by moving the plane 12 to a different position using the plane moving unit 15, a group of I × J × K measurement distances 62 is obtained. This is stored in the measurement data memory 2 (131).

この計測距離62の群の取得と同時に、カメラ部237は各位置での平面12の2次元画像を撮影し、計測データメモリ1(130)へ保存する。カメラ部237における3次元から2次元への投影動作はカメラパラメータ71により記述されるが、このカメラパラメータ71も平面情報メモリ140に保存されている。   Simultaneously with the acquisition of the group of the measurement distance 62, the camera unit 237 takes a two-dimensional image of the plane 12 at each position and stores it in the measurement data memory 1 (130). The projection operation from the 3D to the 2D in the camera unit 237 is described by the camera parameter 71, and the camera parameter 71 is also stored in the plane information memory 140.

平面同定部400と校正処理部500は、プローブ先端が校正用ヘッド236から計測用ヘッド235に取り替えられたことを検出した制御部110によって活性化される。   The plane identification unit 400 and the calibration processing unit 500 are activated by the control unit 110 that detects that the probe tip is replaced from the calibration head 236 to the measurement head 235.

平面同定部400は平面12の各位置を表す平面方程式72を同定する。この同定は、
平面情報メモリ140に保存されている平面方程式72の群を更新することで実現される。すなわち、平面同定部400は計測データメモリ1(130)内の平面の2次元画像61の群、平面情報メモリ140内のカメラパラメータ71および平面方程式72を入力として、更新された平面方程式72を出力し、これを平面情報メモリ140に保存する。平面同定処理アルゴリズムの詳細は後述する。
The plane identification unit 400 identifies a plane equation 72 representing each position on the plane 12. This identification is
This is realized by updating the group of plane equations 72 stored in the plane information memory 140. That is, the plane identification unit 400 receives a group of plane two-dimensional images 61 in the measurement data memory 1 (130), the camera parameters 71 and the plane equation 72 in the plane information memory 140, and outputs an updated plane equation 72. This is stored in the plane information memory 140. Details of the plane identification processing algorithm will be described later.

校正処理部500は、平面同定部400による平面方程式72の群の更新が完了すると起動される。校正処理部500は、計測データメモリ2(131)内の計測距離62の群、平面情報メモリ140内の平面方程式72の群、校正パラメータメモリ内の距離変換比率82および計測線分81を入力とし、更新された平面方程式72の群、更新された距離変換比率82および更新された計測線分81を出力する。校正処理部500は、平面方程式72の群の同定がまだ収束していないと判断すると、平面同定部400を再度起動する。校正処理アルゴリズムの詳細は後述する。   The calibration processing unit 500 is activated when the update of the group of plane equations 72 by the plane identification unit 400 is completed. The calibration processing unit 500 receives as input the group of measurement distances 62 in the measurement data memory 2 (131), the group of plane equations 72 in the plane information memory 140, the distance conversion ratio 82 and the measurement line segment 81 in the calibration parameter memory. The updated plane equation group 72, the updated distance conversion ratio 82, and the updated measurement line segment 81 are output. If the calibration processing unit 500 determines that the identification of the group of the plane equation 72 has not yet converged, the calibration processing unit 500 activates the plane identification unit 400 again. Details of the calibration processing algorithm will be described later.

OCT−ODS装置100に実装されている3次元計測方法10を図7により説明する。   A three-dimensional measurement method 10 mounted on the OCT-ODS apparatus 100 will be described with reference to FIG.

3次元計測方法10は、前記計測モードで実行される計測処理20と、前記校正モードで実行されるデータ取得処理30、平面同定処理40および校正処理50からなる。また、3次元計測方法10で処理するデータとしては、測定対象の計測距離23、計測データ60、平面情報70および校正パラメータ80があるが、これらは各々、OCT−ODS装置100の計測データメモリ1(130)、計測データメモリ2(131)、平面情報メモリ140および校正パラメータメモリ150に相当する。   The three-dimensional measurement method 10 includes a measurement process 20 executed in the measurement mode, a data acquisition process 30, a plane identification process 40, and a calibration process 50 executed in the calibration mode. The data to be processed by the three-dimensional measurement method 10 includes a measurement distance 23 to be measured, measurement data 60, plane information 70, and calibration parameters 80, each of which is a measurement data memory 1 of the OCT-ODS apparatus 100. (130), measurement data memory 2 (131), plane information memory 140, and calibration parameter memory 150.

計測処理20は、従来技術において図2を用いて説明した。そこで、ここではOCT−ODS装置との対応についてのみ述べる。距離計測ステップ21で生成される計測距離23は、OCT−ODS装置100の界面検出280で生成される計測距離62の群に相当する(図5および図6参照)。また、3次元座標算出ステップ22は、OCT−ODS装置100の3次元座標算出301に相当する(図5参照)。   The measurement process 20 has been described with reference to FIG. Therefore, only correspondence with the OCT-ODS apparatus will be described here. The measurement distance 23 generated in the distance measurement step 21 corresponds to a group of measurement distances 62 generated by the interface detection 280 of the OCT-ODS apparatus 100 (see FIGS. 5 and 6). The three-dimensional coordinate calculation step 22 corresponds to the three-dimensional coordinate calculation 301 of the OCT-ODS apparatus 100 (see FIG. 5).

校正モードになると、データ取得処理30が実行される。   When the calibration mode is entered, a data acquisition process 30 is executed.

データ取得処理30では、まず平面を移動する(ステップ31)。OCT−ODS装置100では、ユーザが平面12を回すことにより移動させる(図5参照)。   In the data acquisition process 30, the plane is first moved (step 31). In the OCT-ODS apparatus 100, the user moves the plane 12 by turning (see FIG. 5).

データ取得処理30では、次に平面上の特徴点の2次元画像を生成する(ステップ32)。図6に示すようにOCT−ODS装置100では平面12上に円マークがあり、この中心を特徴点46とする。カメラ部237で平面の2次元画像61を撮り、その2次元画像61において円マークの中心座標を求めることが、特徴点の2次元画像61を生成することに相当する。   In the data acquisition process 30, next, a two-dimensional image of feature points on the plane is generated (step 32). As shown in FIG. 6, the OCT-ODS apparatus 100 has a circle mark on the plane 12, and this center is a feature point 46. Taking a two-dimensional image 61 of a plane with the camera unit 237 and obtaining the center coordinates of a circle mark in the two-dimensional image 61 corresponds to generating the two-dimensional image 61 of feature points.

データ取得処理30では、次に平面への距離を測定する(ステップ33)。OCT−ODS装置では図6で説明したように、界面検出280で出力される、基準曲面290と平面12間の距離計測がこのステップの出力に相当する。   In the data acquisition process 30, the distance to the plane is next measured (step 33). In the OCT-ODS apparatus, as described with reference to FIG. 6, the distance measurement between the reference curved surface 290 and the plane 12 output by the interface detection 280 corresponds to the output of this step.

データ取得処理30では、ステップ31からステップ33を必要な回数(本実施例ではK回)実施し、平面12の複数の異なる位置での計測データ60を取得する。Kとしては、7個の未知変数をもつ校正パラメータ80を同定するために、最低でも7以上であり、計測誤差を考慮すると20回以上が望ましい。   In the data acquisition process 30, Steps 31 to 33 are performed as many times as necessary (K times in this embodiment), and measurement data 60 at a plurality of different positions on the plane 12 is acquired. K is at least 7 or more in order to identify the calibration parameter 80 having seven unknown variables, and is preferably 20 or more in consideration of measurement errors.

必要な数の計測データ60を取得し終えると、ユーザはプローブ先端を校正用ヘッド236から計測用ヘッド235に取り替えるが、これを契機に平面同定処理40の実行が開始する。平面同定処理40は、OCT−ODS装置100の平面同定部400で実装されている。   When the necessary number of measurement data 60 has been acquired, the user replaces the probe tip from the calibration head 236 to the measurement head 235, and the execution of the plane identification processing 40 is triggered by this. The plane identification process 40 is implemented by the plane identification unit 400 of the OCT-ODS apparatus 100.

平面同定処理40は、まず、カメラパラメータ71および平面方程式72を入力に基づいて平面上の特徴点の推定画像44を生成する(ステップ41)。次に、特徴点の2次元画像61と推定画像44の間の差分情報45に基づいて、カメラパラメータ71と平面方程式72を更新する(ステップ42)。最後に、カメラパラメータ71および平面方程式72の収束状態等に基づいて、平面同定処理を終了すべきか判断する。終了すべきでない場合は、ステップ41を再度実行し、終了すべき場合は校正処理50の実行を開始する。   The plane identification process 40 first generates an estimated image 44 of feature points on the plane based on the camera parameter 71 and the plane equation 72 as input (step 41). Next, the camera parameter 71 and the plane equation 72 are updated based on the difference information 45 between the two-dimensional image 61 of the feature points and the estimated image 44 (step 42). Finally, based on the camera parameters 71 and the convergence state of the plane equation 72, etc., it is determined whether or not the plane identification process should be terminated. If it should not end, step 41 is executed again. If it should end, execution of the calibration process 50 is started.

平面同定処理の詳細を図8により説明する。   Details of the plane identification process will be described with reference to FIG.

図8は、平面12を複数の位置(一番目の平面位置、・・・、k番目の平面位置、・・・)に移動させながら、その像をカメラ部237により画像平面47に投影している状態を表す。   FIG. 8 shows an image projected onto the image plane 47 by the camera unit 237 while moving the plane 12 to a plurality of positions (first plane position,..., Kth plane position,...). Represents the state of being.

各平面位置に対して、平面12上の2次元座標系のx軸方向、y軸方向をx軸、y軸とし、平面12の法線ベクトル方向をz軸とする対象座標系16を導入する。同一の特徴点46に対する3次元座標は、どの平面位置であろうと対象座標系では同じ値(すなわち、特徴点46の2次元座標をZ=0で3次元に拡張したもの)となる。対象座標系16から3次元座標系14への座標変換は、回転行列77と並進ベクトル78で記述される。したがって、平面上の特徴点群の2次元座標が全て既知ならば、特徴点が何点あろうとも、それら全ての3次元座標系14における座標は回転行列77と並進ベクトル78のみで決まる。   For each plane position, an object coordinate system 16 is introduced in which the x-axis direction and y-axis direction of the two-dimensional coordinate system on the plane 12 are the x-axis and y-axis, and the normal vector direction of the plane 12 is the z-axis. . The three-dimensional coordinates for the same feature point 46 have the same value in the target coordinate system regardless of the plane position (that is, the two-dimensional coordinates of the feature point 46 are expanded to three dimensions with Z = 0). The coordinate transformation from the target coordinate system 16 to the three-dimensional coordinate system 14 is described by a rotation matrix 77 and a translation vector 78. Therefore, if the two-dimensional coordinates of the feature points on the plane are all known, the coordinates in all the three-dimensional coordinate systems 14 are determined only by the rotation matrix 77 and the translation vector 78, regardless of the number of feature points.

カメラ部237による投影はカメラパラメータ71でモデル化される。(式5)に示すように、中心投影を表す内部パラメータ行列73、レンズ歪みを記述する歪み係数ベクトル74、前記回転行列77および前記並進ベクトル78をパラメータとし、特徴点46を画像平面47へ投影した場合の推定画像44を算出することができる。   Projection by the camera unit 237 is modeled by camera parameters 71. As shown in (Equation 5), the internal parameter matrix 73 representing the central projection, the distortion coefficient vector 74 describing the lens distortion, the rotation matrix 77 and the translation vector 78 are used as parameters, and the feature point 46 is projected onto the image plane 47. In this case, the estimated image 44 can be calculated.

Figure 2014190800
前記のステップ41(特徴点の推定画像を生成する)で(式5)による推定を実行する。(式5)の詳細は非特許文献2を参照のこと。
Figure 2014190800
In step 41 (generate an estimated image of feature points), the estimation according to (Equation 5) is executed. See Non-Patent Document 2 for details of (Formula 5).

パラメータ(カメラパラメータ71、回転行列77または並進ベクトル78)が正しくなければ、算出された推定像44は実際に観測される像61と差分45を生じる。そこで差分45のノルム2乗和をコスト関数(式6)として、この関数値を最小化するパラメータ値を非線形最適化手法により同定する。   If the parameters (camera parameter 71, rotation matrix 77, or translation vector 78) are not correct, the calculated estimated image 44 produces a difference 45 from the actually observed image 61. Accordingly, the norm sum of squares of the difference 45 is used as a cost function (Equation 6), and a parameter value that minimizes the function value is identified by a nonlinear optimization method.

Figure 2014190800
同定された回転行列77と並進ベクトル78から、(式7)により平面方程式72を求める。
Figure 2014190800
From the identified rotation matrix 77 and translation vector 78, a plane equation 72 is obtained by (Expression 7).

Figure 2014190800
このカメラパラメータと平面方程式の更新は前記のステップ42で実行する。
Figure 2014190800
The updating of the camera parameters and the plane equation is executed in step 42 described above.

図8では、特徴点の推定画像を生成するステップ41として、非特許文献2で記載されているカメラパラメータ校正方法に基づいた方法を用いたが、他にも特徴点の画像を推定する方法はあり、ここではその一例について述べたに過ぎない。   In FIG. 8, a method based on the camera parameter calibration method described in Non-Patent Document 2 is used as step 41 for generating the estimated image of the feature point. Yes, here is just an example.

図7の説明に戻る。   Returning to the description of FIG.

平面同定処理40が完了すると、校正処理50が開始される。校正処理50は、OCT−ODS装置100の校正処理部500で実装されている。   When the plane identification process 40 is completed, the calibration process 50 is started. The calibration process 50 is implemented by the calibration processing unit 500 of the OCT-ODS apparatus 100.

校正処理50は、まず、平面方程式72、計測線分式81および計測距離変換比率83に基づいて平面への距離の推定値55を生成する(ステップ51)。次に、平面への距離の計測値62と推定値55の間の差分情報56に基づいて、平面方程式72、計測線分81および計測距離変換比率83を更新する(ステップ52)。次に、平面方程式72、計測線分81および計測距離変換比率83の収束状態等に基づいて、校正処理を終了すべきか判断する(ステップ53)。終了すべきでない場合は、ステップ51を再度実行する。終了すべき場合は、平面方程式72の収束状態等に基づいて、平面同定処理を再実行すべきか判断する(ステップ54)。再実行すべき場合は平面同定処理40を再度実行する。再実行すべきでない場合は、校正処理を終了する。   The calibration process 50 first generates an estimated value 55 of the distance to the plane based on the plane equation 72, the measurement line segment formula 81, and the measurement distance conversion ratio 83 (step 51). Next, the plane equation 72, the measurement line segment 81, and the measurement distance conversion ratio 83 are updated based on the difference information 56 between the measured value 62 and the estimated value 55 of the distance to the plane (step 52). Next, it is determined whether or not the calibration process should be terminated based on the convergence state of the plane equation 72, the measurement line segment 81, and the measurement distance conversion ratio 83 (step 53). If not, the step 51 is executed again. If it should be terminated, it is determined whether or not the plane identification process should be re-executed based on the convergence state of the plane equation 72 and the like (step 54). If it should be re-executed, the plane identification process 40 is executed again. If it should not be re-executed, the calibration process is terminated.

図7ではステップ52で平面方程式72も更新し、ステップ54でその結果を平面同定処理40にフィードバックすることで平面同定処理40と校正処理50を反復実行したが、平面同定処理40で平面方程式72の精度が確保できる場合はこれらの処理を省くことができる。すなわち、校正処理50では、ステップ52で線分式82と変換比率82のみ更新し、ステップ54を削除することができる。   In FIG. 7, the plane equation 72 is also updated in step 52, and the result is fed back to the plane identification process 40 in step 54 to repeatedly execute the plane identification process 40 and the calibration process 50. These processes can be omitted if the accuracy of the above can be ensured. That is, in the calibration process 50, only the line segment formula 82 and the conversion ratio 82 are updated in step 52, and step 54 can be deleted.

校正処理50の詳細を図9により説明する。   Details of the calibration processing 50 will be described with reference to FIG.

図9は、K個の位置にある平面12への、計測線分81上での距離62を計測している状況を表す。   FIG. 9 illustrates a situation in which the distance 62 on the measurement line segment 81 to the plane 12 at K positions is being measured.

位置が平面方程式72で表された平面12への距離は、計測線分式81と平面方程式72の交点66への距離として(式8)により推定値55を算出できる。(式8)の導出は非特許文献4を参照のこと。   The distance to the plane 12 whose position is represented by the plane equation 72 can be calculated as an estimated value 55 by (Equation 8) as the distance to the intersection 66 of the measurement line segment formula 81 and the plane equation 72. See Non-Patent Document 4 for the derivation of (Equation 8).

Figure 2014190800
前記のステップ51(平面への距離の推定値55を生成する)で(式8)による推定を実行する。
Figure 2014190800
In step 51 (generating the estimated value 55 of the distance to the plane), the estimation according to (Equation 8) is executed.

パラメータ(平面方程式72、計測線分式81および計測距離変換比率83)が正しくなければ、算出された推定距離55は実際に計測される距離62と差分56を生じる。そこで差分56の2乗和をコスト関数(式9)として、この関数値を最小化するパラメータ値を非線形最適化手法により同定する。   If the parameters (the plane equation 72, the measurement line segment expression 81, and the measurement distance conversion ratio 83) are not correct, the calculated estimated distance 55 produces a difference 56 from the actually measured distance 62. Therefore, the square sum of the differences 56 is used as a cost function (Equation 9), and a parameter value that minimizes the function value is identified by a nonlinear optimization method.

Figure 2014190800
前記のステップ52(平面方程式72、計測線分81および計測距離変換比率83を更新する)で(式9)によるパラメータの更新を実行する。
Figure 2014190800
In step 52 (the plane equation 72, the measurement line segment 81, and the measurement distance conversion ratio 83 are updated), the parameter is updated according to (Equation 9).

平行な位置にある平面12への距離を計測しても、その計測線分に対する拘束は増えない。このため、(式9)でのパラメータ更新は、平面12のK個の位置が全て平行である場合は失敗する。そこで、実施の形態1では、図5に示すように平面12を校正用ヘッド236に傾いた角度で取り付け、回転によりこの傾き角度が変わるようにしてある。   Even if the distance to the plane 12 at the parallel position is measured, the constraint on the measurement line segment does not increase. For this reason, the parameter update in (Equation 9) fails when all K positions on the plane 12 are parallel. Therefore, in the first embodiment, as shown in FIG. 5, the flat surface 12 is attached to the calibration head 236 at an inclined angle, and this inclination angle is changed by rotation.

以上のように、実施の形態1においては、校正時に必要な位置情報が平面12の平面方程式72のみであるので、従来の測定点の3次元座標64に基づく校正法よりも簡略な機構で校正できる。図3に示すように、平面方程式72の同定は、平面上の1点63の座標64を同定する場合に比べて、精度が向上する。すなわち、1点1点の計測にランダム誤差65が存在する場合でも、複数の点をフィッティングすることで同定される平面方程式72では、各点のランダム誤差が相殺され誤差79が減少する。このため実施の形態1では、校正精度を低下させることなく、校正を実現するための機構が従来に比べて簡易化されている。すなわち、通常の計測処理20時にプレビュー画面描画303のために使用されるカメラ部237で、表面に特徴点46を有する平面12の2次元画像群61を撮影するのみで平面方程式72の同定が実現でき、校正のための機構を追加する必要がない。   As described above, in the first embodiment, since the positional information necessary for calibration is only the plane equation 72 of the plane 12, calibration is performed with a simpler mechanism than the conventional calibration method based on the three-dimensional coordinates 64 of the measurement point. it can. As shown in FIG. 3, the identification of the plane equation 72 is more accurate than the case where the coordinates 64 of one point 63 on the plane are identified. That is, even when there is a random error 65 in the measurement of one point, in the plane equation 72 identified by fitting a plurality of points, the random error at each point is canceled and the error 79 is reduced. For this reason, in the first embodiment, the mechanism for realizing the calibration is simplified as compared with the prior art without reducing the calibration accuracy. That is, the plane equation 72 can be identified only by photographing the two-dimensional image group 61 of the plane 12 having the feature point 46 on the surface by the camera unit 237 used for the preview screen drawing 303 during the normal measurement process 20. Yes, no additional calibration mechanism is required.

また、実施の形態1では、ユーザがプローブ230のヘッドに校正用ヘッド236を装備し、そこに平面移動部150を介して取り付けられている平面12を回す(この回転では回転角度の精度は求められない)ことで校正のための計測データ60が取得できるので、従来のようにZステージ15aのZ位置を正確に設定する必要がある方法と比べて、校正のためのユーザ操作が簡単である。   In the first embodiment, the user equips the head of the probe 230 with the calibration head 236 and rotates the plane 12 attached thereto via the plane moving unit 150 (the rotation angle accuracy is obtained in this rotation). The measurement data 60 for calibration can be acquired by this, so that the user operation for calibration is simpler than the conventional method of setting the Z position of the Z stage 15a accurately. .

(実施の形態2)
図10は、本発明の第2の実施の形態における3次元計測装置を示す。実施の形態1では平面方程式72を3次元計測装置(OCT−ODS装置100)内の平面同定部400で同定したが、実施の形態2では3次元計測装置100aの外部に設けた平面同定装置400aが同定する。平面同定装置400aとしては、校正済みの3次元計測装置に計測された3次元点群からそれにフィットする平面方程式を同定する機能を付加した装置でも、あるいは、実施の形態1のカメラ部237と平面同定部400をもつ装置でもよい。
(Embodiment 2)
FIG. 10 shows a three-dimensional measuring apparatus according to the second embodiment of the present invention. In the first embodiment, the plane equation 72 is identified by the plane identification unit 400 in the three-dimensional measurement apparatus (OCT-ODS apparatus 100). However, in the second embodiment, the plane identification apparatus 400a provided outside the three-dimensional measurement apparatus 100a. Identifies. As the plane identification device 400a, a device added with a function of identifying a plane equation that fits from a three-dimensional point group measured by a calibrated three-dimensional measurement device, or the camera unit 237 of the first embodiment and a plane An apparatus having the identification unit 400 may be used.

平面同定装置400aは平面群12(複数の平面であっても、実施の形態1と同様に1つ平面を異なる位置に移動させたものであってもよい)を観測し、対応する平面方程式群72を出力する。3次元計測装置100aは同じ平面群12について計測距離群62を計測し、これと平面同定装置400aからの平面方程式群72に基づいて校正パラメータ80を更新する。   The plane identification device 400a observes the plane group 12 (may be a plurality of planes, or one plane may be moved to a different position as in the first embodiment), and the corresponding plane equation group 72 is output. The three-dimensional measurement apparatus 100a measures the measurement distance group 62 for the same plane group 12, and updates the calibration parameter 80 based on this and the plane equation group 72 from the plane identification apparatus 400a.

図1は、3次元計測装置100aで実装されている3次元計測方法10を表している。   FIG. 1 shows a three-dimensional measurement method 10 implemented by the three-dimensional measurement apparatus 100a.

実施の形態1(図7)との差分について説明する。   Differences from the first embodiment (FIG. 7) will be described.

データ取得処理30では、実施の形態1で取得していた特徴点の2次元画像61は必要なく、平面群12に対する計測距離群62のみを取得する。   In the data acquisition process 30, the two-dimensional image 61 of the feature points acquired in the first embodiment is not necessary, and only the measurement distance group 62 with respect to the plane group 12 is acquired.

平面方程式群72は入力として外部から与えられるので、実施の形態1の平面同定処理40は不要となる。   Since the plane equation group 72 is given from the outside as an input, the plane identification process 40 of the first embodiment is not necessary.

校正処理50のステップ52bでは線分式81と変換比率82のみを更新し、実施の形態1のステップ52で更新していた平面方程式72は変更しない。これに伴い、実施の形態1のステップ54(平面同定処理を再実行すべきか判断する)は不要となる。   In step 52b of the calibration process 50, only the line segment formula 81 and the conversion ratio 82 are updated, and the plane equation 72 updated in step 52 of the first embodiment is not changed. Accordingly, step 54 of the first embodiment (determining whether the plane identification process should be re-executed) becomes unnecessary.

したがって、実施の形態2の3次元計測方法10は以下の手順である。   Therefore, the three-dimensional measurement method 10 of the second embodiment is the following procedure.

校正処理が起動されると、計測線分上での平面群への距離62を計測し(ステップ33a)、校正処理50の実行に移行する。   When the calibration process is activated, the distance 62 to the plane group on the measurement line segment is measured (step 33a), and the process proceeds to the execution of the calibration process 50.

校正処理50は、計測線分式81、計測距離変換比率82および、与えられた平面方程式72に基づいて平面への距離の推定値55を生成する(ステップ51)。次に、平面への距離の計測値62と推定値55の間の差分情報56に基づいて、計測線分81および計測距離変換比率83を更新する(ステップ52b)。最後に、計測線分81および計測距離変換比率83の収束状態等に基づいて、校正処理を終了すべきか判断する(ステップ53)。終了すべきでない場合は、ステップ51を再度実行する。終了すべき場合は校正処理を終了する。   The calibration process 50 generates an estimated value 55 of the distance to the plane based on the measurement line segment formula 81, the measurement distance conversion ratio 82, and the given plane equation 72 (step 51). Next, the measurement line segment 81 and the measurement distance conversion ratio 83 are updated based on the difference information 56 between the measured value 62 and the estimated value 55 of the distance to the plane (step 52b). Finally, based on the convergence state of the measurement line segment 81 and the measurement distance conversion ratio 83, it is determined whether the calibration process should be terminated (step 53). If not, the step 51 is executed again. If it should be terminated, the calibration process is terminated.

以上のように、実施の形態2においては、3次元計測装置100aは校正時に必要な位置情報が平面12の平面方程式72のみであるので、従来の測定点の3次元座標64に基づく校正法よりも簡略な機構で校正できる。   As described above, in the second embodiment, since the three-dimensional measurement apparatus 100a has only the plane equation 72 of the plane 12 as the positional information necessary for calibration, the conventional calibration method based on the three-dimensional coordinates 64 of the measurement points. Can be calibrated with a simple mechanism.

実施の形態2において校正時に必要となる機構は平面同定装置400aであるが、従来例ではこの代わりに点の位置を計測する3次元計測装置が必要となる。前記のように、この点座標値64が校正精度に直接影響するので、それを計測する3次元計測装置は校正対象の3次元計測装置100aよりも高い計測精度が必要となる。   In the second embodiment, the mechanism necessary for calibration is the plane identification device 400a. However, in the conventional example, a three-dimensional measurement device that measures the position of a point is required instead. As described above, since the point coordinate value 64 directly affects the calibration accuracy, the three-dimensional measurement device for measuring the point coordinate value needs higher measurement accuracy than the three-dimensional measurement device 100a to be calibrated.

これに対して、図3で説明したように位置を平面方程式72として計測する平面同定装置400aは、個々の点座標の計測精度よりも高い精度で平面を同定できるので、平面同定装置400aとして簡略な3次元計測装置を使用することが可能となる。例えば、実施の形態1で説明したカメラ部237と平面同定部400だけからなる装置でもよい。   On the other hand, the plane identification device 400a that measures the position as the plane equation 72 as described with reference to FIG. 3 can identify the plane with higher accuracy than the measurement accuracy of individual point coordinates, and thus is simplified as the plane identification device 400a. It is possible to use a three-dimensional measuring apparatus. For example, an apparatus including only the camera unit 237 and the plane identification unit 400 described in the first embodiment may be used.

本発明にかかる3次元計測方法および3次元計測装置は、校正のための機構およびユーザ操作が簡略化されるので、3次元ハンドスキャナや小型3次元計測装置などへの適用が有用である。   The three-dimensional measurement method and the three-dimensional measurement apparatus according to the present invention are useful for application to a three-dimensional hand scanner, a small three-dimensional measurement apparatus, and the like because the mechanism for calibration and the user operation are simplified.

10 3次元計測方法
10a 3次元計測方法
11 歯
12 平面
12a 撮像素子
13 3次元座標
14 3次元座標系
14a 従来技術における3次元座標系
15 平面移動部
15a Zステージ
16 対象座標系
17 測定光
18 参照光
19 干渉光
20 計測処理
21 距離計測ステップ
22 3次元座標算出ステップ
23 計測距離
30 データ取得処理
30a 従来技術におけるデータ取得処理
31 平面を移動するステップ
31a 平面をZ方向に移動するステップ
32 カメラにより平面上の特徴点の2次元画像を生成するステップ
32a 画素位置とZステージ位置より、測定点の3次元座標を同定するステップ
33 計測線分上での平面までの距離を計測するステップ
33a 計測線分上での平面群までの距離を計測するステップ
40 平面同定処理
41 平面上の特徴点の推定画像を生成するステップ
42 カメラパラメータと平面方程式を更新するステップ
43 平面同定処理を終了すべきか判断するステップ
44 推定画像
45 差分情報
46 特徴点
47 画像平面
48 可視光
50、50a 校正処理
51 計測線分上での平面への距離の推定値を算出するステップ
51a 距離変換比率を同定するステップ
52 線分式、変換比率、平面方程式を更新するステップ
52a 計測線分式を同定するステップ
52b 線分式、変換比率を更新するステップ
53 校正処理を終了すべきか判断するステップ
54 平面同定処理を再実行すべきか判断するステップ
55 推定距離
56 差分情報
60 計測データ
60a 従来技術における計測データ
61 2次元画像
62 計測距離
63 測定点
64 3次元計測座標
65 点の計測誤差
66 平面と計測線分の交点
70 平面情報
71 カメラパラメータ
72 平面方程式
73 内部パラメータ行列
74 歪み係数ベクトル
75 平面の法線ベクトル
76 原点と平面の距離
77 回転行列
78 並進ベクトル
79 平面の計測誤差
80 校正パラメータ
81 計測線分
82 距離変換比率
83 測定基準点
84 方向ベクトル
100 OCT−ODS装置
100a 3次元計測装置
110 制御部
120 制御バス
130 計測データメモリ1
131 計測データメモリ2
140 平面情報メモリ
150 校正パラメータメモリ
160 スイッチ
170 計測距離の出力スイッチ
200 距離計測部
210 波長掃引光源
220 ビームスプリッタ
230 プローブ
231 光走査部
232 Bスキャンミラー
233 Cスキャンミラー
234 レンズ
235 計測用ヘッド
236 校正用ヘッド
237 カメラ部
238 ヘッドセンサ
239 計測スイッチ
240 参照ミラー
250 干渉部
260 受光部
270 信号処理部
280 界面検出
290 基準曲面
291 Bスキャン方向
292 Cスキャン方向
300 座標計測部
301 3次元座標算出
302 点群描画
303 プレビュー画面描画
304 表示部
400 平面同定部
400a 平面同定装置
500 校正処理部
600 断層画像
DESCRIPTION OF SYMBOLS 10 3D measuring method 10a 3D measuring method 11 Tooth 12 Plane 12a Image pick-up element 13 3D coordinate 14 3D coordinate system 14a 3D coordinate system in a prior art 15 Plane moving part 15a Z stage 16 Target coordinate system 17 Measurement light 18 reference Light 19 Interference light 20 Measurement processing 21 Distance measurement step 22 Three-dimensional coordinate calculation step 23 Measurement distance 30 Data acquisition processing 30a Data acquisition processing in the prior art 31 Step of moving the plane 31a Step of moving the plane in the Z direction 32 Plane by the camera Step of generating a two-dimensional image of the upper feature point 32a Step of identifying the three-dimensional coordinates of the measurement point from the pixel position and the Z stage position 33 Step of measuring the distance to the plane on the measurement line segment 33a Measurement line segment Measuring the distance to the plane group above 40 Surface identification process 41 Step of generating an estimated image of a feature point on a plane 42 Step of updating camera parameters and plane equations 43 Step of determining whether or not to end the plane identification process 44 Estimated image 45 Difference information 46 Feature point 47 Image plane 48 Visible light 50, 50a Calibration processing 51 Step for calculating an estimated value of the distance to the plane on the measurement line segment 51a Step for identifying the distance conversion ratio 52 Step for updating the line segment formula, conversion ratio, and plane equation 52a Measurement line Step 52b for recognizing a division formula Step 53 for updating a line segment formula and conversion ratio 53 Step for judging whether calibration processing should be terminated 54 Step for judging whether plane identification processing should be re-executed 55 Estimated distance 56 Difference information 60 Measurement data 60a Conventional Measurement data in technology 61 Two-dimensional image 62 Measurement distance 63 Fixed point 64 Three-dimensional measurement coordinates 65 Measurement error 66 Intersection of plane and measurement line segment 70 Plane information 71 Camera parameter 72 Plane equation 73 Internal parameter matrix 74 Distortion coefficient vector 75 Plane normal vector 76 Origin and plane distance 77 Rotation Matrix 78 Translation vector 79 Plane measurement error 80 Calibration parameter 81 Measurement line segment 82 Distance conversion ratio 83 Measurement reference point 84 Direction vector 100 OCT-ODS device 100a Three-dimensional measurement device 110 Control unit 120 Control bus 130 Measurement data memory 1
131 Measurement data memory 2
140 Plane information memory 150 Calibration parameter memory 160 Switch 170 Measurement distance output switch 200 Distance measurement unit 210 Wavelength sweep light source 220 Beam splitter 230 Probe 231 Optical scanning unit 232 B scan mirror 233 C scan mirror 234 Lens 235 Measuring head 236 For calibration Head 237 Camera unit 238 Head sensor 239 Measurement switch 240 Reference mirror 250 Interference unit 260 Light receiving unit 270 Signal processing unit 280 Interface detection 290 Reference curved surface 291 B scan direction 292 C scan direction 300 Coordinate measurement unit 301 Three-dimensional coordinate calculation 302 Point group drawing 303 Preview Screen Drawing 304 Display Unit 400 Plane Identification Unit 400a Plane Identification Device 500 Calibration Processing Unit 600 Tomographic Image

Claims (6)

測定基準点を始点とする計測線分上で測定対象までの距離を計測するステップと、
所定の3次元座標系における前記計測線分を表す線分式と、前記3次元座標系における計測距離の変換比率を用いて、前記距離から測定対象の三次元座標を算出するステップを有する3次元計測方法であって、
位置が平面方程式として表された、複数の平面までの、前記計測線分上での第1の距離を計測する第1のステップと、
前記平面方程式、前記線分式および前記換比率を用いて、前記第1の距離に対する推定値を算出する第2のステップと、
前記第1の距離と前記推定値の差分情報に基づいて、前記線分式と前記変換比率を更新する第3のステップと、
前記線分式と前記変換比率の更新を終了すべきか判断する第4のステップを有し、
前記第4のステップで終了と判断されるまで前記第2のステップ、前記第3のステップおよび前記第4のステップを繰返す3次元計測方法。
Measuring the distance to the measurement object on the measurement line segment starting from the measurement reference point;
A step of calculating three-dimensional coordinates of a measurement target from the distance using a line segment expression representing the measurement line segment in a predetermined three-dimensional coordinate system and a conversion ratio of the measurement distance in the three-dimensional coordinate system. Measuring method,
A first step of measuring a first distance on the measurement line segment to a plurality of planes, the position of which is expressed as a plane equation;
A second step of calculating an estimate for the first distance using the plane equation, the line segment formula and the conversion ratio;
A third step of updating the line segment formula and the conversion ratio based on difference information between the first distance and the estimated value;
A fourth step of determining whether to update the line segment formula and the conversion ratio;
A three-dimensional measurement method in which the second step, the third step, and the fourth step are repeated until it is determined to end in the fourth step.
前記第1のステップは、
前記平面をその傾きを変えながら移動する第5のステップと、
カメラにより前記平面上の特徴点の2次元画像を生成する第6のステップと、
前記第1の距離を計測する第7のステップと、
前記カメラのカメラパラメータと前記平面方程式に基づいて前記2次元画像の推定画像を生成する第8のステップと、
前記2次元画像と前記推定画像の差分情報に基づいて前記カメラパラメータと前記平面方程式を更新する第9のステップと
前記カメラパラメータと前記平面方程式の更新を終了すべきか判断する第10のステップとからなり、
前記第10のステップで終了と判断されるまで前記第8のステップ、前記第9のステップおよび前記第10のステップを繰返す請求項1に記載の3次元計測方法。
The first step includes
A fifth step of moving the plane while changing its inclination;
A sixth step of generating a two-dimensional image of the feature points on the plane by a camera;
A seventh step of measuring the first distance;
An eighth step of generating an estimated image of the two-dimensional image based on the camera parameters of the camera and the plane equation;
From the ninth step of updating the camera parameter and the plane equation based on the difference information between the two-dimensional image and the estimated image, and the tenth step of determining whether the updating of the camera parameter and the plane equation should be finished. Become
The three-dimensional measurement method according to claim 1, wherein the eighth step, the ninth step, and the tenth step are repeated until it is determined in the tenth step that the process is ended.
前記第3のステップにおいて前記平面方程式も更新し、
前記第4のステップで終了と判断された場合に実行される、前記カメラパラメータと前記平面方程式を再度更新するか判断する第11のステップを有し、
前記第11のステップで更新が必要と判断された場合は、前記第8のステップ以下を再実行する請求項2に記載の3次元計測方法。
Updating the plane equation in the third step;
An eleventh step for determining whether to update the camera parameter and the plane equation again, which is executed when it is determined to end in the fourth step;
3. The three-dimensional measurement method according to claim 2, wherein when it is determined in the eleventh step that updating is necessary, the eighth step and subsequent steps are re-executed.
測定基準点を始点とする計測線分上で測定対象までの距離を計測する計測部と、
所定の3次元座標系における前記計測線分を表す線分式と、前記3次元座標系における計測距離の変換比率を用いて、前記距離から測定対象の三次元座標を算出する座標算出部を有する3次元計測装置であって、
位置が平面方程式として表された、複数の平面までの、前記計測線分上での第1の距離を計測する平面距離計測部と、
前記平面方程式、前記線分式および前記換比率を用いて、前記第1の距離に対する推定値を算出する距離推定部と、
前記第1の距離と前記推定値の差分情報に基づいて、前記線分式と前記変換比率を更新するパラメータ更新部と、
前記線分式と前記変換比率の更新を終了すべきか判断する校正終了判定部を有し、
前記校正終了判定部で終了と判断されるまで前記距離推定部、前記パラメータ更新部および前記校正終了判定部での処理を繰返す3次元計測装置。
A measurement unit that measures the distance to the measurement target on the measurement line segment starting from the measurement reference point;
Using a line segment expression representing the measurement line segment in a predetermined three-dimensional coordinate system and a conversion ratio of the measurement distance in the three-dimensional coordinate system, a coordinate calculation unit that calculates the three-dimensional coordinates of the measurement target from the distance A three-dimensional measuring device,
A plane distance measuring unit that measures a first distance on the measurement line segment to a plurality of planes, the positions of which are expressed as a plane equation;
A distance estimation unit that calculates an estimated value for the first distance using the plane equation, the line segment formula, and the conversion ratio;
A parameter updating unit that updates the line segment formula and the conversion ratio based on the difference information between the first distance and the estimated value;
A calibration end determination unit for determining whether to update the line segment formula and the conversion ratio;
A three-dimensional measurement apparatus that repeats the processing in the distance estimation unit, the parameter update unit, and the calibration end determination unit until the end of calibration is determined to be ended.
前記平面距離計測部は、
前記平面をその傾きを変えながら移動する平面移動部と、
カメラにより前記平面上の特徴点の2次元画像を生成する撮影部と、
前記第1の距離を計測する距離計測部と、
前記カメラのカメラパラメータと前記平面方程式に基づいて前記2次元画像の推定画像を生成する画像推定部と、
前記2次元画像と前記推定画像の差分情報に基づいて前記カメラパラメータと前記平面方程式を更新する平面更新部と
前記カメラパラメータと前記平面方程式の更新を終了すべきか判断する平面同定終了判定部とからなり、
前記平面同定終了判定部で終了と判断されるまで前記画像推定部、前記平面更新部および前記平面同定終了判定部での処理を繰返す請求項4に記載の3次元計測装置。
The plane distance measuring unit is
A plane moving unit that moves the plane while changing its inclination;
An imaging unit for generating a two-dimensional image of the feature points on the plane by a camera;
A distance measuring unit for measuring the first distance;
An image estimation unit that generates an estimated image of the two-dimensional image based on the camera parameters of the camera and the plane equation;
From a plane update unit that updates the camera parameter and the plane equation based on difference information between the two-dimensional image and the estimated image, and a plane identification end determination unit that determines whether to update the camera parameter and the plane equation Become
The three-dimensional measurement apparatus according to claim 4, wherein the processes in the image estimation unit, the plane update unit, and the plane identification end determination unit are repeated until it is determined as end by the plane identification end determination unit.
前記パラメータ更新部において前記平面方程式も更新し、
前記校正終了判定部で終了と判断された場合に処理が開始される、前記カメラパラメータと前記平面方程式を再度更新するか判断する平面再同定判定部を有し、
前記面再同定判定部で更新が必要と判断された場合は、前記画像推定部以下の処理部を再実行する請求項5に記載の3次元計測装置。
Update the plane equation in the parameter update unit,
A process is started when it is determined that the calibration end determination unit ends, and a plane re-identification determination unit that determines whether to update the camera parameter and the plane equation again,
The three-dimensional measurement apparatus according to claim 5, wherein when the surface re-identification determination unit determines that updating is necessary, the processing unit subsequent to the image estimation unit is re-executed.
JP2013065875A 2013-03-27 2013-03-27 Three-dimensional measuring method and three-dimensional measuring system Pending JP2014190800A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013065875A JP2014190800A (en) 2013-03-27 2013-03-27 Three-dimensional measuring method and three-dimensional measuring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013065875A JP2014190800A (en) 2013-03-27 2013-03-27 Three-dimensional measuring method and three-dimensional measuring system

Publications (1)

Publication Number Publication Date
JP2014190800A true JP2014190800A (en) 2014-10-06

Family

ID=51837192

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013065875A Pending JP2014190800A (en) 2013-03-27 2013-03-27 Three-dimensional measuring method and three-dimensional measuring system

Country Status (1)

Country Link
JP (1) JP2014190800A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017116540A (en) * 2015-12-14 2017-06-29 ハーグ−シュトライト アーゲー Calibration of interferometer
JP2020168064A (en) * 2019-04-01 2020-10-15 キヤノンメディカルシステムズ株式会社 Shape measuring device, radiation therapy system, and shape measuring method
WO2023284713A1 (en) * 2021-07-12 2023-01-19 先临三维科技股份有限公司 Three-dimensional dynamic tracking method and apparatus, electronic device and storage medium

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017116540A (en) * 2015-12-14 2017-06-29 ハーグ−シュトライト アーゲー Calibration of interferometer
US11009337B2 (en) 2015-12-14 2021-05-18 Haag-Streit Ag Calibration of an interferometer
JP2020168064A (en) * 2019-04-01 2020-10-15 キヤノンメディカルシステムズ株式会社 Shape measuring device, radiation therapy system, and shape measuring method
JP7301581B2 (en) 2019-04-01 2023-07-03 キヤノンメディカルシステムズ株式会社 Shape measuring device, radiotherapy system and shape measuring method
WO2023284713A1 (en) * 2021-07-12 2023-01-19 先临三维科技股份有限公司 Three-dimensional dynamic tracking method and apparatus, electronic device and storage medium

Similar Documents

Publication Publication Date Title
JP6291562B2 (en) Diagnose and eliminate multipath interference in 3D scanners with directed probing
KR101948852B1 (en) Hybrid image scanning method and apparatus for noncontact crack evaluation
JP6355710B2 (en) Non-contact optical three-dimensional measuring device
US20190191141A1 (en) Motion blur compensation
CN105318845A (en) Method for measuring high accuracy height map of test surface
US20160103443A1 (en) Method for programming a three-dimensional workpiece scan path for a metrology system
JP2013504752A (en) Non-contact object inspection
JPH10311711A (en) Optical profile sensor
JP2013068617A (en) Machine vision inspection system and method for determining position measurement result of the system
JP2008292296A (en) Method for measuring film thickness of transparency film and its apparatus
JP2011139734A (en) Endoscope apparatus
TW201538925A (en) Non-contact measurement device and method for object space information and the method thereof for computing the path from capturing the image
Wang et al. Modelling and calibration of the laser beam-scanning triangulation measurement system
TWI388797B (en) Three - dimensional model reconstruction method and its system
JP2018179918A (en) Shape measurement system, and shape measurement method
WO2018168757A1 (en) Image processing device, system, image processing method, article manufacturing method, and program
JP2014190800A (en) Three-dimensional measuring method and three-dimensional measuring system
JP2016109671A (en) Three-dimensional measuring apparatus and control method therefor
JP6921036B2 (en) A laser calibrator, a method for calibrating the laser, and an image input device including the laser calibrator.
JP7377221B2 (en) Alignment method for beam orientation unit of interferometric measurement device and measurement device for performing interferometric measurement using laser irradiation
JP2000205821A (en) Instrument and method for three-dimensional shape measurement
JP2008286630A (en) Refractive index measuring method of transparent film, device therefor, film thickness measuring method of transparent film and device therefor
JP2016001131A (en) Measurement device
JP6792025B2 (en) OCT system, OCT video generation method and storage medium
Al-Durgham et al. Bundle adjustment-based stability analysis method with a case study of a dual fluoroscopy imaging system

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20141211