JP2002521699A - Calibration method and device for non-contact distance sensor - Google Patents

Calibration method and device for non-contact distance sensor

Info

Publication number
JP2002521699A
JP2002521699A JP2000562864A JP2000562864A JP2002521699A JP 2002521699 A JP2002521699 A JP 2002521699A JP 2000562864 A JP2000562864 A JP 2000562864A JP 2000562864 A JP2000562864 A JP 2000562864A JP 2002521699 A JP2002521699 A JP 2002521699A
Authority
JP
Japan
Prior art keywords
deviation
data
random noise
image
calculating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000562864A
Other languages
Japanese (ja)
Inventor
ヌグイェン,バン−ドゥク
ヌゾミグニ,ビクター
スチュアート,チャールズ・バーノン
バブナ,キッシャー
アブデスメッド,リラ
ポアリエ,ナタリー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US09/360,032 external-priority patent/US6411915B1/en
Application filed by General Electric Co filed Critical General Electric Co
Publication of JP2002521699A publication Critical patent/JP2002521699A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/35Determination of transform parameters for the alignment of images, i.e. image registration using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

(57)【要約】 非接触型距離センサーを校正する方法は、距離センサーを使用して検査対象物体の距離画像を得る工程を備える。距離画像は物体の基準データと共に登録される。これによって登録データが得られる。基準画像をコンピュータ支援描画(CAD)データから得ることができる。登録データと基準データ間の法線偏差が計算される。ノイズは法線偏差から除去される。センサーのための一般補正因子を備えるルックアップテーブルとしてのメモリに格納されている法線偏差に基づいて、複数のバイアスベクトルと共分散行列が推定される。次にセンサーによって得られる物体画像がルックアップテーブルに基づいて補正される。 (57) [Summary] A method of calibrating a non-contact type distance sensor includes a step of obtaining a distance image of an inspection object using a distance sensor. The distance image is registered together with the reference data of the object. Thereby, registration data is obtained. A reference image can be obtained from computer-aided drawing (CAD) data. A normal deviation between the registered data and the reference data is calculated. Noise is removed from the normal deviation. A plurality of bias vectors and a covariance matrix are estimated based on normal deviations stored in a memory as a look-up table with general correction factors for the sensor. Next, the object image obtained by the sensor is corrected based on the look-up table.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

関連出願の引照 本出願は、援用文献である1998年7月28日出願の“演繹的モデルと濃度
データを用いた精密かつ正確な表面の再構成”という題名の仮出願60/094
,444と、1998年7月28日出願の“翼あるいは一般化円筒の形状変形探
索”という題名の仮出願60/094442の優先権を主張するものである。
REFERENCE TO RELATED APPLICATIONS This application is a provisional application 60/094, entitled "Precise and Accurate Surface Reconstruction Using Deductive Models and Concentration Data," filed Jul. 28, 1998, which is incorporated by reference.
, 444 and provisional application 60/094442, entitled "Searching for Shape Deformation of Wings or Generalized Cylinders," filed July 28, 1998.

【0001】 発明の背景 本発明は、デジタル画像処理技術一般に関するものであり、特に、物体欠陥の
検査を行う目的で、その物体のデジタル画像を得るために使われる非接触型距離
センサの校正方法と装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates generally to digital image processing technology, and more particularly to a method for calibrating a non-contact distance sensor used to obtain a digital image of an object for the purpose of inspecting an object for defects. And equipment.

【0002】 現在、翼等(例えば、タービン羽根)の製造物体の欠陥を検出するために、そ
の物体のデジタルデータと画像を使って自動検査がなされている。飛行機のエン
ジンに使われるような鋳造羽根をもつ翼は、プラットフォームの向き、外形断面
、積み重ね軸の湾曲とよじれ、所定の断面での厚さと翼弦長等の変形パラメータ
について検査される。これらのパラメータを表すデジタルデータを求める方法の
1つは、座標測定器(“CMM”=coordinate measurement machinesとして一般
に知られている)を使うことである。CMMでは、物体表面のサンプル点に対し
て物体表面に接触するプローブを平行移動・回転させる。
Currently, in order to detect a defect in a manufactured object such as a blade (for example, a turbine blade), an automatic inspection is performed using digital data and an image of the object. Wings with cast vanes, such as those used in aircraft engines, are inspected for deformation parameters such as platform orientation, profile cross-section, stacking axis curvature, thickness and chord length at a given cross-section. One way to determine digital data representing these parameters is to use a coordinate measuring instrument (commonly known as "CMM" = coordinate measurement machines). In the CMM, a probe in contact with the object surface is translated / rotated with respect to a sample point on the object surface.

【0003】 これらのパラメータのデジタル表記を求める別の手段としては、全面非接触型
距離センサーを用いる方法がある。非接触全面センサーは、レーザあるいは白色
光を用いて不透明物体の外部表面をスキャンする。これらのセンサーは、その一
部をすばやくスキャンして大量のデータを得ることができる。非接触型センサー
の例として、レーザ線回折格子とステレオ三角測量に基づき、また、単レーザ線
スキャンとその一部の回転に基づくセンサーがある。他の非接触型センサーは、
位相モアレと白色光に基づくものである。
As another means for obtaining a digital notation of these parameters, there is a method using a non-contact type distance sensor. A non-contact full-surface sensor scans the outer surface of an opaque object using a laser or white light. These sensors can scan parts of them quickly to obtain large amounts of data. Examples of non-contact sensors include sensors based on laser diffraction gratings and stereo triangulation, and based on a single laser scan and rotation of a portion thereof. Other non-contact sensors are:
It is based on phase moiré and white light.

【0004】 しかし、非接触型センサーによって得られた生データ点は非常に不正確である
。そのために、物体の変形・欠陥を検出する目的で、その生データをこの物体の
表面の再構成に使うと、許容できない低い精度/正確度の原因となるような、ノ
イズの多い法線偏差(normal deviations)を生成してしまう。全フィールド型の
センサーは比較的新しいものであるので、精度を改善するためにそれを校正しあ
るいはその特性を見つけるという労力はほとんど不要であるが、その手間の大部
分は徒労に終わる。
[0004] However, raw data points obtained by non-contact sensors are very inaccurate. Therefore, if the raw data is used to reconstruct the surface of this object for the purpose of detecting the deformation or defect of the object, the noisy normal deviation ( normal deviations). Since all-field sensors are relatively new, little effort is needed to calibrate them or find their properties to improve accuracy, but much of the effort is wasted.

【0005】 本発明の概要 本発明の好適な実施形態の非接触型距離センサーの校正方法は、距離センサー
を用いて検査対象物体をスキャンして、物体の距離画像を求める工程を備える。
この距離画像を、その物体の基準画像に関係付けて登録し、かくして、登録デー
タが得られる。そして、登録データと基準画像間の法線の偏差を計算する。ノイ
ズをその法線偏差から取り除く。複数のバイアスベクトルと共分散行列を推定し
て、幾何学的補正因子を備えるルックアップテーブルを生成するために利用する
。物体の距離画像をこのルックアップテーブルに基づいて補正する。
SUMMARY OF THE INVENTION [0005] A calibration method for a non-contact distance sensor according to a preferred embodiment of the present invention includes a step of scanning an object to be inspected using a distance sensor to obtain a distance image of the object.
This distance image is registered in association with the reference image of the object, and thus registered data is obtained. Then, the normal deviation between the registered data and the reference image is calculated. Remove noise from its normal deviation. A plurality of bias vectors and a covariance matrix are estimated and used to generate a look-up table with geometric correction factors. The distance image of the object is corrected based on the look-up table.

【0006】 実施形態の詳細な説明 本明細書では、センサーの校正とは、センサーによって得られた測定値に含ま
れるバイアス誤差(bias error)を同定することで、その後に得られる値の誤差の
補正を可能にする処理として定義される。
DETAILED DESCRIPTION OF EMBODIMENTS In the present specification, calibration of a sensor refers to identifying a bias error included in a measurement value obtained by the sensor, and correcting an error of a value obtained thereafter. It is defined as a process that enables correction.

【0007】 一般に、本発明の方法では、センサーは以下の連続工程で校正される。センサ
ーを用いて、検査対象物体の距離画像(range image)を求める。センサーは物体
をスキャンするが、その際、その作業空間に対応して物体を平行移動・回転させ
る。この結果として、距離データ点(range data points)が得られる。これらの
データ点をデータ集合形式で並べる、本実施形態では、このデータ集合をスキャ
ン画像と呼ぶことにする。また、スキャン画像のデータ集合は1つ以上の基準デ
ータの集合に対応付けられて登録される。基準データは、物体の幾何学的理想モ
デルを構成し、本実施形態では基準画像と呼ぶことにする。スキャン画像と基準
画像は共に同じ座標系で表現されるように関連づけられて登録される。次に、ス
キャン画像の登録画像に対する法線偏差を計算する。精度を記述するランダムノ
イズと正確さを記述する偏り誤差(=bias error、以下「バイアス誤差」とする
)とが前記法線偏差から推定され、ルックアップテーブルに格納される。このル
ックアップテーブルは、センサーによって得られた複数の画像の、3次元幾何学
的補正と多視野的統合化のために用いられる。
Generally, in the method of the present invention, the sensor is calibrated in the following successive steps. Using the sensor, a range image of the object to be inspected is obtained. The sensor scans the object, and at that time, translates and rotates the object according to the work space. This results in range data points. In the present embodiment, these data points are arranged in a data set format, and this data set is called a scanned image. The data set of the scanned image is registered in association with one or more sets of reference data. The reference data forms a geometric ideal model of the object, and is referred to as a reference image in the present embodiment. The scan image and the reference image are registered in association with each other so as to be expressed in the same coordinate system. Next, a normal deviation of the scan image from the registered image is calculated. A random noise describing the accuracy and a bias error (= bias error, hereinafter referred to as “bias error”) describing the accuracy are estimated from the normal deviation and stored in a look-up table. This lookup table is used for three-dimensional geometric correction and multi-view integration of a plurality of images obtained by the sensor.

【0008】 本発明に係る方法の実施形態の1つが図1に示されている。方法40の工程4
2では、移動台上の物体を平行移動させ、また、回転台上の物体を物体の3次元
作業空間に係る複数の方向について回転させることによって、検査対象物体のス
キャン画像を得る。この工程は、代表的なスキャンシステムとデジタル画像シス
テムおよびその技術を利用することで遂行される。
One embodiment of the method according to the invention is shown in FIG. Step 4 of method 40
In 2, a scanned image of the inspection target object is obtained by moving the object on the moving table in parallel and rotating the object on the rotating table in a plurality of directions related to the three-dimensional working space of the object. This process is accomplished using typical scanning and digital imaging systems and techniques.

【0009】 工程44では、理想形状の物体に対応するデータ点を有する基準画像と、実際
の物体の上記スキャン画像とを登録する。基準画像と共にスキャン画像を登録す
る際に必要なその基準画像を得る1つの方法は、平らな物体を磨いて平坦にする
ことである。他には、CMM等のより正確なセンサーを用いて当該物体を測定し
、その測定結果を基準データとして格納する方法がある。また他には、コンピュ
ータ支援による描画(CAD)データやその他の工学技術あるいは設計仕様を利
用して基準画像を得る方法もがある。
In step 44, a reference image having data points corresponding to an object having an ideal shape and the scanned image of an actual object are registered. One way to obtain the reference image required when registering the scanned image with the reference image is to polish and flatten a flat object. Another method is to measure the object using a more accurate sensor such as a CMM and store the measurement result as reference data. Another method is to obtain a reference image using computer-aided drawing (CAD) data or other engineering techniques or design specifications.

【0010】 図4に示されているように、本発明の実施形態の1つでは、ロバスト-クロー
ゼスト-パッチ(RCP)アルゴリズムが登録処理に用いられる。RCPアルゴ
リズムは、1999年4月30日に出願され、本発明の譲受人に譲渡され、また
、本件の援用文献である“画像登録方法と装置”という題名の共に継続中の出願
(S.N. 09/303,241)の主題である。RCPアルゴリズムでは、初期剛体姿勢(init
ial rigid pose)が与えられると、各スキャン画像データ点は、図4の工程62
と工程64で示されるように、基準画像上の近傍データ点との一致がとられる。
言いかえれば、RCPアルゴリズムでは、基準画像データ点とスキャン画像デー
タとの一致が現時点の姿勢推定に基づいて判定され、この一致判定に基づいて姿
勢推定の質を高める。
As shown in FIG. 4, in one embodiment of the present invention, a robust-closest-patch (RCP) algorithm is used for the registration process. The RCP algorithm was filed on April 30, 1999, is assigned to the assignee of the present invention, and is a co-pending application entitled "Image Registration Method and Apparatus," which is incorporated herein by reference.
(SN 09 / 303,241). In the RCP algorithm, the initial rigid body posture (init
Given a rial rigid pose), each scanned image data point is represented by step 62 in FIG.
As shown in step 64, a match is made with neighboring data points on the reference image.
In other words, in the RCP algorithm, a match between the reference image data point and the scan image data is determined based on the current posture estimation, and the quality of the posture estimation is enhanced based on the matching judgment.

【0011】 本発明の実施形態の1つにおいては、6パラメータに表された線形システムの
特異値分解(SVD=singular value decomposition)によって姿勢問題を解い
ている。本発明の実施形態の1つでは、四元数((quaternions)や正規直交行列を
使うよりも寧ろ、ロドリーグ(Rodrigues)の公式を利用した回転制約の線形対称
式が用いられる。これは、姿勢問題を解くための簡単化された方法である。本発
明の実施形態の1つでは、代表的なM推定量を利用して剛体姿勢パラメータと誤
差の標準偏差とを推定し、データに含まれる大きな誤差に対するロバスト性を確
保する。
In one embodiment of the present invention, the pose problem is solved by singular value decomposition (SVD) of a linear system represented by six parameters. In one embodiment of the invention, rather than using quaternions or orthonormal matrices, a linearly symmetric equation of the rotation constraint using the Rodrigues formula is used, which is the pose In one embodiment of the invention, a rigid M pose estimator is used to estimate rigid body pose parameters and the standard deviation of the error, which are included in the data. Ensure robustness against large errors.

【0012】 一致判定結果を最適に揃えるための3次元剛体変換が工程66で求められ、図
4の工程68に適用される。上述の工程は、最新に得られた推定姿勢を用いて、
収束が得られるまで繰り返される。図1の登録工程44は、基準画像をスキャン
画像の座標で表現するために必要な平行移動の方向と回転軸とを得る問題を解く
ものである。
A three-dimensional rigid transformation for optimally aligning the match determination results is determined in step 66 and applied to step 68 in FIG. The above process uses the most recently obtained estimated attitude,
Repeat until convergence is obtained. The registration step 44 in FIG. 1 solves the problem of obtaining the direction of translation and the axis of rotation necessary to represent the reference image by the coordinates of the scanned image.

【0013】 図1の工程46では、登録画像データ点の法線に対するスキャン画像データ点
の法線の偏差を得るものである。本発明に係る実施形態の1つでは、モデルデー
タ点(パッチと呼ばれる)とデータ表面点との近似の法線距離を利用することで
、ノイズを含むデータから、局所的な平面の法線と曲率とを推定する必要性を回
避している。工程46を実行するために、本発明に係る実施形態の1つでは、生
の誤差を計算する。この生の誤差とは、与えられた方向Dkに対する、点[qij](
以下、本翻訳文の文章中では、便宜上、ベクトルxを[x]で表し、式中ではxに上
矢印を付して表す)での法線[nk]に沿った生誤差eijは、
In step 46 of FIG. 1, the deviation of the normal of the scanned image data point from the normal of the registered image data point is obtained. In one embodiment according to the present invention, by using an approximate normal distance between a model data point (referred to as a patch) and a data surface point, a local normal of a plane is obtained from noise-containing data. It avoids the need to estimate curvature. To perform step 46, one embodiment of the present invention calculates the raw error. And the raw error, relative to the direction D k given point [q ij] (
Hereinafter, the sentence of the translation, for convenience, represents the vector x in [x], the raw error e ij along the normal [n k] in represents denoted by the up arrow) to x in the formula is ,

【0014】[0014]

【数1】 (Equation 1)

【0015】 の関係を満たす。The following relationship is satisfied.

【0016】 ランダムノイズが、上記法線に関わる偏差から、ガウシアンフィルタあるいは
平均フィルタによって取り除かれる。本発明の平均フィルタを用いる実施形態で
は、各点でのバイアスベクトル[bij]の射影bijkは、
[0016] Random noise is removed from the deviation related to the normal by a Gaussian filter or an average filter. In the embodiment using the averaging filter of the present invention, the projection bijk of the bias vector [ bij ] at each point is

【0017】[0017]

【数2】 (Equation 2)

【0018】 によって決定され、ここで、上記射影bijkは、Where the projection b ijk is

【0019】[0019]

【数3】 (Equation 3)

【0020】 という平均フィルタを用いた場合のものである。ここで、Miは、当該データ点
を囲む小さな領域である。
This is a case where an average filter is used. Here, M i is the small area surrounding the data points.

【0021】 上式(3)で記述される平均フィルタは、工程50で示されるように、各デー
タ点でのバイアスベクトル[bij]の射影bijkを求めるために使われる。
The averaging filter described by equation (3) above is used to determine the projection bijk of the bias vector [ bij ] at each data point, as shown in step 50.

【0022】 図2は、バイアスベクトルを推定する工程50の一部を示す。即ち、バイアス
ベクトル56が、z軸に沿って、センサーに最も近い面59から同センサーから
最も遠い面に至るところの、一連の面58について、夫々定められる。3次元幾
何学的補正テーブルが、物体の3次元空間中に規則正しい(均等な)間隔で設け
られた複数の格子点pでのバイアスベクトルの射影を求めることによって、形成
される。これを行うために、各点qijでのバイアスベクトルの射影が、標本化(d
own-sampled)され、補間される。本発明の実施形態の1つでは、バイアスベクト
ルの射影を補間するためにガウシアン補間が使われる。
FIG. 2 shows a portion of the step 50 of estimating the bias vector. That is, a bias vector 56 is defined for each of a series of surfaces 58 along the z-axis from a surface 59 closest to the sensor to a surface farthest from the sensor. A three-dimensional geometric correction table is formed by obtaining projections of bias vectors at a plurality of lattice points p provided at regular (equal) intervals in the three-dimensional space of the object. To do this, the projection of the bias vector at each point q ij is sampled (d
own-sampled) and interpolated. In one embodiment of the present invention, Gaussian interpolation is used to interpolate the projection of the bias vector.

【0023】 図1に戻って、工程50では、バイアスベクトルを、バイアスベクトルの複数
の法線に沿った射影に基づいて、表面の位置(location)と配向(orientation)の
関数として推定する。尚、これらの射影の全ては、同じ格子点に由来するもので
ある。上述の複数の工程は、各方向Dkについて、各格子点pでの面の法線[nk]
とバイアスベクトル[bpk]の射影とを与える。
Returning to FIG. 1, in step 50, the bias vector is estimated as a function of the location and orientation of the surface based on projections of the bias vector along multiple normals. Note that all of these projections come from the same grid point. The plurality of steps described above include, for each direction D k , the normal [n k ] of the plane at each grid point p
And the projection of the bias vector [b pk ].

【0024】 本発明の実施形態の1つでは、検査対象物体の3次元作業空間(working volum
e)中の各格子点pに関する以下に示す関係式システムが解かれることになる。
In one embodiment of the present invention, a three-dimensional working volume (working volume)
The following relational expression system for each lattice point p in e) will be solved.

【0025】[0025]

【数4】 (Equation 4)

【0026】 ここで、Nは、複数の法線ベクトルからなるkx3の大きさの行列であって、Here, N is a matrix having a size of k × 3 composed of a plurality of normal vectors,

【0027】[0027]

【数5】 (Equation 5)

【0028】 で表され、また、[bp]はこの格子点でのバイアスベクトルであり、さらに、[v p ]は、And [bp] Is the bias vector at this grid point, and [v p ]

【0029】[0029]

【数6】 (Equation 6)

【0030】 というように、グリッド点pからの複数のバイアス射影からなるkx1のベクト
ルである。
Thus, it is a k × 1 vector composed of a plurality of bias projections from the grid point p.

【0031】 本発明の実施形態の1つでは、行列Nの階数が3の場合、上述の関係式システ
ムは、代表的な特異値分解(SVD)アルゴリズムを適用することによって解か
れる。その結果、平滑な場のバイアスベクトルが得られる。
In one embodiment of the invention, if the rank of the matrix N is 3, the above relational system is solved by applying a representative singular value decomposition (SVD) algorithm. As a result, a smooth field bias vector is obtained.

【0032】 図3は3次元格子のバイアスベクトル成分である、X,Y,Zの3成分を示す
FIG. 3 shows three components of X, Y, and Z, which are bias vector components of a three-dimensional lattice.

【0033】 図1の工程52では、共分散行列を推定する。この共分散行列は、ランダムノ
イズをモデル化し、距離センサーの精度を与えるもので、上述のバイアスに対し
て補正されたデータ点に基づくものである。共分散行列の主固有値と固有ベクト
ルを求め、解析することで、上記ノイズモデルを簡単化することができる。これ
を遂行するために、格子点pでの法線方向[nk]の分散は、
In step 52 of FIG. 1, a covariance matrix is estimated. This covariance matrix models the random noise and gives the accuracy of the distance sensor, and is based on the data points corrected for the bias described above. The noise model can be simplified by obtaining and analyzing main eigenvalues and eigenvectors of the covariance matrix. To accomplish this, the variance in the normal direction [ nk ] at grid point p is

【0034】[0034]

【数7】 (Equation 7)

【0035】 の関係式によって求められる。ここで、ejkは点jで計算された誤差であり、Mp k は格子点pを囲む小領域に亘って取られた点の数である。Is obtained by the following relational expression. Here, e jk is the error calculated in the point j, M p k is the number of points taken over a small area surrounding the lattice point p.

【0036】 本発明に係る実施形態の1つでは、点pでのs2 pkと共分散行列Spとの間の関
係は、
[0036] In one embodiment of the present invention, the relationship between the s 2 pk and covariance matrix S p at point p is

【0037】[0037]

【数8】 (Equation 8)

【0038】 で記述される。ここで、Is described by here,

【0039】[0039]

【数9】 (Equation 9)

【0040】 である。Is as follows.

【0041】 また、[nk]=(nkz,nky,nkx)として、ベクトル[n'k]を、Further, assuming that [n k ] = (n kz , n ky , n kx ), the vector [n ′ k ]

【0042】[0042]

【数10】 (Equation 10)

【0043】 とし、また、[sp]を、And [s p ] is

【0044】[0044]

【数11】 [Equation 11]

【0045】 とすると、共分散行列Spの6つの係数を推定する技術の1つを説明するために
、ベクトル[n'k]を用いて式3を以下のように書きなおすことができる。
Then, in order to explain one of the techniques for estimating the six coefficients of the covariance matrix Sp , Equation 3 can be rewritten as follows using the vector [n ′ k ].

【0046】[0046]

【数12】 (Equation 12)

【0047】 そして、共分散行列Spの各要素項を含むspは、以下のkx6の行列を形成する
ことによって推定することができる。
[0047] Then, s p that contains each element section of the covariance matrix S p can be estimated by forming the following matrix Kx6.

【0048】[0048]

【数13】 (Equation 13)

【0049】 なぜなら、そのkx1のベクトルを、Because the kx1 vector is

【0050】[0050]

【数14】 [Equation 14]

【0051】 とすると、sに係る制約は、Then, the constraint on s is:

【0052】[0052]

【数15】 (Equation 15)

【0053】 により得られる。Is obtained by

【0054】 本発明に係る実施形態の1つでは、上記の式を代表的な最小2乗法によって解
く。本発明の他の実施形態では、[tp]の階数が少なくとも6である限り、SV
Dあるいは擬似逆関数による方法を用いる。
In one embodiment according to the present invention, the above equation is solved by a representative least squares method. In another embodiment of the present invention, as long as the rank of [t p ] is at least 6, the SV
A method using D or a pseudo inverse function is used.

【0055】 工程54では、本発明に係る処理によってなされた校正を、物体の既知の特徴
に関する独立データ源を用いて検証する。例えば、角状の人工物を使って、セン
サー校正の検証を独立に行うことができる。また、異なる半径の複数の球状人工
物を使って、3次元幾何学的補正に係る曲率とセンサーのノイズモデルによる効
果を明らかにすることができる。
In step 54, the calibration made by the process according to the present invention is verified using an independent data source for known features of the object. For example, horny artifacts can be used to independently verify sensor calibration. Further, using a plurality of spherical artifacts having different radii, it is possible to clarify the effects of the curvature and the noise model of the sensor according to three-dimensional geometric correction.

【0056】 本技術の当業者であれば、センサーの動作寿命を延ばすために方法40を利用
してオンサイトで校正の検査と再校正処理を実行できることを正しく理解できる
であろう。本発明に係る実施形態の1つでは、校正の検査は少なくとも8時間間
隔で、また、再校正処理は少なくとも毎週実行される。本発明は、コンピュータ
による処理とその処理を実行する装置によって実現できる。本発明はまた、フロ
ッピィディスク、CD−ROM、ハードドライブ、あるいは他のコンピュータ読
み取り可能な記録媒体等の有形媒体で具現されるコンピュータプログラムコード
を含むインストラクションによって実現できる。ここで、コンピュータプログラ
ムコードがコンピュータにロードされ、実行される時、コンピュータは本発明を
実施する装置となる。また、本発明は、例えば記録媒体に格納され、コンピュー
タにロードされて実行されるかあるいは、電気配線、より合わせケーブル、光フ
ァイバ、電磁気放射等による伝送媒体を介して転送されたコンピュータプログラ
ムコードによって具現することができる。ここで、コンピュータプログラムコー
ドがコンピュータにロードされ実行されるとき、コンピュータは本発明を実行す
る装置となる。汎用マイクロプロセッサで実行する場合は、コンピュータプログ
ラムコードセグメントが、特定の論理回路を生成するマイクロプロセッサを構成
する。
Those skilled in the art will appreciate that method 40 can be used to perform a calibration check and recalibration process on-site to extend the operating life of the sensor. In one embodiment according to the present invention, the calibration check is performed at least every 8 hours, and the re-calibration process is performed at least weekly. The present invention can be realized by a computer process and a device that executes the process. The invention can also be implemented by instructions including computer program code embodied in a tangible medium, such as a floppy disk, CD-ROM, hard drive, or other computer-readable recording medium. Here, when the computer program code is loaded and executed on the computer, the computer becomes an apparatus for implementing the present invention. Also, the present invention may be implemented, for example, by a computer program code stored in a recording medium, loaded and executed on a computer, or transferred via a transmission medium such as electric wiring, twisted cable, optical fiber, electromagnetic radiation, or the like. Can be embodied. Here, when the computer program code is loaded and executed on the computer, the computer becomes an apparatus for executing the present invention. When executed on a general-purpose microprocessor, the computer program code segments constitute a microprocessor that creates specific logic circuits.

【0057】 好適な実施形態を示して説明してきたが、それに対する多様な変形あるいは代
替を、本発明の主旨と請求範囲内で行うことが可能である。従って、本発明を実
例をもって説明してきたが、これで限定されるものではないことを理解すべきで
ある。
Although the preferred embodiment has been shown and described, various modifications or substitutions may be made within the spirit and scope of the invention. Thus, while the invention has been described by way of example, it should be understood that it is not so limited.

【図面の簡単な説明】[Brief description of the drawings]

ここで、図面を参照する。尚、複数の図面に渡って、同様の要素には同様の番
号を付けている。
Here, reference is made to the drawings. Note that the same elements are denoted by the same reference numerals throughout the drawings.

【図1】 本発明に係る全面非接触型距離センサーの校正方法のフローチャー
トである。
FIG. 1 is a flowchart of a method of calibrating a non-contact type distance sensor according to the present invention.

【図2】 Z軸に沿って位置するバイアスベクトルの複数の投影像の透視図で
ある。
FIG. 2 is a perspective view of a plurality of projected images of a bias vector located along a Z axis.

【図3】 図2のバイアスベクトルのx、y、z成分の遠近画である。FIG. 3 is a perspective view of the x, y, and z components of the bias vector of FIG. 2;

【図4】 物体の距離画像を物体の基準画像と共に登録する方法に係るフロー
チャートである。
FIG. 4 is a flowchart according to a method of registering a distance image of an object together with a reference image of the object.

───────────────────────────────────────────────────── フロントページの続き (81)指定国 EP(AT,BE,CH,CY, DE,DK,ES,FI,FR,GB,GR,IE,I T,LU,MC,NL,PT,SE),JP (72)発明者 スチュアート,チャールズ・バーノン アメリカ合衆国、ニューヨーク州、12065、 クリフトン・パーク、ジェイソン・レー ン、4 (72)発明者 バブナ,キッシャー アメリカ合衆国、ニューヨーク州、12180、 トロイ、11ティーエイチ・ストリート、79 (72)発明者 アブデスメッド,リラ アメリカ合衆国、ニューヨーク州、12309、 スケネクタデイ、ローザ・ロード、2150 (72)発明者 ポアリエ,ナタリー フランス、ルエイ、エフ−92500、アベニ ュー・デ・ブゼニュアル、53 Fターム(参考) 2F065 AA06 BB05 FF04 JJ02 JJ25 KK01 MM02 PP12 QQ31 RR08 5B057 AA01 BA02 CA13 CA16 CB13 CB16 CE02 CE05 CH07 CH08 CH09 DA07 DB03 DC33 ──────────────────────────────────────────────────続 き Continuation of front page (81) Designated country EP (AT, BE, CH, CY, DE, DK, ES, FI, FR, GB, GR, IE, IT, LU, MC, NL, PT, SE (72) Inventor Stuart, Charles Vernon United States, New York, 12065, Clifton Park, Jason Lane, 4 (72) Inventor Babuna, Kisher United States, New York, 12180, Troy, 11T Street, 79 (72) Inventor Abdesmed, Rila, United States, New York, 12309, Schenectady, Rosa Road, 2150 Yuaru, 53 F-term (reference) 2F065 AA06 BB05 FF04 JJ02 JJ25 KK01 MM02 PP12 QQ31 RR08 5B057 AA01 BA02 CA13 CA16 CB13 CB16 CE02 CE05 CH07 CH08 CH09 DA07 DB03 DC33

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 センサーを用いて検査対象物体のスキャン画像を獲得する工程
と、 ために、前記物体のスキャン画像を前記物体の基準画像と共に登録して、登録
データを得る工程と、 前記登録データと前記基準データ間の偏差を計算する工程と、 前記偏差に基づいてランダムノイズとバイアス誤差とを推定する工程と、 推定された前記ランダムノイズとバイアス誤差に応じて前記物体のスキャン画
像を補正する工程とを備えることを特徴とする非接触型距離センサーの校正方法
Acquiring a scan image of an object to be inspected using a sensor; registering the scan image of the object with a reference image of the object to obtain registration data; Calculating a deviation between the reference data and the reference data; estimating a random noise and a bias error based on the deviation; and correcting a scan image of the object according to the estimated random noise and the bias error. And a step of calibrating the non-contact type distance sensor.
【請求項2】 前記ランダムノイズとバイアス誤差の推定値をメモリに格納す
る工程を含むことを特徴とする請求項1に記載の方法。
2. The method of claim 1 including storing the random noise and bias error estimates in a memory.
【請求項3】 ランダムノイズとバイアス誤差を推定する前記工程は、バイア
スベクトルを推定する工程と、前記偏差に基づいて共分散行列を推定する工程と
を備えることを特徴とする請求項1に記載の方法。
3. The method of claim 1, wherein estimating random noise and bias error comprises estimating a bias vector and estimating a covariance matrix based on the deviation. the method of.
【請求項4】 前記基準画像は、前記物体に関するコンピュータ支援描画デー
タを有することを特徴とする請求項1に記載の方法。
4. The method of claim 1, wherein the reference image comprises computer-aided drawing data for the object.
【請求項5】 前記登録工程は、ロバスト-クローゼスト-パッチマッチング(
RCP)法によって遂行されることを特徴とする請求項1に記載の方法。
5. The method according to claim 1, wherein the registration step includes a robust-closest-patch matching (
The method according to claim 1, wherein the method is performed by an RCP method.
【請求項6】 偏差を計算する前記工程は、表面の法線に沿って前記偏差を計
算することによって遂行されることを特徴とする請求項1に記載の方法。
6. The method of claim 1, wherein calculating the deviation is performed by calculating the deviation along a surface normal.
【請求項7】 ランダムノイズを推定する前記工程は、ガウシアン平滑処理を
法線の偏差に適用することによってランダムノイズを除去する工程を含むことを
特徴とする請求項1に記載の方法。
7. The method of claim 1, wherein estimating random noise comprises removing random noise by applying Gaussian smoothing to normal deviations.
【請求項8】 物体を再構築するためにコンピュータに所定の方法を実行させ
る命令を有する、機械読み取り可能コンピュータプログラムコードで符号化され
た記憶媒体であって、 前記所定の方法が、 センサーを用いて検査対象物体のスキャン画像を獲得する工程と、 ために、前記物体のスキャン画像を前記物体の基準画像と共に登録して、登録
データを得る工程と、 前記登録データと前記基準データ間の偏差を計算する工程と、 前記偏差に基づいてランダムノイズとバイアス誤差とを推定する工程と、 推定された前記ランダムノイズとバイアス誤差に応じて前記物体のスキャン画
像を補正する工程とを備えることを特徴とした記憶媒体。
8. A storage medium encoded with machine readable computer program code having instructions for causing a computer to perform a predetermined method for reconstructing an object, the predetermined method comprising using a sensor. Obtaining a scan image of the object to be inspected by registering the scan image of the object together with a reference image of the object to obtain registration data; and obtaining a deviation between the registration data and the reference data. Calculating, estimating random noise and bias error based on the deviation, and correcting the scanned image of the object according to the estimated random noise and bias error. Storage media.
【請求項9】 前記基準画像は、前記物体のコンピュータ支援描画(CAD)
表現であることを特徴とする請求項8に記載の記憶媒体。
9. The computer-aided drawing (CAD) of the object is provided.
9. The storage medium according to claim 8, wherein the storage medium is an expression.
【請求項10】 データ点を登録する前記工程は、ロバスト-クローゼスト-パ
ッチマッチング技術に基づいて遂行されることを特徴とする請求項8に記載の記
憶媒体。
10. The storage medium of claim 8, wherein the step of registering data points is performed based on a robust-closest-patch matching technique.
【請求項11】 偏差を計算する前記工程は、表面の法線に沿った偏差を計算
することによって遂行されることを特徴とする請求項8に記載の記憶媒体。
11. The storage medium of claim 8, wherein the step of calculating a deviation is performed by calculating a deviation along a surface normal.
【請求項12】 ランダムノイズを除去する前記工程は、ガウシアン平滑処理
を法線の偏差に適用する工程を含むことを特徴とする請求項8に記載の記憶媒体
12. The storage medium according to claim 8, wherein the step of removing random noise includes a step of applying Gaussian smoothing processing to a deviation of a normal line.
JP2000562864A 1998-07-28 1999-07-27 Calibration method and device for non-contact distance sensor Pending JP2002521699A (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US9444498P 1998-07-28 1998-07-28
US60/094,444 1998-07-28
US09/360,032 US6411915B1 (en) 1998-07-28 1999-07-23 Method and apparatus for calibrating a non-contact range sensor
US09/360,032 1999-07-23
PCT/US1999/016941 WO2000007146A1 (en) 1998-07-28 1999-07-27 Method and apparatus for calibrating a non-contact range sensor

Publications (1)

Publication Number Publication Date
JP2002521699A true JP2002521699A (en) 2002-07-16

Family

ID=26788890

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000562864A Pending JP2002521699A (en) 1998-07-28 1999-07-27 Calibration method and device for non-contact distance sensor

Country Status (3)

Country Link
EP (1) EP1040449A1 (en)
JP (1) JP2002521699A (en)
WO (1) WO2000007146A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008506199A (en) * 2004-07-08 2008-02-28 インテル・コーポレーション Simulation of scanning beam image by combination of basic features extracted from surface model

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105144241B (en) 2013-04-10 2020-09-01 皇家飞利浦有限公司 Image quality index and/or imaging parameter recommendation based thereon
JP6905827B2 (en) 2013-04-10 2021-07-21 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Visualization of reconstructed image data
ES2537783B2 (en) * 2013-06-14 2015-09-29 Universidad De Sevilla Procedure for obtaining a remote sensed image from photography

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BE790830A (en) 1971-11-02 1973-02-15 Nordson Corp ELECTROSTATIC SPRAYER
US4051981A (en) 1975-12-15 1977-10-04 Louis John Mandlak Powder gun
GB1588393A (en) 1978-04-27 1981-04-23 Bushnell R B Electrostatic powder spraying
DE3811309C2 (en) 1988-04-02 1997-09-04 Weitmann & Konrad Fa Powder atomizing device
EP0381067A3 (en) * 1989-01-31 1992-08-12 Schlumberger Technologies, Inc. A method for registration of cad model to video images with added clutter

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008506199A (en) * 2004-07-08 2008-02-28 インテル・コーポレーション Simulation of scanning beam image by combination of basic features extracted from surface model

Also Published As

Publication number Publication date
EP1040449A1 (en) 2000-10-04
WO2000007146A1 (en) 2000-02-10

Similar Documents

Publication Publication Date Title
JP4815052B2 (en) Apparatus and method for searching for deformation of object having smooth surface
US6504957B2 (en) Method and apparatus for image registration
US7327857B2 (en) Non-contact measurement method and apparatus
US7228254B2 (en) Shape model generation method and shape model generation system
Dorai et al. Registration and integration of multiple object views for 3D model construction
JP4920205B2 (en) System and method for boundary estimation using CT measurements
CN112967342B (en) High-precision three-dimensional reconstruction method and system, computer equipment and storage medium
CN112686961B (en) Correction method and device for calibration parameters of depth camera
CN108492329A (en) A kind of Three-dimensional Gravity is laid foundations cloud precision and integrity degree evaluation method
CN111400830A (en) Machining and calibrating method and device for three-dimensional blank workpiece
CN112669460A (en) Workpiece defect detection method and system and computer readable storage medium
CN114758005B (en) Laser radar and camera external parameter calibration method and device
EP3511674B1 (en) Method and system for measuring a height map of a surface of an object, and computer program and data carrier for use in the method
US6411915B1 (en) Method and apparatus for calibrating a non-contact range sensor
CN106767405B (en) The method and device of the quick corresponding point matching of phase mapping assist three-dimensional imaging system
JP2002521699A (en) Calibration method and device for non-contact distance sensor
JP4608152B2 (en) Three-dimensional data processing apparatus, three-dimensional data processing method, and program providing medium
CN116205843A (en) Self-adaptive stripe iteration-based high-reverse-navigation-performance three-dimensional point cloud acquisition method
CN114549779A (en) Scene model reconstruction method and device, electronic equipment and storage medium
JP2000111322A (en) Three dimensional data processor and method therefor
CN113686264B (en) Three-dimensional measurement method and system based on polar line geometry
CN117132634B (en) Object morphology estimation method and computer readable storage medium
CN114877826B (en) Binocular stereo matching three-dimensional measurement method, system and storage medium
CN113987631B (en) Symmetry analysis-based building disaster-affected deformation detection method and system
Nakini et al. Distortion correction in 3d-modeling of roots for plant phenotyping

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060725

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081125

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20090224

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20090303

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090522

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090522

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20090522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090818

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20091112

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20091119

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100413