JP4230525B2 - 3次元形状計測方法およびその装置 - Google Patents
3次元形状計測方法およびその装置 Download PDFInfo
- Publication number
- JP4230525B2 JP4230525B2 JP2007514941A JP2007514941A JP4230525B2 JP 4230525 B2 JP4230525 B2 JP 4230525B2 JP 2007514941 A JP2007514941 A JP 2007514941A JP 2007514941 A JP2007514941 A JP 2007514941A JP 4230525 B2 JP4230525 B2 JP 4230525B2
- Authority
- JP
- Japan
- Prior art keywords
- imaging device
- target object
- projector
- pattern projector
- pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2545—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2504—Calibration devices
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2509—Color coding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
Description
一方でアクティブステレオ方式はプロジェクタまたはレーザなどを利用するため、対応点問題がなく、精度の良い3次元計測が可能である。また、レーザのスキャンやパターン光投影法などにより、容易に密な形状データを得ることができる。このため、複雑な形状を持った物体の形状の計測には、多くの場合アクティブ3次元計測装置が用いられる。
このようなアクティブ3次元計測装置の欠点として、多くの場合専用の装置が必要となることが挙げられる。例えば、高い精度で、効率の良い計測装置として、サーボアクチュエータによりレーザ照射機器の制御を行うものがあるが、モータの精密な制御の必要性などから、大掛かりかつ、高価な機器となってしまうことが問題である。また、専用の投光機を用いた光構造投影装置なども用いられてきたが、やはり高価である。
近年、安価なPC用のプロジェクタが普及してきており、このようなデバイスを用いることで、アクティブビジョンによる実用的な計測装置を手軽に実現することが可能となってきている。中でも、パターン光投影法(パターンコード化法)は、計測にかかる時間が短く、密な3次元点を比較的短時間に得ることができること、計測のためのサーボモータなど特殊な機器を用意することなく市販のビデオプロジェクタを使用することが出来ること、などの利点から広く利用されている。パターン光投影法の研究例として、(非特許文献1〜非特許文献5)などが挙げられる。
アクティブステレオ方式の別な問題点として、システムの状態を変えるたびにカメラとプロジェクタ間の校正が必要となることが挙げられる。特に投光機と受光機が分離したパターン光投影法のようなシステムの場合は計測装置を移動する度に事前校正をおこなうことが必要であり、システムの利便性を大きく損なうこととなる。アクティブプロジェクト方式でありながら、事前の外部校正が必要無くなれば、装置も簡略化できこれまでのアクティブ系の大きな欠点が解消され、より実用的なシステムになることが期待される。
パッシブステレオにおける自己校正手法を、カメラの一方をプロジェクタに置き換えることでアクティブステレオシステムに適用する研究が試みられている。例として、(非持許文献6)の研究が挙げられる。しかし、こらの手法は、射影空間内での再構築手法を提案したものであり、ユークリッド復元には、アフィンカメラモデルを仮定し、かつ、画像内に平面が必要であるなど、多くの実現困難な仮定があり、実用的なシステムではなかった。
J.Batlle,E.Mouaddib and J.Salvi著「"Recent progress in coded structured light as a technique to solve the correspondence problem:a survey",Pattern Recognition,31.7,pp.963−982,1998」 D.Caspi,N.Kiryati and J.Shamir著「"Range imaging with adaptive color structured light",IEEE Trans.on Patt.Anal.Machine Intell.,20,5,pp.470−480,1998」 K.L.Boyer and A.C.Kak著「"Color−encoded structured light for rapid active ranging",IEEE Trans.on Patt.Anal.Machine Intell.,9,1,pp.14−28,1987」 S.Inokuchi,K.Sato and F.Matsuda著「"Range imaging system for 3−D object recognition",ICPR,pp.806−808,1984」 O.Hall−Holt and S.Rusinkiewicz著「"Stripe boundary codes for real−time structured−light range scanning of moving objects",Int.Conf.Computer Vision,Vol.2,pp.359−366,2001」 D.Fofi,J.Salvi and E.M.Mouaddib著「"Uncalibrated vision based on structured light",ICRA,pp.3548−3553,2001」
主な相違点としては、通常のカメラペアによるパッシブステレオにおいては、得られる対応点が疎であるのに対して、本手法では非常に密な対応点を得られる点にある。そのため、本手法では、密な対応点により安定した自己校正が実現でき、また密な3次元復元が実現出来る。
さらに、3次元精度を向上させるため、繰り返し幾度か計測したすべてのデータを同時に用いることで、よりロバストかつ高精度に3次元復元する手法についても提案する。また、未校正の3次元形状の再構築においては決定できないスケーリングを簡易な装置で解消する手法も提案する。
第2図、第3図、第4図、第5図、第6図は、請求の範囲の説明図である。
第7図は、本発明の実施形態例を示したものである。
第8図は、本発明において使用する構造化光のパターンの例を示したものである。
第9図は、構造化光のパターンを対象物体に照射しながら撮影したものを、本発明に入力する画像の例として示したものである。
第10図は、3次元再構成の手順のうちで、カメラ−プロジェクタ間の位置関係およびカメラの内部パラメータおよびプロジェクタの内部パラメータの自己校正のアルゴリズムを表したものである。
第11図は、第5図で表した自己校正のアルゴリズムを、誤差に対してより頑健にしたものを表したものである。
第12図は、プロジェクタとカメラを固定して、対象物体を動かしながら複数回の計測を行ったとき、結果的に得られる形状の精度を上げるための同時再構成のアルゴリズムを表したものである。
第13図は、プロジェクタを固定し、カメラのみを動かしながら、同一のシーンの形状を計測したとき、それらの形状の精度を上げるためのバンドル再構成のアルゴリズムを表したものである。
第14図は、マーカーつき回転テーブルを用いることで、全周形状の自動獲得を実現する装置を示したものである。
第15図は、回転テーブルの回転軸を推定するために、回転テーブル上にキャリブレーションパターンを設置したものを示したものである。
第16図は、画像上のマーカーの位置から、回転テーブルの回転角度を求める計算過程を表したものである。
第17図は、回転テーブル上のマーカーを識別するために、回転半径の異なる位置にマーカーを設置した例を示したものである。
第18図は、片方の装置を固定し、他方を移動しながら計測する様子を示したものである。
本発明の3次元計測システムの構成を述べる。まず、本発明の実施形態を用いた、3次元計測装置のシステムの例を第1図に示す。このシステムは、プロジェクタをパターン投光機とし(1−1)と、カメラを撮像装置(1−3)としたものである。プロジェクタには、投光機として、1つのレーザポインタが固定してある(1−2)。このレーザポインタは、スケーリングを実スケールに合わせるために用いられる。対象物体のスケーリングを正確に知る必要がない場合、このレーザポインタは不要である。計測時には、対象物体にプロジェクタとカメラを向け、計測を始める。対象物体に複数のパターン(構造化光)を投影しながら、撮影を行う。また、結果として得られる3次元形状のスケーリングを決定する場合には、レーザポインタから対象物体に光を照射し、撮影を行う。
本発明の実施形態では、上記の方法で撮影された画像の集合から、対象物体表面の点の3次元位置を求める。第7図を参照しながら、その方法の概略を述べる。まず、入力である構造化光を照射したシーンの画像(7−1)から、構造化光のデコード(7−2)によって、カメラおよびプロジェクタの対応点の集合(7−3)が求められる。これらのデータから、自己校正(7−4)の手法により、カメラ、プロジェクタ間の位置関係を表すパラメータ(7−5)が推定される。推定されたパラメータと、対応点の集合から、ステレオ法により(7−6)、対応点の3次元位置がスケーリングを除いて求められる(7−7)。次に、レーザポインタから対象物体に光を照射した画像(7−9)と、レーザポインタとプロジェクタの位置関係(7−8)を参照して、スケーリングの大きさを決定する(7−10)。
本発明を用いた3次元計測装置には、以下の特徴がある。
・ 入力画像を撮影するときの、プロジェクタとカメラの設置方法は任意であり、あらかじめそれらの位置関係の校正を行う必要がない。
・ 計測シーンに、特に制限は無い。
・ 計測は全て自動であり、人手を介す必要が無い。
・ 密な距離画像が、スケーリングの曖昧性無く求められる
以下では、本発明における、プロジェクタとカメラ間の対応点の取得方法について述べる。本発明では、密な形状を得るために多くの対応点が必要である。アクティブステレオ方式においては、構造化光を用いた3角測量により、3次元座標を獲得をすることが良く行われる。その際、効率良く対応点を得る手法として、パターン光投影法がこれまで多く提案されて来ている(非特許文献1〜非特許文献5)。これは、コード化したパターンを対象物体に投影し、撮影された画像上のパターンをデコードすることで、光の照射された位置の識別を実現する方式である。これを適用すれば、多くの対応点を得ることが出来る。そこで、本発明でもこのパターン光投影法により、画像とプジェクタの対応を得ることにする。例えば、井口ら(非特許文献4)により提案されたグレイコードパターン(第8図)を用い、これを縦、横、2回スキャンすることで1点1点の識別を実現することが出来る(第9図)。これにより、撮影した画像上のピクセル点(u、v)と、パターン上の座標(x、y)に関する、非常に多くの対応関係を求めることが出来る。勿論、その他全ての構造化光による手法を用いることが出来る。
次に本発明により、推定されるパラメータについて述べる。本発明では、自由にカメラとプロジェクタを動かしても、校正をやり直す必要のないアクティブステレオシステムが構築される。そのため、計測データからカメラパラメータ、特に外部パラメータの自己校正をおこなうことが必要となる。本発明では、カメラおよびプロジェクタの内部パラメータと、外部パラメータを推定することができる。内部パラメータの一部が既知である場合もある。
実施例として、カメラの内部パラメータを既知とし、プロジェクタの内部パラメータのうち焦点距離を未知とした場合について説明する。これは、カメラの内部パラメータを得るには、既存の多くの手法から比較的簡易に精度良く求められるのに対し、プロジェクタの内部パラメータを得る手法は、それ程一般的ではないこと、また、計測の際に、プロジェクタの焦点距離を動かす機会がカメラのそれよりも多いことから、実用的に重要な実施例である。
本発明における、自己校正と3次元復元の方法を、上記の実施例について開示する。
本発明では、ニュートン法などの非線形最適化により、各パラメータの自己校正を行う。近年、計算機の計算能力が向上し、非線形最適化による計算量の増大が問題にならなくなってきたことから、最初から非線形最適化で3次元形状復元を行うことが研究されている。本発明でも、このアプローチを利用することができる。まず、第10図を参照しながら、カメラ−プロジェクタ間の位置関係を自己校正する方法の概要を説明する。
カメラ−プロジェクタ間の対応関係の集合(10−1)に、カメラおよびプロジェクタの投影モデルを適用する(10−2)と、カメラおよびプロジェクタから、対応点へ向かう方向の集合(10−3)が得られる。これらの対応点と、カメラ、プロジェクタは、エピポーラ拘束を満たす。ここで、カメラ−プロジェクタ間の位置関係パラメータとプロジェクタの焦点距離を入力とし、各対応点がエピポーラ拘束を満足する場合に最小となるような誤差関数を定義する。その関数を、位置関係のパラメータに対して最小化することで、カメラ−プロジェクタ間の位置関係を推定する。具体的には、位置関係および内部パラメータの推定値(10−5)について、誤差関数を減少させるような更新量(10−6)を、線形方程式を解くことで求める(10−4)。パラメータの推定値は、更新幅が小さくなるまで、繰り返し更新される(10−7)。
以下、対応点の集合と、位置関係パラメータの推定値から、位置関係パラメータの更新量を求める方法を述べる。カメラに対して固定された座標系をカメラ座標系と呼び、この座標系で表された座標をカメラ座標と呼ぶ。プロジェクタ座標系とプロジェクタ座標も同様である。カメラ座標系(プロジェクタ座標系)の原点は、それぞれの機器の光学的中心点である。カメラ座標系(プロジェクタ座標系)におけるz軸の負の方向が、カメラ(プロジェクタ)の前方となる。また、カメラ座標系(プロジェクタ座標系)のx軸及びy軸方向は、その画像平面の水平及び垂直軸に平行である。プロジェクタ座標系も同様に定義する。
既に述べたとおり、本実施例では、カメラの内部パラメータを既知とし、プロジェクタの内部パラメータのうち焦点距離を未知としている。プロジェクタの焦点距離をfpとし、プロジェクタ座標による、i番目の対応点の方向ベクトルを、
とする。また、プロジェクタ座標からカメラ座標への剛体変換を、回転行列Rpと平行移動ベクトルtpであらわす。回転行列をオイラー角αp,βp,γpで表し、対応する回転行列をRp(αp,βp,γp)と表記する。平行移動ベクトル‖tp‖のノルムは、対応点のみからは決定できない。よって、tpは単位ベクトルであると仮定し、これを極座標の2個の座標値(ρp,φp)によって表現する。極座標の座標値で表現されたtpをtp(ρp,φp)と表記する。
i番目の対応点をカメラから観測したときの座標を、レンズの歪曲による影響を補正した後正規化カメラ座標に変換し、
で表す。エピポーラ拘束が成り立つとすると、カメラ及びプロジェクタから対応点方向に向けられた視線が交差する。プロジェクタから対応点に向かう直線をカメラ座標で表すと、
である。ただし、γは媒介変数である。カメラから対応点に向かう直線は
である。ただしsは媒介変数である。
上記の2直線(3)および(4)の3次元空間中での距離を最小化することで、エピポーラ拘束を成立させるようなパラメータを推定する。2直線の方向ベクトルを、
とする。ただし、Nはベクトルを正規化する演算子(つまり、Nx:=x/‖x‖)とし、
θ:=(αp,βp,γp)はプロジェクタの外部パラメータをまとめたものである。このとき、2直線の距離の式は
となる。ただし、“・”は内積を、τ:−(ρp,φp)は平行移動パラメータを表す。
Ei(θ,τ,fp)は、推定パラメータ(θ,τ,fp)や参照点番号iに依存する系統的な誤差を含む。パラメータ(θ,τ,fp)の推定を偏り無く行うには、予想される誤差の分散に関して、Ei(θ,τ,fp)を正規化する必要がある。エピポーラ拘束を仮定して、カメラとプロジェクタから参照点への距離は次のようになる。
と表される。ここでεcとεpは、カメラおよびプロジェクタに固有の誤差を、正規化された画像平面における距離として表したものとする。本発明では、例えば、正規化された画像平面における画素の大きさを、これらの値として用いることができる。他にも、あらかじめカメラおよびプロジェクタの誤差の分布がわかっている場合には、それらの分布の分散を利用することが出来る。カメラとプロジェクタの誤差の大きさが、あまり大きくない場合には、εcとεpを同じ値としてもよい。非線形最適化によって最小化する関数f(θ,τ,fp)は、以下のように記述できる。
ただし、Kは参照点の数を表す。
上記の関数の最小化を、ニュートン法によって次のように行うことができる。j回目の繰り返し処理における解を(θj,τj,fp,j)とする。このとき、連立線型方程式
θ=θj,τ=τj,fp=fp,j(θj,τj,fp,j)における値をとる。N>6(つまり、変数の数が制約式より多い)より、この方程式には一般に解が無いが、一般化逆行列を利用すると等式の両辺の誤差の二乗和を最小化するΔα,…,Δfを求めることができる。この値を用いて、推定値を以下の式にしたがって繰り返し更新することで、評価関数の最小化を行うことができる。
の式により求められる。ただし、x⊥yは、ベクトルxにおいて、yに垂直な成分を表す(つまり、
qciがρpに依存しないので、
式(10)から成る連立方程式の係数行列を、N×6行列Mとする。連立方程式の安定性を、Mの最大特異値λmax及び最小特異値λminの比λmin/λmaxで評価することができる。この値は、Mの6個の列ベクトルの「線形独立性の強さ」の評価値でもある。
式(13)より、エピポーラ平面の法線ベクトルN(pci×qci)の分散が小さいと、Mの列ベクトルの線形独立性が弱くなり、解の安定性が悪くなる。これは、プロジェクタをカメラの横に置く場合、カメラあるいはプロジェクタに対するシーンの上下の画角が小さい場合に相当する。
(9)式の評価関数の最小化による再構成は、(upi,υpi,−fp)tおよび(uci,υci,−1)tについて、特に大きな誤差を含むもの(アウトライア)がある場合には、推定されるパラメータの信頼性が低くなる場合がある。少数のアウトライアに対する高い頑健性を持つ再構成方法として、評
うち、比較的小さな値を持つもののみを利用することが効果的である(第11図)。このためには、
いもののみを採用すればよい。この手法の実装の一例は、すべての対応点を、その誤差
選び出し(11−1)、連立方程式(10)からそれらの対応点(11−2)に対しての式を選び出した連立方程式を解くことで、パラメータの更新幅Δα,…,Δfを決定すること(11−3)である。
上記の頑健な再構成法について、最初から対応点の90%のみを利用してパラメータ(θj,τj,fp,j)の収束を行うと、収束の安定性が損なわれる場合がある。この対策として、最初に、すべての対応点を使って(θj,τj,fp,j)の値を収束するまで更新した後、上記の頑健な再構成法を適用して再構成をおこなってもよい。
また、アウトライアの割合が高い場合には、利用する対応点の割合を小さくすると頑健性が増す。この時、最初はすべての対応点を利用し、次に対応点の90%、次に80%というように、徐々に利用する対応点を減らしていくことで、収束の安定性が増す場合がある。
推定するパラメータに、プロジェクタの焦点距離fpを含めると、最適化における収束の安定性が悪化する場合がある。この場合には、まず、プロジェクタの焦点距離fpを固定し、外部パラメータのみについて最適化を行い、収束が得られたら、次にfpを変数に含めて最適化を行うと、安定して収束が得られる場合がある。
また、プロジェクタの焦点距離fpが、あらかじめ精度よく求められている場合には、fpを最後まで固定パラメータとし、最適化に利用しない方が、最終的な解の精度が上がる。
プロジェクタがカメラに対し、右側にあるか、左側にあるか、などといった情報が、前提として得られる場合には、それを外部パラメータの初期値として与えた方がよい。カメラおよびプロジェクタから対象物体方向を見たときに、プロジェクタがカメラの左側にある場合(第1図と同じ)には、回転行列Rpの初期値を単位行列、平行移動ベクトルtpの初期値を(−1、0、0)とするとよい。逆に、プロジェクタがカメラの右側にある場合には、tpの初期値を(1、0、0)とするとよい。さらに、プロジェクタとカメラの角度が大まかにわかる場合には、それらをオイラー角の初期値として与える。
推定されたパラメータtpとRpをステレオ手法に適応することにより、直接3次元形状の復元が可能となる。
自己校正によるステレオ法ではスケーリングの値が決められないため、実際の使用に問題が生じる場合がある。その1つに、計測対象の全周形状を獲得するために全方向から計測を行ったとき、それぞれの計測ごとにスケーリングパラメータが異なることが挙げられる。本発明では、この問題に関して2つの解決手法を述べる。一つ目は、複数の計測結果から同時にカメラパラメータの推定を行い、スケーリングの一貫性を保つことであり、二つ目はプロジェクタにレーザポインタを取り付けることで、計測結果の実際のスケーリングを決定する方法である。
まず、上記の一つめの方法である,複数シーンの同時3次元再構成法によりスケーリングの一貫性を保つ手法について説明する。
複数の計測結果から同時にカメラパラメータの推定を行い、再構成を行うことを、本発明では同時3次元再構成と呼ぶ。以下、第12図を参照しながら、同時3次元再構成の概要を述べる。前提として、計測対象は移動可能であると仮定する。まず、カメラとプロジェクタの位置を固定したままで、計測対象を動かしながら複数回の計測を行う。これらの計測データ(12−1、12−2、12−3)は、カメラとプロジェクタの内部および外部パラメータを共有する。よって、これらの計測で得られた対応点(12−4、12−5、12−6)をまとめた集合(12−7)を自己校正の入力とすることにより、既に述べたアルゴリズムを用いて、これらの計測データの共通パラメータ(12−8)を推定することができる。推定された共通パラメータを用いて、それぞれの計測データの3次元再構成を行う(12−9、12−10、12−11)。
複数の計測データの同時再構成を行うことによる利点として、各計測結果のスケーリングの一貫性を保つことができることがあげられる。このことは、単一物体を複数の方向から計測して、結果を統合する場合には、特に重要となる。
また別の利点として、解の安定性を改善することが期待される。一般的に、未校正3次元再構築を行う際に、解の安定性を悪化させる要因として、焦点距離の変化による観測値(この場合はqci)の変化と、シーンとカメラとの距離の変化による観測値の変化が見分けにくいことが挙げられる。異なる深さ値を持つ、複数のシーンの対応部分を利用すれば、これらの変化の差が容易に観測でき、解の安定性を改善することができると考えられる。特に、計測対象物体が平面に近い場合には、1度の計測では不安定な解となるが、対象物体を動かして何度か計測し、同時再構成を行えば、安定化の効果が大きい。
次に、プロジェクタにレーザポインタを取り付けることで、計測結果の実際のスケーリングを決定する方法を開示する。
求められた形状データは、実際の形状とスケーリングが異なる。前節で述べた同時再構成を用いると、複数の計測結果のスケーリングを一致させることができるが、実際のスケーリングを決定することはできない。これを決定する方法としては、
1.計測対象の特定の点の距離を実測する。
2.形状既知の物体をあらかじめ計測し、その後プロジェクタとカメラの位置を変えずに計測する。
3.形状既知の物体を、計測対象と同時に計測する。
という方法がある。しかしどの手法も計測の手間を増やし、手順を完全に自動化することは困難である。
本発明では、プロジェクタにレーザポインタを固定し、そのレーザの照射位置を計測時に測定することで、スケーリングの決定を行う方法を提案する。レーザポインタは、プロジェクタ座標に対して固定された直線上に光を投射する。投射した光の直線の式(4−5)はあらかじめ求めておく必要があるため、事前に、既知形状を持つ物体をレーザポインタを照射しながら複数回計測する。これにより、光線上の複数の点をプロジェクタ座標で表し、それらを通る直線の式を算出することが出来る。この作業は、プロジェクタにレーザポインタを取り付けたときに1度だけ実行すれば良い。
計測対象物体(4−3)のスケーリングを決定するには、計測時にレーザポインタで光を照射し、その照射位置をカメラで検出する(4−4)。検出された点の、スケーリングを除いて測定された3次元位置(4−3)を、プロジェクタ座標系で(xpm ypm zpm)tとする。実際の3次元位置は、スケーリングの大きさをλとしてλ(xpm ypm zpm)tと表される。λを媒介変数とみなすと、これらの点はプロジェクタ座標の原点と、(xpm ypm zpm)tとを結ぶ直線を表す。実際の3次元位置には、レーザポインタの光線も通過するので、直線λ(xpm ypm zpm)tとあらかじめ求められたレーザポインタの光線との交点を求めることで、未定のλ(4−7)を確定することが出来る。
次に、静止した対象物体について、プロジェクタおよびカメラのうち、片方を固定し、もう片方を動かしながら、複数回の3次元計測を行うことで、それぞれの計測で得られた3次元形状を、同一の座標系で表現する手法について述べる(第18図)。
本発明の3次元計測方法では、前もってプロジェクタとカメラの相対位置を計測する必要が無く、それらの装置を移動しながら計測することができる。この時、プロジェクタ、あるいはカメラのいずれかを固定(18−1)しておき、もう一方を動かしながら、複数回の計測を行う(18−2、18−3、18−4、18−5)とする。この時、それぞれの計測について3次元形状が求められるが、これらの3次元形状を、すべて、固定された方の装置の座標系で表現するとする。説明図の場合には、(18−1)と(18−2)、(18−1)と(18−3)の間で計測がおこなわれるが、これらの計測で求められた形状を、すべて(18−1)の装置の座標系で表す。すると、複数の計測結果は、すべて同じ座標系で表される。これらの計測結果のスケーリングは一定ではないが、計測結果の共通部分から、1個、あるいは複数個の点を取りだし、その点までの(18−1)の装置の座標系での深さを比較すると、スケーリングをあわせることができる。
この手法の利点として、オクルージョンにより、計測結果に欠損が生じるのを、複数の計測でカバーしあうことで、抑制することができる点が挙げられる。
上述したように、静止した対象物体を、プロジェクタおよびカメラのうち、片方を固定し、もう片方を動かしながら、計測したとき、バンドル調整手法と呼ばれる方法によって、結果の精度を向上させることができる。以下に、簡易的なバンドル調整手法を述べる。
既に述べた自己校正およびステレオ法による3次元再構成では、対応点の数を増しても精度が上がりにくい場合がある。例えば、カメラおよびプロジェクタから目標物体への距離が、シーンまでの深さの変化に比べて比較的大きく、デバイスへの投影が、擬似中心投影に近い場合などである。擬似中心投影を仮定した場合、2枚の画像の対応点からは自己校正の解を求めることができない。よって、投影が擬似中心投影に近い場合も、対応点の数にかかわらず解が不安定になる。先に述べた同時3次元再構成によりシーンまでの深さの変化を大きくできる場合には、この問題を解決できる場合があるが、焦点深度が小さい場合などこの手法を利用しにくい場合もある。このような場合、3枚以上の画像を利用することにより、解の不安定性を軽減することができる。3枚以上の画像があれば、擬似中心投影の条件下でも、3次元再構成を行うことが可能である。
そこで、カメラあるいはプロジェクタの片方を固定して、もう一方を動かしながら複数回の計測を行うことを考える(第18図と同様)。この集合から、簡易的なバンドル調整によって外部パラメータの自己校正結果の改良を行うことが出来る。その結果、上記の方法で計測した複数の3次元復元結果について、各々の精度を高めることができる。以下、第13図を参照しながら、プロジェクタを固定し、カメラを移動しながら撮影する場合のバンドル調整の手順を説明する。カメラを移動する場合でも、処理はまったく同じである。
バンドル調整のために、全てのカメラと、プロジェクタに共通の参照点(13−3、13−4)を選び出す。これらの参照点の3次元座標と、全てのカメラの外部パラメータとを推定する。i番目の参照点の3次元座標(プロジェクタ座標系)の、プロジェクタからみたときの深さの推定値(13−11、13−12)をdi(i=1,2,..,Nr)、(Nrは参照点の数である)で、カメラjの外部パラメータ(13−6、13−7)をθjで表す。これらの値の初期値としては、既に述べた自己校正および3次元再構成による結果を利用する。バンドル調整のアルゴリズムは以下の通りである。
Step 1
サンプリングによって、全てのカメラとプロジェクタから観測可能な3次元点(13−3、13−4)を、参照点として選ぶ。
Step 2
参照点の初期値を、一つのカメラとプロジェクタ関する自己校正および3次元再構成によって求める。
Step 3
以下の手順を、θjの変化が十分小さくなるまで繰り返す。
Step 3.1
全てのカメラ番号j=1,2,...,Ncについて、以下の手順を繰り返す。
Step 3.1.1
参照点のプロジェクタからの深さの、現在の推定値di=(i=1,2,..,Nr)(13−14)から、カメラjのカメラパラメータθj(13−6、13−7)を更新する。
Step 3.2
現在のθjから、di(i=1,2,..,Nr)を更新する。
カメラパラメータθjの更新は、以下のように行う。カメラ座標系で表された3次元点xを、j番目のカメラの外部パラメータθj:=αc,j,βc,j,γc,j,tc,jによってプロジェクタ座標系へ変換した座標を、Trans(θj,x)とする。標準カメラにおける射影を表す写像をProjと書く。
をθjについて最小化することで、j番目のカメラの位置と方向を推定することができる(13−5、13−8)。この最小化の処理は、通常の透視投影カメラにおける、3次元−2次元対応のカメラ校正問題である。これを解くには、例えばNewton法などを用いて行うことができる。シンプレックス効果法など、他の非線形最適化を用いても良い。また、最適化の初期値を求めるために、カメラ校正の線形解法を利用してもよい。
参照点のプロジェクタからの深さの推定値di(i=1,2,..Nr)(13−14)の更新は、以下のように行う。プロジェクタと各カメラの対応点から、その時点での外部パラメータの推定値を元に参照点位置を再構成し、プロジェクタと参照点位置の距離を計算する。この距離の、各カメラに関する平均をとることで、新しい参照点を算出する。この処理は、以下のように行う。
Step 1
以下の処理を、カメラ番号j=1,2,...,Ncについて繰り返す。
Step 1.1
各参照点とプロジェクタとの距離(13−11、13−12)を、プロジェクタとj番目のカメラとの対応点(13−3、13−4)および外部パラメータθj(13−6、13−7)から求める。出力は、k番目の参照点のプロジェクタからの深さdk,j(13−11、13−12)とする。
Step 2
る。
次に、本発明における全周形状の推定方法を開示する。
対象物体の全周形状を得るには、対象物体の方向を変えながら、それぞれの方向から3次元再構成を行い、結果として得られた3次元形状の位置あわせと統合を行う必要がある。
この時、カメラとプロジェクタを固定し、対象物体の方向を変えながら、それぞれの方向について対応点の計測を行い、前述した「複数シーンの同時3次元再構成」の手法を適用することで、各方向について再構成された3次元形状のスケーリングを一致させることができ、3次元形状の位置あわせを容易にすることができる。
上記の方法において、さらに、対象物体の方向を変えるために、ターンテーブルを利用するなどの手段によって、方向変化をある軸に対する回転に限定すると、対象物体の方向の変化の推定が容易になる。これにより、3次元形状の位置あわせの処理を、さらに単純化することができる。
上記の方法において、回転量を制御可能なターンテーブルを使うと、対象物体の方向の変化の推定がさらに容易になり、全周形状の推定精度を上げることができる、対象物体の方向の変化を推定するための別の方法として、マーカーのついたターンテーブルを利用する方法が考えられる(第14図)。これには、カメラ以外のセンサを利用せず、画像処理で回転角を求めることができるという利点と、特徴点の抽出が容易であるという利点がある。
この回転テーブルを用いて回転角度を計算する方法について述べる。まず、回転テーブルの回転軸や回転平面について、事前にキャリブレーションを行う。
回転テーブルに設置してあるLEDは、テーブルを回転させると、2次元画像上では楕円を描く。そこで、その楕円を解析すれば、回転軸を推定することができる。回転テーブルのキャリブレーションには、回転テーブルにキャリブレーションパターンを貼って、回転させながらそれを計測し、そのパターンから最適化計算で求める手法を利用しても良い(第15図)。
次に、カメラ中心と画像平面上のLEDとを結ぶ直線を、回転テーブルの方向へ伸ばして、実際のLEDとぶつかる点の3次元座標を求める。この座標と、前記キャリブレーションパラメータから、回転テーブルの回転角度とLEDの回転中心からの距離(回転半径)を計算することができる(第16図)。
また、回転テーブルに計測対象を置くと、その物体の陰になったLEDは見えなくなるため、複数のLEDを設置し、常にLEDが観測されるようにしておく。その場合、複数あるLEDの回転半径をそれぞれ異なる値とすることで、各LEDを識別可能にしておくと良い(第17図)。複数あるLEDを識別するためには、異なる回転半径を用いるほかに、異なる色を用いたり、LEDの大きさを変える、などの手法も有効である。
また、事前にキャリブレーションを行わない手法も考えられる。これは、回転テーブルを回転させながら、本発明によりLED位置の3次元座標を複数得て、これが同一平面に乗っており、かつ、同一の回転軸で回転している、という条件を適用することで、回転軸を容易に計算することが出来るため、実現可能である。
また、LEDの別な使い道としては、スイッチとしての利用方法がある。例えば撮像装置としてビデオカメラを使用すれば、LEDが動いた時、これを容易に検知することが出来る。また静止していることも同様に検知可能である。従って、LEDが動いている時、すなわち回転テーブルが動いている時は計測を行わず、回転テーブルが静止した時に、それを検知し、自動的に本発明による3次元計測を開始すれば、スイッチとして利用可能である。これにより、ユーザは、計測対象を回転テーブルの上に置き、パソコンやその他の機器を操作することなく、単に計測対象を回転テーブルと共に回転させるだけで、対象物体の全周の形状を自動的に計測することが出来る。
また、レーザポインタをプロジェクタに取り付けた装置を用いると、対象物体のスケーリングを決定することができる。これは、スケーリングが必要となるような形状モデルの作成に重要である。
また、物体を複数の方向から計測し、同時再構成を行うことで、対象物体の全周形状の構築が、容易に行えるようになる。その際に、LEDつきの回転テーブルを用いれば、追加の機器を必要とせず、簡易に自動的な全周形状復元が可能となる。
Claims (20)
- 相対的な位置関係が固定されたパターン投光機(1−1)と撮像装置(1−3)を用いて、前記パターン投光機により対象物体(1−4)に照射されたパターン光を前記撮像装置で撮影した1枚または複数枚の画像(2−1)を入力とする計測方法であり、前記撮影された画像(2−1)のパターンから、パターン投光機と撮像装置のエピポーラ拘束を利用することで、パターン投光機の内部パラメータおよび撮像装置の内部パラメータおよびパターン投光機と撮像装置の相対的な位置関係(2−3)を推定するステップ(2−2)と、前記撮影されたパターン光(2−1)と前記推定されたパターン投光機および撮像装置の内部パラメータおよび相対的な位置関係(2−3)とを用いて3角測量の原理により前記対象物体表面の3次元座標(2−5)を推定するステップ(2−4)とを有し、前記パターン投光機と前記撮像装置に関して、特殊な仮定をおく必要がないことと、事前に前記パターン投光機および前記撮像装置の内部パラメータおよび相対的な位置関係を計測することなしに前記対象物体表面の3次元座標を推定可能であることを特徴とする計測方法。
- 相対的な位置関係が固定されたパターン投光機(1−1)と撮像装置(1−3)からなる計測装置であり、前記パターン投光機により対象物体(1−4)に照射されたパターン光の画像を前記撮像装置で撮影する手段と、前記撮影された画像から、請求の範囲第1項の方法を用いて前記対象物体表面の3次元座標を推定する手段とを有し、前記パターン投光機と前記撮像装置に関して、特殊な仮定をおく必要がないことと、事前に前記パターン投光機および前記撮像装置の内部パラメータおよび相対的な位置関係を計測することなしに前記対象物体表面の3次元座標を推定可能であることを特徴とする計測装置。
- 相対的な位置関係が固定されたパターン投光機(1−1)と撮像装置(1−3)を用いて、1または複数種類のパターン光を静止した対象物体(1−4)に照射しながら、前記撮像装置で撮影した1枚または複数枚の画像(3−1)を入力とする計測方法であり、前記パターン投光機で照射された表面上の点について、撮像装置からその点の方向とプロジェクタからその点への方向のデータ(3−3)を、入力された画像(3−1)を用いて決定するステップ(3−2)と、前記ステップで用意されたデータ(3−3)を用いて、パターン投光機と撮像装置についてのエピポーラ拘束条件を解くことにより、パターン投光機の内部パラメータおよび撮像装置の内部パラメータおよびパターン投光機と撮像装置の相対的な位置関係(3−5)を推定するステップ(3−4)と、前記ステップで用意されたデータ(3−3)と、前記ステップにより推定されたパターン投光機および撮像装置の内部パラメータおよび相対的な位置関係(3−5)とを用いて、3角測量の原理により前記対象物体表面の3次元座標(3−7)を推定するステップ(3−6)を有し、前記パターン投光機と前記撮像装置に関して、特殊な仮定をおく必要がないことと、事前に前記パターン投光機および前記撮像装置の内部パラメータおよび相対的な位置関係を計測することなしに前記対象物体表面の3次元座標を推定可能であることを特徴とする計測方法。
- 相対的な位置関係が固定されたパターン投光機(1−1)と撮像装置(1−3)からなる計測装置であり、前記パターン投光機により対象物体(1−4)に照射されたパターン光の画像を前記撮像装置で撮影する手段と、前記撮影された画像から、請求の範囲第3項の方法を用いて前記対象物体表面の3次元座標を推定する手段とを有し、前記パターン投光機と前記撮像装置に関して、特殊な仮定をおく必要がないことと、事前に前記パターン投光機および前記撮像装置の内部パラメータおよび相対的な位置関係を計測することなしに前記対象物体表面の3次元座標を推定可能であることを特徴とする計測装置。
- 請求の範囲第1項乃至第3項のいずれかに記載の計測方法において、第1項乃至第3項いずれかに記載の入力(4−1)のほかに、前記請求の範囲に記載されたパターン投光機(1−1)の所定の位置に取り付けられたレーザポインタなどの投光装置(1−2)から照射されたレーザ光を、前記請求の範囲に記載された撮像装置(1−3)で撮影したもの(4−4)と、前記投光装置と前記パターン投光機の相対的な位置関係(4−5)を入力とし、第1項乃至第3項いずれかの方法によって推定された対象物体の3次元座標の集合(4−3)と、前記撮影された照射レーザ光(4−4)と、前記投光装置と前記パターン投光機の相対的な位置関係(4−5)とを用いて、請求の範囲第1項乃至第3項のいずれかに記載の計測方法で推定された対象物体表面の3次元座標のスケーリング・パラメータ(4−7)を決定するステップ(4−6)を有し、前記対象物体表面の3次元座標(4−3)と、そのスケーリング(4−7)が得られることを特徴とする計測方法。
- 請求の範囲第2項乃至第4項のいずれかに記載の計測装置において、レーザポインタなどの投光装置(1−2)を前記請求の範囲に記載されたパターン投光機(1−1)の所定の位置に取り付けたものを使用し、前記投光装置から照射されたレーザ光を前記請求の範囲に記載された撮像装置で撮影する手段と、前記撮影された照射レーザ光(4−4)と、前記投光装置と前記パターン投光機の相対的な位置関係(4−5)とを用いて、請求の範囲第5項に記載の計測方法によって対象物体表面の3次元座標のスケーリング(4−7)を得る手段を有し、前記対象物体表面の3次元座標(4−3)と、そのスケーリング(4−7)が得られることを特徴とする計測装置。
- 相対的な位置関係が固定されたパターン投光機(1−1)と撮像装置(1−3)を用いて、前記パターン投光機により対象物体(1−4)に照射されたパターン光を前記撮像装置で撮影した1枚または複数枚の画像を一つの画像セットとし、前記パターン投光機(1−1)乃至撮像装置(1−3)のいずれか片方(18−1)を固定し、他方を移動させながら(18−2,18−3,18−4,18−5)、それぞれの位置で撮影した画像セットをまとめたものを入力とする計測方法であり、前記画像セットのそれぞれについて、請求の範囲第1項乃至第3項いずれかの方法で3次元形状を求めるステップと、前記得られた複数の3次元形状を、前記固定された方の装置(18−1)の座標系に変換するステップを有し、前記複数の計測で得られた3次元形状の、自動的な位置あわせとスケーリングの一致を実現することを特徴とする計測方法。
- 相対的な位置関係が固定されたパターン投光機(1−1)と撮像装置(1−3)からなる計測装置であり、前記パターン投光機により対象物体(1−4)に照射されたパターン光の画像を前記撮像装置で撮影し、一つの画像セットとする手段と、前記撮影手段を、前記パターン投光機(1−1)乃至撮像装置(1−3)のいずれか片方(18−1)を固定し、他方を移動させながら(18−2,18−3,18−4,18−5)、繰り返すことで、複数の画像セットを得る手段と、前記手段で得られた複数の画像セットを用いて、請求の範囲第7項の方法によって3次元形状の計測を行う手段を有し、前記複数の計測で得られた3次元形状の、自動的な位置あわせとスケーリングの一致を実現することを特徴とする計測装置。
- 請求の範囲第7項に記載の計測方法において、各画像セットについて前記固定された方の装置の座標系で求められた3次元形状(5−5、5−6)の、共通部分における3次元座標のずれの和を誤差(5−7)として計算するステップと、これを最小化(5−8)することによって、パターン投光機および撮像装置の内部パラメータおよび相対的な位置関係を補正する(5−9、5−10)ステップ(5−8)を有し、3次元座標の推定精度が向上することを特徴とする計測方法。
- 請求の範囲第8項に記載の計測装置において、請求の範囲第9項に記載の方法によって各画像セットについての3次元形状を計測する手段を有し、3次元座標の推定精度が向上することを特徴とする計測装置。
- 相対的な位置関係が固定されたパターン投光機(1−1)と撮像装置(1−3)を用いて、前記パターン投光機により対象物体(1−4)に照射されたパターン光を前記撮像装置で撮影した1枚または複数枚の画像を一つの画像セットとし、前記画像セットを、対象物体の位置を変えながら、それぞれについて取得した複数の画像セット(6−1、6−2、6−3)を入力とする計測方法であり、入力された画像セット(6−1、6−2、6−3)を用いて、その画像セットが撮影されたときの前記撮像装置および前記プロジェクタから対象物体上の点への方向のデータ(6−5、6−6、6−7)を決定するステップ(6−4)と、前記ステップで得られた方向データ(6−5、6−6、6−7)を用いて、パターン投光機と撮像装置についてのエピポーラ拘束条件を解くことにより、パターン投光機の内部パラメータおよび撮像装置の内部パラメータおよびパターン投光機と撮像装置との相対的な位置関係(6−9)を推定するステップ(6−8)と、前記ステップで得られた方向データ(6−5、6−6、6−7)と、前記ステップにより推定されたパターン投光機および撮像装置の内部パラメータおよび相対的な位置関係(6−9)とを用いて、3角測量の原理によりそれぞれの画像セットに対する対象物体表面の3次元座標(6−11、6−12、6−13)を推定するステップ(6−10)を有し、事前に前記パターン投光機および前記撮像装置の内部パラメータおよび相対的な位置関係を計測することなしに前記対象物体表面の3次元座標を、複数の対象物体位置のそれぞれについて推定することと、各物体位置について得られる対象物体表面の3次元座標について、それぞれの精度を向上させられることと、スケーリングを一致させられることを特徴とする計測方法。
- 相対的な位置関係が固定されたパターン投光機(1−1)と撮像装置(1−3)からなる計測装置であり、前記パターン投光機により対象物体(1−4)に照射されたパターン光の画像を前記撮像装置で撮影し、一つの画像セットとする手段と、対象物体の位置を変えながら、前記手段を繰り返すことで、複数の画像セット(6−1、6−2、6−3)を得る手段と、前記取得した画像セットから、請求の範囲第11項に記載の計測方法によって、各画像セットに対する対象物体表面の3次元座標(6−11、6−12、6−13)を推定する手段を有し、事前に前記パターン投光機および前記撮像装置の内部パラメータおよび相対的な位置関係を計測することなしに対象物体表面の3次元座標を、複数の対象物体位置のそれぞれについて推定することと、各対象物体位置について得られる対象物体表面の3次元座標について、それぞれの精度を向上させられることと、スケーリングを一致させられることを特徴とする計測装置。
- 請求の範囲第11項に記載の計測方法の入力において、対象物体を移動させながら画像セットを得るかわりに別の対象物体に変えながら画像セットを得るものを使用する計測方法。
- 請求の範囲第12項に記載の計測装置において、対象物体を移動させながら画像セットを得るかわりに、別の対象物体に変えながら画像セットを得る計測装置。
- 請求の範囲第11項に記載の計測方法において、前記対象物体の全周形状を得るために、前記方法により得られる複数の3次元形状の、位置合わせを行うステップを有し、複数の3次元形状からスケーリングの一致した全周形状を復元出来ることを特徴とする計測方法。
- 請求の範囲第12項に記載の計測装置において、前記対象物体の全周形状を得るために、前記装置により得られる複数の3次元形状の、位置合わせを行う手段を有し、複数の3次元形状からスケーリングの一致した全周形状を復元出来ることを特徴とする計測装置。
- 請求の範囲第11項に記載の計測方法において、その入力において対象物体の位置を変える代わりに、対象物体を、LEDなどのマーカを取り付けた回転台に載せて回すようにしたものであり、さらに前記請求の範囲に記載された撮像装置で前記マーカを撮影したものを入力とした計測方法であり、前記撮影画像上におけるマーカ位置から、回転台の角度を推定するステップと、前記推定された回転台の角度をもとにして、各々の回転角で推定された複数の3次元形状を統一した座標系に変換するステップを有し、回転角を推定するための新たな撮像装置や磁気センサなど、追加の装置を必要とせず、自動的に全周形状を復元できることを特徴とする計測方法。
- 請求の範囲第12項に記載の計測装置に、LEDなどのマーカを取り付けた回転台を加えた装置であり、対象物体を前記回転台に載せ、回すことで対象物体の位置を変える手段と、前記請求の範囲に記載された撮像装置で前記マーカを撮影する手段と、前記撮影画像上におけるマーカ位置から、回転台の角度を推定する手段と、前記推定された回転台の角度をもとにして、各々の回転角で推定された複数の3次元形状を統一した座標系に変換する手段を有し、回転角を推定するための新たな撮像装置や磁気センサなど、追加の装置を必要とせず、自動的に全周形状を復元できることを特徴とする計測装置。
- 請求の範囲第17項に記載の計測方法において、前記請求の範囲に記載された撮像装置で連続的にマーカを撮影するステップと、前記画像から回転台が静止しているか動いているかを判定するステップと、前記判定の結果、回転台が静止している時には、自動的に3次元計測を開始するステップを有し、計測者が前記対象物を回転台の上に置き、回転させるだけで自動的に全周形状の獲得ができることを特徴とする計測方法。
- 請求の範囲第18項に記載の計測装置において、前記請求の範囲に記載された撮像装置で連続的にマーカを撮影する手段と、前記画像から回転台が静止しているか動いているかを判定する手段と、前記判定の結果、回転台が静止している時には、自動的に3次元計測を開始する手段を有し、計測者が前記対象物を回転台の上に置き、回転させるだけで自動的に全周形状の獲得ができることを特徴とする計測装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2005/009116 WO2006120759A1 (ja) | 2005-05-12 | 2005-05-12 | 3次元形状計測方法およびその装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2006120759A1 JPWO2006120759A1 (ja) | 2008-12-18 |
JP4230525B2 true JP4230525B2 (ja) | 2009-02-25 |
Family
ID=37396281
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007514941A Expired - Fee Related JP4230525B2 (ja) | 2005-05-12 | 2005-05-12 | 3次元形状計測方法およびその装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US7724379B2 (ja) |
EP (1) | EP1882895A4 (ja) |
JP (1) | JP4230525B2 (ja) |
WO (1) | WO2006120759A1 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014104383A1 (en) | 2012-12-28 | 2014-07-03 | Ricoh Company, Ltd. | Calibration apparatus, projector and calibration method |
JP2014534428A (ja) * | 2011-11-23 | 2014-12-18 | クレアフォーム・インコーポレイテッドCreaform Inc. | 空間コード化スライド画像に対するパターンのアライメント方法およびシステム |
US9441958B2 (en) | 2013-08-12 | 2016-09-13 | Ricoh Company, Ltd. | Device, method, and non-transitory computer-readable recording medium to calculate a parameter for calibration |
US9595106B2 (en) | 2014-11-19 | 2017-03-14 | Ricoh Company, Ltd. | Calibration apparatus, calibration method, and program |
US9739603B2 (en) | 2013-03-15 | 2017-08-22 | Ricoh Company, Ltd. | Calibration device, calibration method, and non-transitory computer-readable recording medium |
Families Citing this family (107)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2625775A1 (en) | 2005-10-14 | 2007-04-19 | Applied Research Associates Nz Limited | A method of monitoring a surface feature and apparatus therefor |
KR100791389B1 (ko) * | 2006-12-26 | 2008-01-07 | 삼성전자주식회사 | 스트럭쳐드 라이트를 이용한 거리 측정 장치 및 방법 |
US8326020B2 (en) * | 2007-02-28 | 2012-12-04 | Sungkyunkwan University Foundation | Structural light based depth imaging method and system using signal separation coding, and error correction thereof |
US8172407B2 (en) * | 2007-05-16 | 2012-05-08 | Honda Motor Co., Ltd. | Camera-projector duality: multi-projector 3D reconstruction |
US8451427B2 (en) | 2007-09-14 | 2013-05-28 | Nikon Corporation | Illumination optical system, exposure apparatus, optical element and manufacturing method thereof, and device manufacturing method |
JP5267029B2 (ja) | 2007-10-12 | 2013-08-21 | 株式会社ニコン | 照明光学装置、露光装置及びデバイスの製造方法 |
SG10201602750RA (en) | 2007-10-16 | 2016-05-30 | Nikon Corp | Illumination Optical System, Exposure Apparatus, And Device Manufacturing Method |
KR101562073B1 (ko) | 2007-10-16 | 2015-10-21 | 가부시키가이샤 니콘 | 조명 광학 시스템, 노광 장치 및 디바이스 제조 방법 |
US8379187B2 (en) | 2007-10-24 | 2013-02-19 | Nikon Corporation | Optical unit, illumination optical apparatus, exposure apparatus, and device manufacturing method |
WO2009061423A2 (en) * | 2007-11-05 | 2009-05-14 | Doubleshot, Inc. | Methods and systems for navigation and terrain change detection |
US9116346B2 (en) | 2007-11-06 | 2015-08-25 | Nikon Corporation | Illumination apparatus, illumination method, exposure apparatus, and device manufacturing method |
FR2928453B1 (fr) * | 2008-03-06 | 2011-01-07 | Peugeot Citroen Automobiles Sa | Systeme de mesure de jeux et d'affleurements et procede correspondant |
KR101695034B1 (ko) | 2008-05-28 | 2017-01-10 | 가부시키가이샤 니콘 | 공간 광 변조기의 검사 장치, 조명 광학계, 노광 장치, 검사 방법, 조명 광학계의 조정 방법, 조명 방법, 노광 방법, 및 디바이스 제조 방법 |
WO2010142929A1 (en) * | 2009-06-11 | 2010-12-16 | Toshiba Research Europe Limited | 3d image generation |
KR101259835B1 (ko) * | 2009-06-15 | 2013-05-02 | 한국전자통신연구원 | 깊이 정보를 생성하기 위한 장치 및 방법 |
JP5567908B2 (ja) * | 2009-06-24 | 2014-08-06 | キヤノン株式会社 | 3次元計測装置、その計測方法及びプログラム |
US9046355B2 (en) * | 2009-07-29 | 2015-06-02 | Canon Kabushiki Kaisha | Measuring apparatus, measuring method, and program |
JP5235842B2 (ja) * | 2009-11-10 | 2013-07-10 | 日本電信電話株式会社 | 光学系パラメータ校正装置、光学系パラメータ校正方法、プログラム、及び記録媒体 |
JP2011153737A (ja) * | 2010-01-26 | 2011-08-11 | Sanyo Electric Co Ltd | 校正装置 |
WO2011098927A1 (en) * | 2010-02-12 | 2011-08-18 | Koninklijke Philips Electronics N.V. | Laser enhanced reconstruction of 3d surface |
DE102010020925B4 (de) | 2010-05-10 | 2014-02-27 | Faro Technologies, Inc. | Verfahren zum optischen Abtasten und Vermessen einer Umgebung |
DE102010022827A1 (de) * | 2010-06-05 | 2011-12-08 | TSK Prüfsysteme GmbH | Höhenvermessungs-Vorrichtung zur Höhenvermessung einer Kraftfahrzeug-Zentralelektrik |
JP5576726B2 (ja) * | 2010-06-29 | 2014-08-20 | キヤノン株式会社 | 三次元計測装置、三次元計測方法、及びプログラム |
US8334985B2 (en) * | 2010-10-08 | 2012-12-18 | Omron Corporation | Shape measuring apparatus and shape measuring method |
JP5907596B2 (ja) * | 2010-10-12 | 2016-04-26 | キヤノン株式会社 | 三次元計測装置、三次元計測方法及びプログラム |
US8866889B2 (en) * | 2010-11-03 | 2014-10-21 | Microsoft Corporation | In-home depth camera calibration |
TW201221900A (en) * | 2010-11-17 | 2012-06-01 | Inst Information Industry | Three-dimensional size measuring system and method for measuring three-dimensional size of object |
KR101174676B1 (ko) * | 2010-11-19 | 2012-08-17 | 주식회사 고영테크놀러지 | 표면형상 측정방법 및 측정장치 |
EP2668614B1 (en) | 2011-01-24 | 2018-05-30 | Datalogic USA, Inc. | Exception detection and handling in automated optical code reading systems |
DE102011000304B4 (de) * | 2011-01-25 | 2016-08-04 | Data M Sheet Metal Solutions Gmbh | Kalibrierung von Laser-Lichtschnittsensoren bei gleichzeitiger Messung |
BR112013029691B1 (pt) * | 2011-05-24 | 2020-10-06 | Koninklijke Philips N.V | Método de determinação de informações da posição de superfícies 3d a partir de uma imagem 2d, e scanner de objetos 3d para determinação de informações de posições 3d |
CA2835306C (en) | 2011-06-07 | 2016-11-15 | Creaform Inc. | Sensor positioning for 3d scanning |
CN102353340B (zh) * | 2011-06-08 | 2013-08-28 | 天津大学 | 缸盖毛坯加工尺寸识别方法及装置 |
KR101974651B1 (ko) * | 2011-06-22 | 2019-05-02 | 성균관대학교산학협력단 | 경계선 상속을 통하여 계층적으로 직교화된 구조광을 디코딩하는 방법 및 이를 이용하는 3차원 거리 영상 측정 시스템 |
JP5761750B2 (ja) * | 2011-07-19 | 2015-08-12 | 国立研究開発法人産業技術総合研究所 | 画像処理方法および装置 |
US8922647B2 (en) * | 2011-08-03 | 2014-12-30 | The Boeing Company | Projection aided feature measurement using uncalibrated camera |
JP5864950B2 (ja) * | 2011-08-15 | 2016-02-17 | キヤノン株式会社 | 三次元計測装置、三次元計測方法およびプログラム |
US9832352B2 (en) * | 2011-11-16 | 2017-11-28 | Autofuss | System and method for 3D projection mapping with robotically controlled objects |
US9179844B2 (en) | 2011-11-28 | 2015-11-10 | Aranz Healthcare Limited | Handheld skin measuring or monitoring device |
JP5900037B2 (ja) * | 2012-03-08 | 2016-04-06 | オムロン株式会社 | 画像処理装置およびその制御方法 |
JP6041513B2 (ja) * | 2012-04-03 | 2016-12-07 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
US8675208B2 (en) | 2012-05-10 | 2014-03-18 | Cognex Corporation | Laser profiling attachment for a vision system camera |
US8937725B2 (en) * | 2012-06-14 | 2015-01-20 | Nikon Corporation | Measurement assembly including a metrology system and a pointer that directs the metrology system |
CA2875820C (en) | 2012-07-04 | 2018-08-21 | Creaform Inc. | 3-d scanning and positioning system |
WO2014013363A1 (en) * | 2012-07-18 | 2014-01-23 | Creaform Inc. | 3-d scanning and positioning interface |
US9163938B2 (en) | 2012-07-20 | 2015-10-20 | Google Inc. | Systems and methods for image acquisition |
DE102012109481A1 (de) | 2012-10-05 | 2014-04-10 | Faro Technologies, Inc. | Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung |
US10067231B2 (en) | 2012-10-05 | 2018-09-04 | Faro Technologies, Inc. | Registration calculation of three-dimensional scanner data performed between scans based on measurements by two-dimensional scanner |
US9117267B2 (en) | 2012-10-18 | 2015-08-25 | Google Inc. | Systems and methods for marking images for three-dimensional image generation |
CN104903680B (zh) * | 2012-11-07 | 2019-01-08 | 阿泰克欧洲公司 | 控制三维物体的线性尺寸的方法 |
FR3001564B1 (fr) * | 2013-01-31 | 2016-05-27 | Vit | Systeme de determination d'une image tridimensionnelle d'un circuit electronique |
US20140267701A1 (en) * | 2013-03-12 | 2014-09-18 | Ziv Aviv | Apparatus and techniques for determining object depth in images |
US9418434B2 (en) * | 2013-04-03 | 2016-08-16 | Mitsubishi Electric Research Laboratories, Inc. | Method for detecting 3D geometric boundaries in images of scenes subject to varying lighting |
US9025863B2 (en) | 2013-06-27 | 2015-05-05 | Intel Corporation | Depth camera system with machine learning for recognition of patches within a structured light pattern |
US20150042758A1 (en) * | 2013-08-09 | 2015-02-12 | Makerbot Industries, Llc | Laser scanning systems and methods |
US20150138320A1 (en) * | 2013-11-21 | 2015-05-21 | Antoine El Daher | High Accuracy Automated 3D Scanner With Efficient Scanning Pattern |
JP6287360B2 (ja) * | 2014-03-06 | 2018-03-07 | オムロン株式会社 | 検査装置 |
WO2015183550A1 (en) * | 2014-05-27 | 2015-12-03 | Bourbaki 13, Inc. | Determining three-dimensional information from projections or placement of two-dimensional patterns |
JP6357949B2 (ja) * | 2014-07-29 | 2018-07-18 | セイコーエプソン株式会社 | 制御システム、ロボットシステム、及び制御方法 |
EP3175615A4 (en) * | 2014-08-01 | 2018-03-28 | Hewlett-Packard Development Company, L.P. | Projection of image onto object |
US9693040B2 (en) | 2014-09-10 | 2017-06-27 | Faro Technologies, Inc. | Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device |
DE102014013677B4 (de) | 2014-09-10 | 2017-06-22 | Faro Technologies, Inc. | Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und unterteiltem Display |
US9602811B2 (en) | 2014-09-10 | 2017-03-21 | Faro Technologies, Inc. | Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device |
WO2016040229A1 (en) * | 2014-09-10 | 2016-03-17 | Faro Technologies, Inc. | Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device |
DE102014013678B3 (de) | 2014-09-10 | 2015-12-03 | Faro Technologies, Inc. | Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und Steuerung durch Gesten |
US9671221B2 (en) | 2014-09-10 | 2017-06-06 | Faro Technologies, Inc. | Portable device for optically measuring three-dimensional coordinates |
TW201616092A (zh) * | 2014-10-22 | 2016-05-01 | 中原大學 | 物體三維形貌之量測方法 |
US10074178B2 (en) * | 2015-01-30 | 2018-09-11 | Dental Imaging Technologies Corporation | Intra-oral image acquisition alignment |
JP6636252B2 (ja) * | 2015-03-19 | 2020-01-29 | 株式会社メガチップス | 投影システム、プロジェクター装置、撮像装置、および、プログラム |
DE102015208285A1 (de) * | 2015-05-05 | 2016-11-10 | Friedrich-Schiller-Universität Jena | Vorrichtung und verfahren zum räumlichen vermessen von oberflächen |
CN105181109B (zh) * | 2015-08-26 | 2018-08-28 | 华北电力大学(保定) | 一种导线脱冰跳跃轨迹双目测量方法 |
US9762897B2 (en) * | 2015-10-21 | 2017-09-12 | National Applied Research Laboratories | Conic section calibration object for calibrating image capturing device |
WO2017090027A1 (en) * | 2015-11-24 | 2017-06-01 | Ilmoby Awareness Systems Ltd. | A system and method to create three-dimensional models in real-time from stereoscopic video photographs |
DE102015122844A1 (de) | 2015-12-27 | 2017-06-29 | Faro Technologies, Inc. | 3D-Messvorrichtung mit Batteriepack |
KR101811696B1 (ko) * | 2016-01-25 | 2017-12-27 | 주식회사 쓰리디시스템즈코리아 | 3차원 스캐닝 장치 및 3차원 스캐닝 방법 |
US9928595B2 (en) | 2016-02-01 | 2018-03-27 | Canon Kabushiki Kaisha | Devices, systems, and methods for high-resolution multi-view camera calibration |
US10531073B2 (en) | 2016-03-17 | 2020-01-07 | Samsung Electronics Co., Ltd. | Method and apparatus for automatic calibration of RGBZ sensors utilizing epipolar geometry and scanning beam projector |
US10013527B2 (en) | 2016-05-02 | 2018-07-03 | Aranz Healthcare Limited | Automatically assessing an anatomical surface feature and securely managing information related to the same |
WO2018213872A1 (en) | 2017-05-22 | 2018-11-29 | The Bionics Institute Of Australia | "systems and methods for monitoring neural activity" |
CN116763325A (zh) | 2016-08-08 | 2023-09-19 | 深部脑刺激技术有限公司 | 用于监测神经活动的系统和方法 |
US9807359B1 (en) * | 2016-11-11 | 2017-10-31 | Christie Digital Systems Usa, Inc. | System and method for advanced lens geometry fitting for imaging devices |
US11116407B2 (en) | 2016-11-17 | 2021-09-14 | Aranz Healthcare Limited | Anatomical surface assessment methods, devices and systems |
US10559085B2 (en) | 2016-12-12 | 2020-02-11 | Canon Kabushiki Kaisha | Devices, systems, and methods for reconstructing the three-dimensional shapes of objects |
CN106584090B (zh) * | 2016-12-26 | 2018-10-02 | 清华大学 | 基于结构光三维测量系统的工件装配方法 |
CN106643555B (zh) * | 2016-12-27 | 2018-11-06 | 清华大学 | 基于结构光三维测量系统的连接件识别方法 |
WO2018149861A1 (en) | 2017-02-15 | 2018-08-23 | 3Shape A/S | Monitoring the scan volume of a 3d scanner |
CN106931910B (zh) * | 2017-03-24 | 2019-03-05 | 南京理工大学 | 一种基于多模态复合编码和极线约束的高效三维图像获取方法 |
US11903723B2 (en) | 2017-04-04 | 2024-02-20 | Aranz Healthcare Limited | Anatomical surface assessment methods, devices and systems |
US10706570B2 (en) * | 2017-05-16 | 2020-07-07 | Phasica, LLC | System and method to acquire the three-dimensional shape of an object using a moving patterned substrate |
DE102017213362A1 (de) * | 2017-08-02 | 2019-02-07 | Siemens Aktiengesellschaft | Bewerten einer Kalibrierung eines Sensorsystems |
JP2019058993A (ja) * | 2017-09-27 | 2019-04-18 | セイコーエプソン株式会社 | ロボットシステム |
AU2017251725A1 (en) * | 2017-10-24 | 2019-05-09 | Canon Kabushiki Kaisha | Calibration of projection systems |
US20190212135A1 (en) * | 2018-01-08 | 2019-07-11 | Lenscloud LLC | Methods And Systems For 3D Scanning |
NL2020405B1 (en) * | 2018-02-08 | 2019-08-19 | Fugro N V | Method of and apparatus for analyzing images |
US11040452B2 (en) * | 2018-05-29 | 2021-06-22 | Abb Schweiz Ag | Depth sensing robotic hand-eye camera using structured light |
FR3082934B1 (fr) * | 2018-06-26 | 2021-10-08 | Safran Nacelles | Dispositif et procede de projection laser pour fabrication de pieces en materiau composite par drapage |
US20200014909A1 (en) | 2018-07-03 | 2020-01-09 | Faro Technologies, Inc. | Handheld three dimensional scanner with autofocus or autoaperture |
US10679367B2 (en) * | 2018-08-13 | 2020-06-09 | Hand Held Products, Inc. | Methods, systems, and apparatuses for computing dimensions of an object using angular estimates |
JP7219034B2 (ja) * | 2018-09-14 | 2023-02-07 | 株式会社ミツトヨ | 三次元形状測定装置及び三次元形状測定方法 |
CN109341576B (zh) * | 2018-10-09 | 2020-10-27 | 广东奥普特科技股份有限公司 | 一种快速测量物体表面三维形貌及颜色的方法 |
US11758110B2 (en) | 2019-02-28 | 2023-09-12 | Nec Corporation | Camera calibration information acquisition device, image processing device, camera calibration information acquisition method, and recording medium |
CN110441981A (zh) * | 2019-07-26 | 2019-11-12 | 华中科技大学 | 一种彩色结构光投影装置 |
CN110763152B (zh) * | 2019-10-09 | 2021-08-20 | 哈尔滨工程大学 | 一种水下主动旋转结构光三维视觉测量装置及测量方法 |
JP2021117437A (ja) | 2020-01-29 | 2021-08-10 | セイコーエプソン株式会社 | 推定方法、計測方法および推定装置 |
JP2021135133A (ja) | 2020-02-26 | 2021-09-13 | セイコーエプソン株式会社 | 電子機器の制御方法および電子機器 |
CN111553955B (zh) * | 2020-04-30 | 2024-03-15 | 北京航达青云科技有限公司 | 一种多目相机三维系统及其标定方法 |
CN116182703A (zh) * | 2023-01-31 | 2023-05-30 | 桂林电子科技大学 | 一种线结构光传感器标定方法及系统 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19618140A1 (de) * | 1996-05-06 | 1997-11-13 | Fraunhofer Ges Forschung | 3D-Meßanordnung zur Ganzkörpererfassung und Einmessung einer entsprechenden Meßanordnung |
AU3991799A (en) * | 1998-05-14 | 1999-11-29 | Metacreations Corporation | Structured-light, triangulation-based three-dimensional digitizer |
EP1037069A3 (en) | 1999-03-17 | 2004-01-14 | Matsushita Electric Industrial Co., Ltd. | Rangefinder |
JP3517628B2 (ja) * | 1999-03-17 | 2004-04-12 | 松下電器産業株式会社 | レンジファインダ装置 |
DE19928341C2 (de) * | 1999-06-21 | 2002-06-20 | Inb Vision Ag | Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen |
US6937348B2 (en) * | 2000-01-28 | 2005-08-30 | Genex Technologies, Inc. | Method and apparatus for generating structural pattern illumination |
JP2001268594A (ja) | 2000-03-15 | 2001-09-28 | Infiniteface.Com Inc | 三次元ビューティーシミュレーション用クライアントサーバシステム |
US7061628B2 (en) * | 2001-06-27 | 2006-06-13 | Southwest Research Institute | Non-contact apparatus and method for measuring surface profile |
US7286246B2 (en) * | 2003-03-31 | 2007-10-23 | Mitutoyo Corporation | Method and apparatus for non-contact three-dimensional surface measurement |
JP2005037378A (ja) * | 2003-06-30 | 2005-02-10 | Sanyo Electric Co Ltd | 奥行計測方法と奥行計測装置 |
-
2005
- 2005-05-12 US US11/920,265 patent/US7724379B2/en not_active Expired - Fee Related
- 2005-05-12 EP EP05741283A patent/EP1882895A4/en not_active Withdrawn
- 2005-05-12 WO PCT/JP2005/009116 patent/WO2006120759A1/ja not_active Application Discontinuation
- 2005-05-12 JP JP2007514941A patent/JP4230525B2/ja not_active Expired - Fee Related
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014534428A (ja) * | 2011-11-23 | 2014-12-18 | クレアフォーム・インコーポレイテッドCreaform Inc. | 空間コード化スライド画像に対するパターンのアライメント方法およびシステム |
WO2014104383A1 (en) | 2012-12-28 | 2014-07-03 | Ricoh Company, Ltd. | Calibration apparatus, projector and calibration method |
US9532020B2 (en) | 2012-12-28 | 2016-12-27 | Ricoh Company, Ltd. | Calibration apparatus, projector and calibration method |
US9739603B2 (en) | 2013-03-15 | 2017-08-22 | Ricoh Company, Ltd. | Calibration device, calibration method, and non-transitory computer-readable recording medium |
US9441958B2 (en) | 2013-08-12 | 2016-09-13 | Ricoh Company, Ltd. | Device, method, and non-transitory computer-readable recording medium to calculate a parameter for calibration |
US9595106B2 (en) | 2014-11-19 | 2017-03-14 | Ricoh Company, Ltd. | Calibration apparatus, calibration method, and program |
Also Published As
Publication number | Publication date |
---|---|
JPWO2006120759A1 (ja) | 2008-12-18 |
US20090097039A1 (en) | 2009-04-16 |
WO2006120759A1 (ja) | 2006-11-16 |
US7724379B2 (en) | 2010-05-25 |
EP1882895A1 (en) | 2008-01-30 |
EP1882895A4 (en) | 2012-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4230525B2 (ja) | 3次元形状計測方法およびその装置 | |
Feng et al. | Calibration of fringe projection profilometry: A comparative review | |
JP5285619B2 (ja) | カメラシステムのキャリブレーション | |
JP6317760B2 (ja) | 3次元表面測定のための装置および方法 | |
JP5583761B2 (ja) | 動的基準フレームを用いた3次元表面検出方法及び装置 | |
JP5943547B2 (ja) | 非接触測定を行う装置および方法 | |
JP6041513B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
WO2011145285A1 (ja) | 画像処理装置、画像処理方法およびプログラム | |
WO2007137388A1 (en) | Photogrammetric system and techniques for 3d acquisition | |
JP6282098B2 (ja) | キャリブレーション装置及び方法 | |
CN110940295B (zh) | 基于激光散斑极限约束投影的高反射物体测量方法及系统 | |
JP2015090298A (ja) | 情報処理装置、情報処理方法 | |
CN113008195B (zh) | 一种基于空间点云的三维曲面距离测量方法及系统 | |
Horbach et al. | 3D reconstruction of specular surfaces using a calibrated projector–camera setup | |
Strobl et al. | More accurate camera and hand-eye calibrations with unknown grid pattern dimensions | |
CN112686961A (zh) | 一种深度相机标定参数的修正方法、装置 | |
JP2007508557A (ja) | 三次元物体を走査するための装置 | |
JP6237032B2 (ja) | 色と三次元形状の計測方法及び装置 | |
US7046839B1 (en) | Techniques for photogrammetric systems | |
KR20190050819A (ko) | 가정된 캘리브레이션 모델 없이 측정된 데이터를 이용하여 캘리브레이션을 수행하는 방법 및 상기 방법을 수행하는 3차원 스캐너 캘리브레이션 시스템 | |
US11143499B2 (en) | Three-dimensional information generating device and method capable of self-calibration | |
Mavrinac et al. | Calibration of dual laser-based range cameras for reduced occlusion in 3D imaging | |
CN114170321A (zh) | 一种基于测距的相机自标定方法及系统 | |
Li et al. | A method for 3D measurement and reconstruction for active vision | |
Elnashef et al. | Direct estimation of the relative orientation in underwater environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20081111 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20081203 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111212 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111212 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121212 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131212 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
R370 | Written measure of declining of transfer procedure |
Free format text: JAPANESE INTERMEDIATE CODE: R370 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |