JP4230525B2 - 3次元形状計測方法およびその装置 - Google Patents

3次元形状計測方法およびその装置 Download PDF

Info

Publication number
JP4230525B2
JP4230525B2 JP2007514941A JP2007514941A JP4230525B2 JP 4230525 B2 JP4230525 B2 JP 4230525B2 JP 2007514941 A JP2007514941 A JP 2007514941A JP 2007514941 A JP2007514941 A JP 2007514941A JP 4230525 B2 JP4230525 B2 JP 4230525B2
Authority
JP
Japan
Prior art keywords
imaging device
target object
projector
pattern projector
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007514941A
Other languages
English (en)
Other versions
JPWO2006120759A1 (ja
Inventor
洋 川崎
亮 古川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TECHNO DREAM 21 Co Ltd
Original Assignee
TECHNO DREAM 21 Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TECHNO DREAM 21 Co Ltd filed Critical TECHNO DREAM 21 Co Ltd
Publication of JPWO2006120759A1 publication Critical patent/JPWO2006120759A1/ja
Application granted granted Critical
Publication of JP4230525B2 publication Critical patent/JP4230525B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2504Calibration devices
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2509Color coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration

Description

本発明は、パターン投光機によって対象物体に照射されたパターン光を撮像装置で撮影し、撮影された画像から三角測量の原理で3次元形状を推定する計測装置に関し、特に、パターン投光機と撮像装置との位置関係を事前に計測する必要のない3次元形状計測装置に関する。
ステレオによる3次元計測は、大きくパッシブステレオ方式とアクティブステレオ方式の2つに分けることが出来る。前者は、複数枚の画像さえあれば形状を復元できるため、特殊な装置などが必要無く手軽に計測を行うことが出来、便利である。ところが、対応点探索時の誤差を解消することは通常困難であり、また対応点の候補は画像上の特徴点に限られるため、密な形状データを得るためには結果の補間が必要であり、特徴点以外でのデータの信頼性は保証されない。
一方でアクティブステレオ方式はプロジェクタまたはレーザなどを利用するため、対応点問題がなく、精度の良い3次元計測が可能である。また、レーザのスキャンやパターン光投影法などにより、容易に密な形状データを得ることができる。このため、複雑な形状を持った物体の形状の計測には、多くの場合アクティブ3次元計測装置が用いられる。
このようなアクティブ3次元計測装置の欠点として、多くの場合専用の装置が必要となることが挙げられる。例えば、高い精度で、効率の良い計測装置として、サーボアクチュエータによりレーザ照射機器の制御を行うものがあるが、モータの精密な制御の必要性などから、大掛かりかつ、高価な機器となってしまうことが問題である。また、専用の投光機を用いた光構造投影装置なども用いられてきたが、やはり高価である。
近年、安価なPC用のプロジェクタが普及してきており、このようなデバイスを用いることで、アクティブビジョンによる実用的な計測装置を手軽に実現することが可能となってきている。中でも、パターン光投影法(パターンコード化法)は、計測にかかる時間が短く、密な3次元点を比較的短時間に得ることができること、計測のためのサーボモータなど特殊な機器を用意することなく市販のビデオプロジェクタを使用することが出来ること、などの利点から広く利用されている。パターン光投影法の研究例として、(非特許文献1〜非特許文献5)などが挙げられる。
アクティブステレオ方式の別な問題点として、システムの状態を変えるたびにカメラとプロジェクタ間の校正が必要となることが挙げられる。特に投光機と受光機が分離したパターン光投影法のようなシステムの場合は計測装置を移動する度に事前校正をおこなうことが必要であり、システムの利便性を大きく損なうこととなる。アクティブプロジェクト方式でありながら、事前の外部校正が必要無くなれば、装置も簡略化できこれまでのアクティブ系の大きな欠点が解消され、より実用的なシステムになることが期待される。
パッシブステレオにおける自己校正手法を、カメラの一方をプロジェクタに置き換えることでアクティブステレオシステムに適用する研究が試みられている。例として、(非持許文献6)の研究が挙げられる。しかし、こらの手法は、射影空間内での再構築手法を提案したものであり、ユークリッド復元には、アフィンカメラモデルを仮定し、かつ、画像内に平面が必要であるなど、多くの実現困難な仮定があり、実用的なシステムではなかった。
J.Batlle,E.Mouaddib and J.Salvi著「"Recent progress in coded structured light as a technique to solve the correspondence problem:a survey",Pattern Recognition,31.7,pp.963−982,1998」 D.Caspi,N.Kiryati and J.Shamir著「"Range imaging with adaptive color structured light",IEEE Trans.on Patt.Anal.Machine Intell.,20,5,pp.470−480,1998」 K.L.Boyer and A.C.Kak著「"Color−encoded structured light for rapid active ranging",IEEE Trans.on Patt.Anal.Machine Intell.,9,1,pp.14−28,1987」 S.Inokuchi,K.Sato and F.Matsuda著「"Range imaging system for 3−D object recognition",ICPR,pp.806−808,1984」 O.Hall−Holt and S.Rusinkiewicz著「"Stripe boundary codes for real−time structured−light range scanning of moving objects",Int.Conf.Computer Vision,Vol.2,pp.359−366,2001」 D.Fofi,J.Salvi and E.M.Mouaddib著「"Uncalibrated vision based on structured light",ICRA,pp.3548−3553,2001」
本発明では未校正なアクティブステレオシステムから3次元復元する手法を提案する。この方式はカメラ同士のパッシブステレオペアにおける自己校正方式における一方のカメラを、プロジェクタに置き換えたものと同等と考えることが出来る。
主な相違点としては、通常のカメラペアによるパッシブステレオにおいては、得られる対応点が疎であるのに対して、本手法では非常に密な対応点を得られる点にある。そのため、本手法では、密な対応点により安定した自己校正が実現でき、また密な3次元復元が実現出来る。
さらに、3次元精度を向上させるため、繰り返し幾度か計測したすべてのデータを同時に用いることで、よりロバストかつ高精度に3次元復元する手法についても提案する。また、未校正の3次元形状の再構築においては決定できないスケーリングを簡易な装置で解消する手法も提案する。
第1図は、請求の範囲の説明図であるとともに、本発明を利用した3次元計測装置の構成例を示したものである。
第2図、第3図、第4図、第5図、第6図は、請求の範囲の説明図である。
第7図は、本発明の実施形態例を示したものである。
第8図は、本発明において使用する構造化光のパターンの例を示したものである。
第9図は、構造化光のパターンを対象物体に照射しながら撮影したものを、本発明に入力する画像の例として示したものである。
第10図は、3次元再構成の手順のうちで、カメラ−プロジェクタ間の位置関係およびカメラの内部パラメータおよびプロジェクタの内部パラメータの自己校正のアルゴリズムを表したものである。
第11図は、第5図で表した自己校正のアルゴリズムを、誤差に対してより頑健にしたものを表したものである。
第12図は、プロジェクタとカメラを固定して、対象物体を動かしながら複数回の計測を行ったとき、結果的に得られる形状の精度を上げるための同時再構成のアルゴリズムを表したものである。
第13図は、プロジェクタを固定し、カメラのみを動かしながら、同一のシーンの形状を計測したとき、それらの形状の精度を上げるためのバンドル再構成のアルゴリズムを表したものである。
第14図は、マーカーつき回転テーブルを用いることで、全周形状の自動獲得を実現する装置を示したものである。
第15図は、回転テーブルの回転軸を推定するために、回転テーブル上にキャリブレーションパターンを設置したものを示したものである。
第16図は、画像上のマーカーの位置から、回転テーブルの回転角度を求める計算過程を表したものである。
第17図は、回転テーブル上のマーカーを識別するために、回転半径の異なる位置にマーカーを設置した例を示したものである。
第18図は、片方の装置を固定し、他方を移動しながら計測する様子を示したものである。
以下、図面を参照して本発明の実施の形態を説明する。
本発明の3次元計測システムの構成を述べる。まず、本発明の実施形態を用いた、3次元計測装置のシステムの例を第1図に示す。このシステムは、プロジェクタをパターン投光機とし(1−1)と、カメラを撮像装置(1−3)としたものである。プロジェクタには、投光機として、1つのレーザポインタが固定してある(1−2)。このレーザポインタは、スケーリングを実スケールに合わせるために用いられる。対象物体のスケーリングを正確に知る必要がない場合、このレーザポインタは不要である。計測時には、対象物体にプロジェクタとカメラを向け、計測を始める。対象物体に複数のパターン(構造化光)を投影しながら、撮影を行う。また、結果として得られる3次元形状のスケーリングを決定する場合には、レーザポインタから対象物体に光を照射し、撮影を行う。
本発明の実施形態では、上記の方法で撮影された画像の集合から、対象物体表面の点の3次元位置を求める。第7図を参照しながら、その方法の概略を述べる。まず、入力である構造化光を照射したシーンの画像(7−1)から、構造化光のデコード(7−2)によって、カメラおよびプロジェクタの対応点の集合(7−3)が求められる。これらのデータから、自己校正(7−4)の手法により、カメラ、プロジェクタ間の位置関係を表すパラメータ(7−5)が推定される。推定されたパラメータと、対応点の集合から、ステレオ法により(7−6)、対応点の3次元位置がスケーリングを除いて求められる(7−7)。次に、レーザポインタから対象物体に光を照射した画像(7−9)と、レーザポインタとプロジェクタの位置関係(7−8)を参照して、スケーリングの大きさを決定する(7−10)。
本発明を用いた3次元計測装置には、以下の特徴がある。
・ 入力画像を撮影するときの、プロジェクタとカメラの設置方法は任意であり、あらかじめそれらの位置関係の校正を行う必要がない。
・ 計測シーンに、特に制限は無い。
・ 計測は全て自動であり、人手を介す必要が無い。
・ 密な距離画像が、スケーリングの曖昧性無く求められる
以下では、本発明における、プロジェクタとカメラ間の対応点の取得方法について述べる。本発明では、密な形状を得るために多くの対応点が必要である。アクティブステレオ方式においては、構造化光を用いた3角測量により、3次元座標を獲得をすることが良く行われる。その際、効率良く対応点を得る手法として、パターン光投影法がこれまで多く提案されて来ている(非特許文献1〜非特許文献5)。これは、コード化したパターンを対象物体に投影し、撮影された画像上のパターンをデコードすることで、光の照射された位置の識別を実現する方式である。これを適用すれば、多くの対応点を得ることが出来る。そこで、本発明でもこのパターン光投影法により、画像とプジェクタの対応を得ることにする。例えば、井口ら(非特許文献4)により提案されたグレイコードパターン(第8図)を用い、これを縦、横、2回スキャンすることで1点1点の識別を実現することが出来る(第9図)。これにより、撮影した画像上のピクセル点(u、v)と、パターン上の座標(x、y)に関する、非常に多くの対応関係を求めることが出来る。勿論、その他全ての構造化光による手法を用いることが出来る。
次に本発明により、推定されるパラメータについて述べる。本発明では、自由にカメラとプロジェクタを動かしても、校正をやり直す必要のないアクティブステレオシステムが構築される。そのため、計測データからカメラパラメータ、特に外部パラメータの自己校正をおこなうことが必要となる。本発明では、カメラおよびプロジェクタの内部パラメータと、外部パラメータを推定することができる。内部パラメータの一部が既知である場合もある。
実施例として、カメラの内部パラメータを既知とし、プロジェクタの内部パラメータのうち焦点距離を未知とした場合について説明する。これは、カメラの内部パラメータを得るには、既存の多くの手法から比較的簡易に精度良く求められるのに対し、プロジェクタの内部パラメータを得る手法は、それ程一般的ではないこと、また、計測の際に、プロジェクタの焦点距離を動かす機会がカメラのそれよりも多いことから、実用的に重要な実施例である。
本発明における、自己校正と3次元復元の方法を、上記の実施例について開示する。
本発明では、ニュートン法などの非線形最適化により、各パラメータの自己校正を行う。近年、計算機の計算能力が向上し、非線形最適化による計算量の増大が問題にならなくなってきたことから、最初から非線形最適化で3次元形状復元を行うことが研究されている。本発明でも、このアプローチを利用することができる。まず、第10図を参照しながら、カメラ−プロジェクタ間の位置関係を自己校正する方法の概要を説明する。
カメラ−プロジェクタ間の対応関係の集合(10−1)に、カメラおよびプロジェクタの投影モデルを適用する(10−2)と、カメラおよびプロジェクタから、対応点へ向かう方向の集合(10−3)が得られる。これらの対応点と、カメラ、プロジェクタは、エピポーラ拘束を満たす。ここで、カメラ−プロジェクタ間の位置関係パラメータとプロジェクタの焦点距離を入力とし、各対応点がエピポーラ拘束を満足する場合に最小となるような誤差関数を定義する。その関数を、位置関係のパラメータに対して最小化することで、カメラ−プロジェクタ間の位置関係を推定する。具体的には、位置関係および内部パラメータの推定値(10−5)について、誤差関数を減少させるような更新量(10−6)を、線形方程式を解くことで求める(10−4)。パラメータの推定値は、更新幅が小さくなるまで、繰り返し更新される(10−7)。
以下、対応点の集合と、位置関係パラメータの推定値から、位置関係パラメータの更新量を求める方法を述べる。カメラに対して固定された座標系をカメラ座標系と呼び、この座標系で表された座標をカメラ座標と呼ぶ。プロジェクタ座標系とプロジェクタ座標も同様である。カメラ座標系(プロジェクタ座標系)の原点は、それぞれの機器の光学的中心点である。カメラ座標系(プロジェクタ座標系)におけるz軸の負の方向が、カメラ(プロジェクタ)の前方となる。また、カメラ座標系(プロジェクタ座標系)のx軸及びy軸方向は、その画像平面の水平及び垂直軸に平行である。プロジェクタ座標系も同様に定義する。
既に述べたとおり、本実施例では、カメラの内部パラメータを既知とし、プロジェクタの内部パラメータのうち焦点距離を未知としている。プロジェクタの焦点距離をfとし、プロジェクタ座標による、i番目の対応点の方向ベクトルを、
Figure 0004230525
とする。また、プロジェクタ座標からカメラ座標への剛体変換を、回転行列Rと平行移動ベクトルtであらわす。回転行列をオイラー角α,β,γで表し、対応する回転行列をR(α,β,γ)と表記する。平行移動ベクトル‖t‖のノルムは、対応点のみからは決定できない。よって、tは単位ベクトルであると仮定し、これを極座標の2個の座標値(ρ,φ)によって表現する。極座標の座標値で表現されたtをt(ρ,φ)と表記する。
i番目の対応点をカメラから観測したときの座標を、レンズの歪曲による影響を補正した後正規化カメラ座標に変換し、
Figure 0004230525
で表す。エピポーラ拘束が成り立つとすると、カメラ及びプロジェクタから対応点方向に向けられた視線が交差する。プロジェクタから対応点に向かう直線をカメラ座標で表すと、
Figure 0004230525
である。ただし、γは媒介変数である。カメラから対応点に向かう直線は
Figure 0004230525
である。ただしsは媒介変数である。
上記の2直線()および()の3次元空間中での距離を最小化することで、エピポーラ拘束を成立させるようなパラメータを推定する。2直線の方向ベクトルを、
Figure 0004230525
とする。ただし、Nはベクトルを正規化する演算子(つまり、Nx:=x/‖x‖)とし、
θ:=(α,β,γ)はプロジェクタの外部パラメータをまとめたものである。このとき、2直線の距離の式は
Figure 0004230525
となる。ただし、“・”は内積を、τ:−(ρ,φ)は平行移動パラメータを表す。
(θ,τ,f)は、推定パラメータ(θ,τ,f)や参照点番号iに依存する系統的な誤差を含む。パラメータ(θ,τ,f)の推定を偏り無く行うには、予想される誤差の分散に関して、E(θ,τ,f)を正規化する必要がある。エピポーラ拘束を仮定して、カメラとプロジェクタから参照点への距離は次のようになる。
Figure 0004230525
と表される。ここでεとεは、カメラおよびプロジェクタに固有の誤差を、正規化された画像平面における距離として表したものとする。本発明では、例えば、正規化された画像平面における画素の大きさを、これらの値として用いることができる。他にも、あらかじめカメラおよびプロジェクタの誤差の分布がわかっている場合には、それらの分布の分散を利用することが出来る。カメラとプロジェクタの誤差の大きさが、あまり大きくない場合には、εとεを同じ値としてもよい。非線形最適化によって最小化する関数f(θ,τ,f)は、以下のように記述できる。
Figure 0004230525
ただし、Kは参照点の数を表す。
上記の関数の最小化を、ニュートン法によって次のように行うことができる。j回目の繰り返し処理における解を(θ,τ,fp,j)とする。このとき、連立線型方程式
Figure 0004230525
θ=θ,τ=τ,f=fp,j(θ,τ,fp,j)における値をとる。N>6(つまり、変数の数が制約式より多い)より、この方程式には一般に解が無いが、一般化逆行列を利用すると等式の両辺の誤差の二乗和を最小化するΔα,…,Δfを求めることができる。この値を用いて、推定値を以下の式にしたがって繰り返し更新することで、評価関数の最小化を行うことができる。
Figure 0004230525
の式により求められる。ただし、x⊥yは、ベクトルxにおいて、yに垂直な成分を表す(つまり、
Figure 0004230525
ciがρに依存しないので、
Figure 0004230525
式(10)から成る連立方程式の係数行列を、N×6行列Mとする。連立方程式の安定性を、Mの最大特異値λmax及び最小特異値λminの比λmin/λmaxで評価することができる。この値は、Mの6個の列ベクトルの「線形独立性の強さ」の評価値でもある。
式(13)より、エピポーラ平面の法線ベクトルN(pci×qci)の分散が小さいと、Mの列ベクトルの線形独立性が弱くなり、解の安定性が悪くなる。これは、プロジェクタをカメラの横に置く場合、カメラあるいはプロジェクタに対するシーンの上下の画角が小さい場合に相当する。
(9)式の評価関数の最小化による再構成は、(upi,υpi,−fおよび(uci,υci,−1)について、特に大きな誤差を含むもの(アウトライア)がある場合には、推定されるパラメータの信頼性が低くなる場合がある。少数のアウトライアに対する高い頑健性を持つ再構成方法として、評
Figure 0004230525
うち、比較的小さな値を持つもののみを利用することが効果的である(第11図)。このためには、
Figure 0004230525
いもののみを採用すればよい。この手法の実装の一例は、すべての対応点を、その誤差
Figure 0004230525
選び出し(11−1)、連立方程式(10)からそれらの対応点(11−2)に対しての式を選び出した連立方程式を解くことで、パラメータの更新幅Δα,…,Δfを決定すること(11−3)である。
上記の頑健な再構成法について、最初から対応点の90%のみを利用してパラメータ(θ,τ,fp,j)の収束を行うと、収束の安定性が損なわれる場合がある。この対策として、最初に、すべての対応点を使って(θ,τ,fp,j)の値を収束するまで更新した後、上記の頑健な再構成法を適用して再構成をおこなってもよい。
また、アウトライアの割合が高い場合には、利用する対応点の割合を小さくすると頑健性が増す。この時、最初はすべての対応点を利用し、次に対応点の90%、次に80%というように、徐々に利用する対応点を減らしていくことで、収束の安定性が増す場合がある。
推定するパラメータに、プロジェクタの焦点距離fを含めると、最適化における収束の安定性が悪化する場合がある。この場合には、まず、プロジェクタの焦点距離fを固定し、外部パラメータのみについて最適化を行い、収束が得られたら、次にfを変数に含めて最適化を行うと、安定して収束が得られる場合がある。
また、プロジェクタの焦点距離fが、あらかじめ精度よく求められている場合には、fを最後まで固定パラメータとし、最適化に利用しない方が、最終的な解の精度が上がる。
プロジェクタがカメラに対し、右側にあるか、左側にあるか、などといった情報が、前提として得られる場合には、それを外部パラメータの初期値として与えた方がよい。カメラおよびプロジェクタから対象物体方向を見たときに、プロジェクタがカメラの左側にある場合(第1図と同じ)には、回転行列Rの初期値を単位行列、平行移動ベクトルtの初期値を(−1、0、0)とするとよい。逆に、プロジェクタがカメラの右側にある場合には、tの初期値を(1、0、0)とするとよい。さらに、プロジェクタとカメラの角度が大まかにわかる場合には、それらをオイラー角の初期値として与える。
推定されたパラメータtとRをステレオ手法に適応することにより、直接3次元形状の復元が可能となる。
自己校正によるステレオ法ではスケーリングの値が決められないため、実際の使用に問題が生じる場合がある。その1つに、計測対象の全周形状を獲得するために全方向から計測を行ったとき、それぞれの計測ごとにスケーリングパラメータが異なることが挙げられる。本発明では、この問題に関して2つの解決手法を述べる。一つ目は、複数の計測結果から同時にカメラパラメータの推定を行い、スケーリングの一貫性を保つことであり、二つ目はプロジェクタにレーザポインタを取り付けることで、計測結果の実際のスケーリングを決定する方法である。
まず、上記の一つめの方法である,複数シーンの同時3次元再構成法によりスケーリングの一貫性を保つ手法について説明する。
複数の計測結果から同時にカメラパラメータの推定を行い、再構成を行うことを、本発明では同時3次元再構成と呼ぶ。以下、第12図を参照しながら、同時3次元再構成の概要を述べる。前提として、計測対象は移動可能であると仮定する。まず、カメラとプロジェクタの位置を固定したままで、計測対象を動かしながら複数回の計測を行う。これらの計測データ(12−1、12−2、12−3)は、カメラとプロジェクタの内部および外部パラメータを共有する。よって、これらの計測で得られた対応点(12−4、12−5、12−6)をまとめた集合(12−7)を自己校正の入力とすることにより、既に述べたアルゴリズムを用いて、これらの計測データの共通パラメータ(12−8)を推定することができる。推定された共通パラメータを用いて、それぞれの計測データの3次元再構成を行う(12−9、12−10、12−11)。
複数の計測データの同時再構成を行うことによる利点として、各計測結果のスケーリングの一貫性を保つことができることがあげられる。このことは、単一物体を複数の方向から計測して、結果を統合する場合には、特に重要となる。
また別の利点として、解の安定性を改善することが期待される。一般的に、未校正3次元再構築を行う際に、解の安定性を悪化させる要因として、焦点距離の変化による観測値(この場合はqci)の変化と、シーンとカメラとの距離の変化による観測値の変化が見分けにくいことが挙げられる。異なる深さ値を持つ、複数のシーンの対応部分を利用すれば、これらの変化の差が容易に観測でき、解の安定性を改善することができると考えられる。特に、計測対象物体が平面に近い場合には、1度の計測では不安定な解となるが、対象物体を動かして何度か計測し、同時再構成を行えば、安定化の効果が大きい。
次に、プロジェクタにレーザポインタを取り付けることで、計測結果の実際のスケーリングを決定する方法を開示する。
求められた形状データは、実際の形状とスケーリングが異なる。前節で述べた同時再構成を用いると、複数の計測結果のスケーリングを一致させることができるが、実際のスケーリングを決定することはできない。これを決定する方法としては、
1.計測対象の特定の点の距離を実測する。
2.形状既知の物体をあらかじめ計測し、その後プロジェクタとカメラの位置を変えずに計測する。
3.形状既知の物体を、計測対象と同時に計測する。
という方法がある。しかしどの手法も計測の手間を増やし、手順を完全に自動化することは困難である。
本発明では、プロジェクタにレーザポインタを固定し、そのレーザの照射位置を計測時に測定することで、スケーリングの決定を行う方法を提案する。レーザポインタは、プロジェクタ座標に対して固定された直線上に光を投射する。投射した光の直線の式(4−5)はあらかじめ求めておく必要があるため、事前に、既知形状を持つ物体をレーザポインタを照射しながら複数回計測する。これにより、光線上の複数の点をプロジェクタ座標で表し、それらを通る直線の式を算出することが出来る。この作業は、プロジェクタにレーザポインタを取り付けたときに1度だけ実行すれば良い。
計測対象物体(4−3)のスケーリングを決定するには、計測時にレーザポインタで光を照射し、その照射位置をカメラで検出する(4−4)。検出された点の、スケーリングを除いて測定された3次元位置(4−3)を、プロジェクタ座標系で(xpmpmpmとする。実際の3次元位置は、スケーリングの大きさをλとしてλ(xpm pm pmと表される。λを媒介変数とみなすと、これらの点はプロジェクタ座標の原点と、(xpm pm pmとを結ぶ直線を表す。実際の3次元位置には、レーザポインタの光線も通過するので、直線λ(xpm pm pmとあらかじめ求められたレーザポインタの光線との交点を求めることで、未定のλ(4−7)を確定することが出来る。
次に、静止した対象物体について、プロジェクタおよびカメラのうち、片方を固定し、もう片方を動かしながら、複数回の3次元計測を行うことで、それぞれの計測で得られた3次元形状を、同一の座標系で表現する手法について述べる(第18図)。
本発明の3次元計測方法では、前もってプロジェクタとカメラの相対位置を計測する必要が無く、それらの装置を移動しながら計測することができる。この時、プロジェクタ、あるいはカメラのいずれかを固定(18−1)しておき、もう一方を動かしながら、複数回の計測を行う(18−2、18−3、18−4、18−5)とする。この時、それぞれの計測について3次元形状が求められるが、これらの3次元形状を、すべて、固定された方の装置の座標系で表現するとする。説明図の場合には、(18−1)と(18−2)、(18−1)と(18−3)の間で計測がおこなわれるが、これらの計測で求められた形状を、すべて(18−1)の装置の座標系で表す。すると、複数の計測結果は、すべて同じ座標系で表される。これらの計測結果のスケーリングは一定ではないが、計測結果の共通部分から、1個、あるいは複数個の点を取りだし、その点までの(18−1)の装置の座標系での深さを比較すると、スケーリングをあわせることができる。
この手法の利点として、オクルージョンにより、計測結果に欠損が生じるのを、複数の計測でカバーしあうことで、抑制することができる点が挙げられる。
上述したように、静止した対象物体を、プロジェクタおよびカメラのうち、片方を固定し、もう片方を動かしながら、計測したとき、バンドル調整手法と呼ばれる方法によって、結果の精度を向上させることができる。以下に、簡易的なバンドル調整手法を述べる。
既に述べた自己校正およびステレオ法による3次元再構成では、対応点の数を増しても精度が上がりにくい場合がある。例えば、カメラおよびプロジェクタから目標物体への距離が、シーンまでの深さの変化に比べて比較的大きく、デバイスへの投影が、擬似中心投影に近い場合などである。擬似中心投影を仮定した場合、2枚の画像の対応点からは自己校正の解を求めることができない。よって、投影が擬似中心投影に近い場合も、対応点の数にかかわらず解が不安定になる。先に述べた同時3次元再構成によりシーンまでの深さの変化を大きくできる場合には、この問題を解決できる場合があるが、焦点深度が小さい場合などこの手法を利用しにくい場合もある。このような場合、3枚以上の画像を利用することにより、解の不安定性を軽減することができる。3枚以上の画像があれば、擬似中心投影の条件下でも、3次元再構成を行うことが可能である。
そこで、カメラあるいはプロジェクタの片方を固定して、もう一方を動かしながら複数回の計測を行うことを考える(第18図と同様)。この集合から、簡易的なバンドル調整によって外部パラメータの自己校正結果の改良を行うことが出来る。その結果、上記の方法で計測した複数の3次元復元結果について、各々の精度を高めることができる。以下、第13図を参照しながら、プロジェクタを固定し、カメラを移動しながら撮影する場合のバンドル調整の手順を説明する。カメラを移動する場合でも、処理はまったく同じである。
バンドル調整のために、全てのカメラと、プロジェクタに共通の参照点(13−3、13−4)を選び出す。これらの参照点の3次元座標と、全てのカメラの外部パラメータとを推定する。i番目の参照点の3次元座標(プロジェクタ座標系)の、プロジェクタからみたときの深さの推定値(13−11、13−12)をd(i=1,2,..,N)、(Nは参照点の数である)で、カメラjの外部パラメータ(13−6、13−7)をθで表す。これらの値の初期値としては、既に述べた自己校正および3次元再構成による結果を利用する。バンドル調整のアルゴリズムは以下の通りである。
Step 1
サンプリングによって、全てのカメラとプロジェクタから観測可能な3次元点(13−3、13−4)を、参照点として選ぶ。
Step 2
参照点の初期値を、一つのカメラとプロジェクタ関する自己校正および3次元再構成によって求める。
Step 3
以下の手順を、θの変化が十分小さくなるまで繰り返す。
Step 3.1
全てのカメラ番号j=1,2,...,Nについて、以下の手順を繰り返す。
Step 3.1.1
参照点のプロジェクタからの深さの、現在の推定値d=(i=1,2,..,N)(13−14)から、カメラjのカメラパラメータθ(13−6、13−7)を更新する。
Step 3.2
現在のθから、d(i=1,2,..,N)を更新する。
カメラパラメータθの更新は、以下のように行う。カメラ座標系で表された3次元点xを、j番目のカメラの外部パラメータθ:=αc,j,βc,j,γc,j,tc,jによってプロジェクタ座標系へ変換した座標を、Trans(θ,x)とする。標準カメラにおける射影を表す写像をProjと書く。
Figure 0004230525
をθについて最小化することで、j番目のカメラの位置と方向を推定することができる(13−5、13−8)。この最小化の処理は、通常の透視投影カメラにおける、3次元−2次元対応のカメラ校正問題である。これを解くには、例えばNewton法などを用いて行うことができる。シンプレックス効果法など、他の非線形最適化を用いても良い。また、最適化の初期値を求めるために、カメラ校正の線形解法を利用してもよい。
参照点のプロジェクタからの深さの推定値d(i=1,2,..N)(13−14)の更新は、以下のように行う。プロジェクタと各カメラの対応点から、その時点での外部パラメータの推定値を元に参照点位置を再構成し、プロジェクタと参照点位置の距離を計算する。この距離の、各カメラに関する平均をとることで、新しい参照点を算出する。この処理は、以下のように行う。
Step 1
以下の処理を、カメラ番号j=1,2,...,Nについて繰り返す。
Step 1.1
各参照点とプロジェクタとの距離(13−11、13−12)を、プロジェクタとj番目のカメラとの対応点(13−3、13−4)および外部パラメータθ(13−6、13−7)から求める。出力は、k番目の参照点のプロジェクタからの深さdk,j(13−11、13−12)とする。
Step 2
Figure 0004230525
る。
次に、本発明における全周形状の推定方法を開示する。
対象物体の全周形状を得るには、対象物体の方向を変えながら、それぞれの方向から3次元再構成を行い、結果として得られた3次元形状の位置あわせと統合を行う必要がある。
この時、カメラとプロジェクタを固定し、対象物体の方向を変えながら、それぞれの方向について対応点の計測を行い、前述した「複数シーンの同時3次元再構成」の手法を適用することで、各方向について再構成された3次元形状のスケーリングを一致させることができ、3次元形状の位置あわせを容易にすることができる。
上記の方法において、さらに、対象物体の方向を変えるために、ターンテーブルを利用するなどの手段によって、方向変化をある軸に対する回転に限定すると、対象物体の方向の変化の推定が容易になる。これにより、3次元形状の位置あわせの処理を、さらに単純化することができる。
上記の方法において、回転量を制御可能なターンテーブルを使うと、対象物体の方向の変化の推定がさらに容易になり、全周形状の推定精度を上げることができる、対象物体の方向の変化を推定するための別の方法として、マーカーのついたターンテーブルを利用する方法が考えられる(第14図)。これには、カメラ以外のセンサを利用せず、画像処理で回転角を求めることができるという利点と、特徴点の抽出が容易であるという利点がある。
この回転テーブルを用いて回転角度を計算する方法について述べる。まず、回転テーブルの回転軸や回転平面について、事前にキャリブレーションを行う。
回転テーブルに設置してあるLEDは、テーブルを回転させると、2次元画像上では楕円を描く。そこで、その楕円を解析すれば、回転軸を推定することができる。回転テーブルのキャリブレーションには、回転テーブルにキャリブレーションパターンを貼って、回転させながらそれを計測し、そのパターンから最適化計算で求める手法を利用しても良い(第15図)。
次に、カメラ中心と画像平面上のLEDとを結ぶ直線を、回転テーブルの方向へ伸ばして、実際のLEDとぶつかる点の3次元座標を求める。この座標と、前記キャリブレーションパラメータから、回転テーブルの回転角度とLEDの回転中心からの距離(回転半径)を計算することができる(第16図)。
また、回転テーブルに計測対象を置くと、その物体の陰になったLEDは見えなくなるため、複数のLEDを設置し、常にLEDが観測されるようにしておく。その場合、複数あるLEDの回転半径をそれぞれ異なる値とすることで、各LEDを識別可能にしておくと良い(第17図)。複数あるLEDを識別するためには、異なる回転半径を用いるほかに、異なる色を用いたり、LEDの大きさを変える、などの手法も有効である。
また、事前にキャリブレーションを行わない手法も考えられる。これは、回転テーブルを回転させながら、本発明によりLED位置の3次元座標を複数得て、これが同一平面に乗っており、かつ、同一の回転軸で回転している、という条件を適用することで、回転軸を容易に計算することが出来るため、実現可能である。
また、LEDの別な使い道としては、スイッチとしての利用方法がある。例えば撮像装置としてビデオカメラを使用すれば、LEDが動いた時、これを容易に検知することが出来る。また静止していることも同様に検知可能である。従って、LEDが動いている時、すなわち回転テーブルが動いている時は計測を行わず、回転テーブルが静止した時に、それを検知し、自動的に本発明による3次元計測を開始すれば、スイッチとして利用可能である。これにより、ユーザは、計測対象を回転テーブルの上に置き、パソコンやその他の機器を操作することなく、単に計測対象を回転テーブルと共に回転させるだけで、対象物体の全周の形状を自動的に計測することが出来る。
以上説明したように、この発明によれば、プロジェクタとカメラを使って撮影した画像から、対象物体の3次元形状を計測することができる。この時、プロジェクタとカメラの位置関係は、自動的に推定される。これは、従来の同様のシステムが、事前に位置関係の校正を必要としたのに対し、作業量を大きく短縮し、計測に必要な前提知識を減らすことができる。
また、レーザポインタをプロジェクタに取り付けた装置を用いると、対象物体のスケーリングを決定することができる。これは、スケーリングが必要となるような形状モデルの作成に重要である。
また、物体を複数の方向から計測し、同時再構成を行うことで、対象物体の全周形状の構築が、容易に行えるようになる。その際に、LEDつきの回転テーブルを用いれば、追加の機器を必要とせず、簡易に自動的な全周形状復元が可能となる。

Claims (20)

  1. 相対的な位置関係が固定されたパターン投光機(1−1)と撮像装置(1−3)を用いて、前記パターン投光機により対象物体(1−4)に照射されたパターン光を前記撮像装置で撮影した1枚または複数枚の画像(2−1)を入力とする計測方法であり、前記撮影された画像(2−1)のパターンから、パターン投光機と撮像装置のエピポーラ拘束を利用することで、パターン投光機の内部パラメータおよび撮像装置の内部パラメータおよびパターン投光機と撮像装置の相対的な位置関係(2−3)を推定するステップ(2−2)と、前記撮影されたパターン光(2−1)と前記推定されたパターン投光機および撮像装置の内部パラメータおよび相対的な位置関係(2−3)とを用いて3角測量の原理により前記対象物体表面の3次元座標(2−5)を推定するステップ(2−4)とを有し、前記パターン投光機と前記撮像装置に関して、特殊な仮定をおく必要がないことと、事前に前記パターン投光機および前記撮像装置の内部パラメータおよび相対的な位置関係を計測することなしに前記対象物体表面の3次元座標を推定可能であることを特徴とする計測方法。
  2. 相対的な位置関係が固定されたパターン投光機(1−1)と撮像装置(1−3)からなる計測装置であり、前記パターン投光機により対象物体(1−4)に照射されたパターン光の画像を前記撮像装置で撮影する手段と、前記撮影された画像から、請求の範囲第1項の方法を用いて前記対象物体表面の3次元座標を推定する手段とを有し、前記パターン投光機と前記撮像装置に関して、特殊な仮定をおく必要がないことと、事前に前記パターン投光機および前記撮像装置の内部パラメータおよび相対的な位置関係を計測することなしに前記対象物体表面の3次元座標を推定可能であることを特徴とする計測装置。
  3. 相対的な位置関係が固定されたパターン投光機(1−1)と撮像装置(1−3)を用いて、1または複数種類のパターン光を静止した対象物体(1−4)に照射しながら、前記撮像装置で撮影した1枚または複数枚の画像(3−1)を入力とする計測方法であり、前記パターン投光機で照射された表面上の点について、撮像装置からその点の方向とプロジェクタからその点への方向のデータ(3−3)を、入力された画像(3−1)を用いて決定するステップ(3−2)と、前記ステップで用意されたデータ(3−3)を用いて、パターン投光機と撮像装置についてのエピポーラ拘束条件を解くことにより、パターン投光機の内部パラメータおよび撮像装置の内部パラメータおよびパターン投光機と撮像装置の相対的な位置関係(3−5)を推定するステップ(3−4)と、前記ステップで用意されたデータ(3−3)と、前記ステップにより推定されたパターン投光機および撮像装置の内部パラメータおよび相対的な位置関係(3−5)とを用いて、3角測量の原理により前記対象物体表面の3次元座標(3−7)を推定するステップ(3−6)を有し、前記パターン投光機と前記撮像装置に関して、特殊な仮定をおく必要がないことと、事前に前記パターン投光機および前記撮像装置の内部パラメータおよび相対的な位置関係を計測することなしに前記対象物体表面の3次元座標を推定可能であることを特徴とする計測方法。
  4. 相対的な位置関係が固定されたパターン投光機(1−1)と撮像装置(1−3)からなる計測装置であり、前記パターン投光機により対象物体(1−4)に照射されたパターン光の画像を前記撮像装置で撮影する手段と、前記撮影された画像から、請求の範囲第3項の方法を用いて前記対象物体表面の3次元座標を推定する手段とを有し、前記パターン投光機と前記撮像装置に関して、特殊な仮定をおく必要がないことと、事前に前記パターン投光機および前記撮像装置の内部パラメータおよび相対的な位置関係を計測することなしに前記対象物体表面の3次元座標を推定可能であることを特徴とする計測装置。
  5. 請求の範囲第1項乃至第3項のいずれかに記載の計測方法において、第1項乃至第3項いずれかに記載の入力(4−1)のほかに、前記請求の範囲に記載されたパターン投光機(1−1)の所定の位置に取り付けられたレーザポインタなどの投光装置(1−2)から照射されたレーザ光を、前記請求の範囲に記載された撮像装置(1−3)で撮影したもの(4−4)と、前記投光装置と前記パターン投光機の相対的な位置関係(4−5)を入力とし、第1項乃至第3項いずれかの方法によって推定された対象物体の3次元座標の集合(4−3)と、前記撮影された照射レーザ光(4−4)と、前記投光装置と前記パターン投光機の相対的な位置関係(4−5)とを用いて、請求の範囲第1項乃至第3項のいずれかに記載の計測方法で推定された対象物体表面の3次元座標のスケーリング・パラメータ(4−7)を決定するステップ(4−6)を有し、前記対象物体表面の3次元座標(4−3)と、そのスケーリング(4−7)が得られることを特徴とする計測方法。
  6. 請求の範囲第2項乃至第4項のいずれかに記載の計測装置において、レーザポインタなどの投光装置(1−2)を前記請求の範囲に記載されたパターン投光機(1−1)の所定の位置に取り付けたものを使用し、前記投光装置から照射されたレーザ光を前記請求の範囲に記載された撮像装置で撮影する手段と、前記撮影された照射レーザ光(4−4)と、前記投光装置と前記パターン投光機の相対的な位置関係(4−5)とを用いて、請求の範囲第5項に記載の計測方法によって対象物体表面の3次元座標のスケーリング(4−7)を得る手段を有し、前記対象物体表面の3次元座標(4−3)と、そのスケーリング(4−7)が得られることを特徴とする計測装置。
  7. 相対的な位置関係が固定されたパターン投光機(1−1)と撮像装置(1−3)を用いて、前記パターン投光機により対象物体(1−4)に照射されたパターン光を前記撮像装置で撮影した1枚または複数枚の画像を一つの画像セットとし、前記パターン投光機(1−1)乃至撮像装置(1−3)のいずれか片方(18−1)を固定し、他方を移動させながら(18−2,18−3,18−4,18−5)、それぞれの位置で撮影した画像セットをまとめたものを入力とする計測方法であり、前記画像セットのそれぞれについて、請求の範囲第1項乃至第3項いずれかの方法で3次元形状を求めるステップと、前記得られた複数の3次元形状を、前記固定された方の装置(18−1)の座標系に変換するステップを有し、前記複数の計測で得られた3次元形状の、自動的な位置あわせとスケーリングの一致を実現することを特徴とする計測方法。
  8. 相対的な位置関係が固定されたパターン投光機(1−1)と撮像装置(1−3)からなる計測装置であり、前記パターン投光機により対象物体(1−4)に照射されたパターン光の画像を前記撮像装置で撮影し、一つの画像セットとする手段と、前記撮影手段を、前記パターン投光機(1−1)乃至撮像装置(1−3)のいずれか片方(18−1)を固定し、他方を移動させながら(18−2,18−3,18−4,18−5)、繰り返すことで、複数の画像セットを得る手段と、前記手段で得られた複数の画像セットを用いて、請求の範囲第7項の方法によって3次元形状の計測を行う手段を有し、前記複数の計測で得られた3次元形状の、自動的な位置あわせとスケーリングの一致を実現することを特徴とする計測装置。
  9. 請求の範囲第7項に記載の計測方法において、各画像セットについて前記固定された方の装置の座標系で求められた3次元形状(5−5、5−6)の、共通部分における3次元座標のずれの和を誤差(5−7)として計算するステップと、これを最小化(5−8)することによって、パターン投光機および撮像装置の内部パラメータおよび相対的な位置関係を補正する(5−9、5−10)ステップ(5−8)を有し、3次元座標の推定精度が向上することを特徴とする計測方法。
  10. 請求の範囲第8項に記載の計測装置において、請求の範囲第9項に記載の方法によって各画像セットについての3次元形状を計測する手段を有し、3次元座標の推定精度が向上することを特徴とする計測装置。
  11. 相対的な位置関係が固定されたパターン投光機(1−1)と撮像装置(1−3)を用いて、前記パターン投光機により対象物体(1−4)に照射されたパターン光を前記撮像装置で撮影した1枚または複数枚の画像を一つの画像セットとし、前記画像セットを、対象物体の位置を変えながら、それぞれについて取得した複数の画像セット(6−1、6−2、6−3)を入力とする計測方法であり、入力された画像セット(6−1、6−2、6−3)を用いて、その画像セットが撮影されたときの前記撮像装置および前記プロジェクタから対象物体上の点への方向のデータ(6−5、6−6、6−7)を決定するステップ(6−4)と、前記ステップで得られた方向データ(6−5、6−6、6−7)を用いて、パターン投光機と撮像装置についてのエピポーラ拘束条件を解くことにより、パターン投光機の内部パラメータおよび撮像装置の内部パラメータおよびパターン投光機と撮像装置との相対的な位置関係(6−9)を推定するステップ(6−8)と、前記ステップで得られた方向データ(6−5、6−6、6−7)と、前記ステップにより推定されたパターン投光機および撮像装置の内部パラメータおよび相対的な位置関係(6−9)とを用いて、3角測量の原理によりそれぞれの画像セットに対する対象物体表面の3次元座標(6−11、6−12、6−13)を推定するステップ(6−10)を有し、事前に前記パターン投光機および前記撮像装置の内部パラメータおよび相対的な位置関係を計測することなしに前記対象物体表面の3次元座標を、複数の対象物体位置のそれぞれについて推定することと、各物体位置について得られる対象物体表面の3次元座標について、それぞれの精度を向上させられることと、スケーリングを一致させられることを特徴とする計測方法。
  12. 相対的な位置関係が固定されたパターン投光機(1−1)と撮像装置(1−3)からなる計測装置であり、前記パターン投光機により対象物体(1−4)に照射されたパターン光の画像を前記撮像装置で撮影し、一つの画像セットとする手段と、対象物体の位置を変えながら、前記手段を繰り返すことで、複数の画像セット(6−1、6−2、6−3)を得る手段と、前記取得した画像セットから、請求の範囲第11項に記載の計測方法によって、各画像セットに対する対象物体表面の3次元座標(6−11、6−12、6−13)を推定する手段を有し、事前に前記パターン投光機および前記撮像装置の内部パラメータおよび相対的な位置関係を計測することなしに対象物体表面の3次元座標を、複数の対象物体位置のそれぞれについて推定することと、各対象物体位置について得られる対象物体表面の3次元座標について、それぞれの精度を向上させられることと、スケーリングを一致させられることを特徴とする計測装置。
  13. 請求の範囲第11項に記載の計測方法の入力において、対象物体を移動させながら画像セットを得るかわりに別の対象物体に変えながら画像セットを得るものを使用する計測方法。
  14. 請求の範囲第12項に記載の計測装置において、対象物体を移動させながら画像セットを得るかわりに、別の対象物体に変えながら画像セットを得る計測装置。
  15. 請求の範囲第11項に記載の計測方法において、前記対象物体の全周形状を得るために、前記方法により得られる複数の3次元形状の、位置合わせを行うステップを有し、複数の3次元形状からスケーリングの一致した全周形状を復元出来ることを特徴とする計測方法。
  16. 請求の範囲第12項に記載の計測装置において、前記対象物体の全周形状を得るために、前記装置により得られる複数の3次元形状の、位置合わせを行う手段を有し、複数の3次元形状からスケーリングの一致した全周形状を復元出来ることを特徴とする計測装置。
  17. 請求の範囲第11項に記載の計測方法において、その入力において対象物体の位置を変える代わりに、対象物体を、LEDなどのマーカを取り付けた回転台に載せて回すようにしたものであり、さらに前記請求の範囲に記載された撮像装置で前記マーカを撮影したものを入力とした計測方法であり、前記撮影画像上におけるマーカ位置から、回転台の角度を推定するステップと、前記推定された回転台の角度をもとにして、各々の回転角で推定された複数の3次元形状を統一した座標系に変換するステップを有し、回転角を推定するための新たな撮像装置や磁気センサなど、追加の装置を必要とせず、自動的に全周形状を復元できることを特徴とする計測方法。
  18. 請求の範囲第12項に記載の計測装置に、LEDなどのマーカを取り付けた回転台を加えた装置であり、対象物体を前記回転台に載せ、回すことで対象物体の位置を変える手段と、前記請求の範囲に記載された撮像装置で前記マーカを撮影する手段と、前記撮影画像上におけるマーカ位置から、回転台の角度を推定する手段と、前記推定された回転台の角度をもとにして、各々の回転角で推定された複数の3次元形状を統一した座標系に変換する手段を有し、回転角を推定するための新たな撮像装置や磁気センサなど、追加の装置を必要とせず、自動的に全周形状を復元できることを特徴とする計測装置。
  19. 請求の範囲第17項に記載の計測方法において、前記請求の範囲に記載された撮像装置で連続的にマーカを撮影するステップと、前記画像から回転台が静止しているか動いているかを判定するステップと、前記判定の結果、回転台が静止している時には、自動的に3次元計測を開始するステップを有し、計測者が前記対象物を回転台の上に置き、回転させるだけで自動的に全周形状の獲得ができることを特徴とする計測方法。
  20. 請求の範囲第18項に記載の計測装置において、前記請求の範囲に記載された撮像装置で連続的にマーカを撮影する手段と、前記画像から回転台が静止しているか動いているかを判定する手段と、前記判定の結果、回転台が静止している時には、自動的に3次元計測を開始する手段を有し、計測者が前記対象物を回転台の上に置き、回転させるだけで自動的に全周形状の獲得ができることを特徴とする計測装置。
JP2007514941A 2005-05-12 2005-05-12 3次元形状計測方法およびその装置 Expired - Fee Related JP4230525B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2005/009116 WO2006120759A1 (ja) 2005-05-12 2005-05-12 3次元形状計測方法およびその装置

Publications (2)

Publication Number Publication Date
JPWO2006120759A1 JPWO2006120759A1 (ja) 2008-12-18
JP4230525B2 true JP4230525B2 (ja) 2009-02-25

Family

ID=37396281

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007514941A Expired - Fee Related JP4230525B2 (ja) 2005-05-12 2005-05-12 3次元形状計測方法およびその装置

Country Status (4)

Country Link
US (1) US7724379B2 (ja)
EP (1) EP1882895A4 (ja)
JP (1) JP4230525B2 (ja)
WO (1) WO2006120759A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014104383A1 (en) 2012-12-28 2014-07-03 Ricoh Company, Ltd. Calibration apparatus, projector and calibration method
JP2014534428A (ja) * 2011-11-23 2014-12-18 クレアフォーム・インコーポレイテッドCreaform Inc. 空間コード化スライド画像に対するパターンのアライメント方法およびシステム
US9441958B2 (en) 2013-08-12 2016-09-13 Ricoh Company, Ltd. Device, method, and non-transitory computer-readable recording medium to calculate a parameter for calibration
US9595106B2 (en) 2014-11-19 2017-03-14 Ricoh Company, Ltd. Calibration apparatus, calibration method, and program
US9739603B2 (en) 2013-03-15 2017-08-22 Ricoh Company, Ltd. Calibration device, calibration method, and non-transitory computer-readable recording medium

Families Citing this family (107)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2625775A1 (en) 2005-10-14 2007-04-19 Applied Research Associates Nz Limited A method of monitoring a surface feature and apparatus therefor
KR100791389B1 (ko) * 2006-12-26 2008-01-07 삼성전자주식회사 스트럭쳐드 라이트를 이용한 거리 측정 장치 및 방법
US8326020B2 (en) * 2007-02-28 2012-12-04 Sungkyunkwan University Foundation Structural light based depth imaging method and system using signal separation coding, and error correction thereof
US8172407B2 (en) * 2007-05-16 2012-05-08 Honda Motor Co., Ltd. Camera-projector duality: multi-projector 3D reconstruction
US8451427B2 (en) 2007-09-14 2013-05-28 Nikon Corporation Illumination optical system, exposure apparatus, optical element and manufacturing method thereof, and device manufacturing method
JP5267029B2 (ja) 2007-10-12 2013-08-21 株式会社ニコン 照明光学装置、露光装置及びデバイスの製造方法
SG10201602750RA (en) 2007-10-16 2016-05-30 Nikon Corp Illumination Optical System, Exposure Apparatus, And Device Manufacturing Method
KR101562073B1 (ko) 2007-10-16 2015-10-21 가부시키가이샤 니콘 조명 광학 시스템, 노광 장치 및 디바이스 제조 방법
US8379187B2 (en) 2007-10-24 2013-02-19 Nikon Corporation Optical unit, illumination optical apparatus, exposure apparatus, and device manufacturing method
WO2009061423A2 (en) * 2007-11-05 2009-05-14 Doubleshot, Inc. Methods and systems for navigation and terrain change detection
US9116346B2 (en) 2007-11-06 2015-08-25 Nikon Corporation Illumination apparatus, illumination method, exposure apparatus, and device manufacturing method
FR2928453B1 (fr) * 2008-03-06 2011-01-07 Peugeot Citroen Automobiles Sa Systeme de mesure de jeux et d'affleurements et procede correspondant
KR101695034B1 (ko) 2008-05-28 2017-01-10 가부시키가이샤 니콘 공간 광 변조기의 검사 장치, 조명 광학계, 노광 장치, 검사 방법, 조명 광학계의 조정 방법, 조명 방법, 노광 방법, 및 디바이스 제조 방법
WO2010142929A1 (en) * 2009-06-11 2010-12-16 Toshiba Research Europe Limited 3d image generation
KR101259835B1 (ko) * 2009-06-15 2013-05-02 한국전자통신연구원 깊이 정보를 생성하기 위한 장치 및 방법
JP5567908B2 (ja) * 2009-06-24 2014-08-06 キヤノン株式会社 3次元計測装置、その計測方法及びプログラム
US9046355B2 (en) * 2009-07-29 2015-06-02 Canon Kabushiki Kaisha Measuring apparatus, measuring method, and program
JP5235842B2 (ja) * 2009-11-10 2013-07-10 日本電信電話株式会社 光学系パラメータ校正装置、光学系パラメータ校正方法、プログラム、及び記録媒体
JP2011153737A (ja) * 2010-01-26 2011-08-11 Sanyo Electric Co Ltd 校正装置
WO2011098927A1 (en) * 2010-02-12 2011-08-18 Koninklijke Philips Electronics N.V. Laser enhanced reconstruction of 3d surface
DE102010020925B4 (de) 2010-05-10 2014-02-27 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung
DE102010022827A1 (de) * 2010-06-05 2011-12-08 TSK Prüfsysteme GmbH Höhenvermessungs-Vorrichtung zur Höhenvermessung einer Kraftfahrzeug-Zentralelektrik
JP5576726B2 (ja) * 2010-06-29 2014-08-20 キヤノン株式会社 三次元計測装置、三次元計測方法、及びプログラム
US8334985B2 (en) * 2010-10-08 2012-12-18 Omron Corporation Shape measuring apparatus and shape measuring method
JP5907596B2 (ja) * 2010-10-12 2016-04-26 キヤノン株式会社 三次元計測装置、三次元計測方法及びプログラム
US8866889B2 (en) * 2010-11-03 2014-10-21 Microsoft Corporation In-home depth camera calibration
TW201221900A (en) * 2010-11-17 2012-06-01 Inst Information Industry Three-dimensional size measuring system and method for measuring three-dimensional size of object
KR101174676B1 (ko) * 2010-11-19 2012-08-17 주식회사 고영테크놀러지 표면형상 측정방법 및 측정장치
EP2668614B1 (en) 2011-01-24 2018-05-30 Datalogic USA, Inc. Exception detection and handling in automated optical code reading systems
DE102011000304B4 (de) * 2011-01-25 2016-08-04 Data M Sheet Metal Solutions Gmbh Kalibrierung von Laser-Lichtschnittsensoren bei gleichzeitiger Messung
BR112013029691B1 (pt) * 2011-05-24 2020-10-06 Koninklijke Philips N.V Método de determinação de informações da posição de superfícies 3d a partir de uma imagem 2d, e scanner de objetos 3d para determinação de informações de posições 3d
CA2835306C (en) 2011-06-07 2016-11-15 Creaform Inc. Sensor positioning for 3d scanning
CN102353340B (zh) * 2011-06-08 2013-08-28 天津大学 缸盖毛坯加工尺寸识别方法及装置
KR101974651B1 (ko) * 2011-06-22 2019-05-02 성균관대학교산학협력단 경계선 상속을 통하여 계층적으로 직교화된 구조광을 디코딩하는 방법 및 이를 이용하는 3차원 거리 영상 측정 시스템
JP5761750B2 (ja) * 2011-07-19 2015-08-12 国立研究開発法人産業技術総合研究所 画像処理方法および装置
US8922647B2 (en) * 2011-08-03 2014-12-30 The Boeing Company Projection aided feature measurement using uncalibrated camera
JP5864950B2 (ja) * 2011-08-15 2016-02-17 キヤノン株式会社 三次元計測装置、三次元計測方法およびプログラム
US9832352B2 (en) * 2011-11-16 2017-11-28 Autofuss System and method for 3D projection mapping with robotically controlled objects
US9179844B2 (en) 2011-11-28 2015-11-10 Aranz Healthcare Limited Handheld skin measuring or monitoring device
JP5900037B2 (ja) * 2012-03-08 2016-04-06 オムロン株式会社 画像処理装置およびその制御方法
JP6041513B2 (ja) * 2012-04-03 2016-12-07 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US8675208B2 (en) 2012-05-10 2014-03-18 Cognex Corporation Laser profiling attachment for a vision system camera
US8937725B2 (en) * 2012-06-14 2015-01-20 Nikon Corporation Measurement assembly including a metrology system and a pointer that directs the metrology system
CA2875820C (en) 2012-07-04 2018-08-21 Creaform Inc. 3-d scanning and positioning system
WO2014013363A1 (en) * 2012-07-18 2014-01-23 Creaform Inc. 3-d scanning and positioning interface
US9163938B2 (en) 2012-07-20 2015-10-20 Google Inc. Systems and methods for image acquisition
DE102012109481A1 (de) 2012-10-05 2014-04-10 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US10067231B2 (en) 2012-10-05 2018-09-04 Faro Technologies, Inc. Registration calculation of three-dimensional scanner data performed between scans based on measurements by two-dimensional scanner
US9117267B2 (en) 2012-10-18 2015-08-25 Google Inc. Systems and methods for marking images for three-dimensional image generation
CN104903680B (zh) * 2012-11-07 2019-01-08 阿泰克欧洲公司 控制三维物体的线性尺寸的方法
FR3001564B1 (fr) * 2013-01-31 2016-05-27 Vit Systeme de determination d'une image tridimensionnelle d'un circuit electronique
US20140267701A1 (en) * 2013-03-12 2014-09-18 Ziv Aviv Apparatus and techniques for determining object depth in images
US9418434B2 (en) * 2013-04-03 2016-08-16 Mitsubishi Electric Research Laboratories, Inc. Method for detecting 3D geometric boundaries in images of scenes subject to varying lighting
US9025863B2 (en) 2013-06-27 2015-05-05 Intel Corporation Depth camera system with machine learning for recognition of patches within a structured light pattern
US20150042758A1 (en) * 2013-08-09 2015-02-12 Makerbot Industries, Llc Laser scanning systems and methods
US20150138320A1 (en) * 2013-11-21 2015-05-21 Antoine El Daher High Accuracy Automated 3D Scanner With Efficient Scanning Pattern
JP6287360B2 (ja) * 2014-03-06 2018-03-07 オムロン株式会社 検査装置
WO2015183550A1 (en) * 2014-05-27 2015-12-03 Bourbaki 13, Inc. Determining three-dimensional information from projections or placement of two-dimensional patterns
JP6357949B2 (ja) * 2014-07-29 2018-07-18 セイコーエプソン株式会社 制御システム、ロボットシステム、及び制御方法
EP3175615A4 (en) * 2014-08-01 2018-03-28 Hewlett-Packard Development Company, L.P. Projection of image onto object
US9693040B2 (en) 2014-09-10 2017-06-27 Faro Technologies, Inc. Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device
DE102014013677B4 (de) 2014-09-10 2017-06-22 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und unterteiltem Display
US9602811B2 (en) 2014-09-10 2017-03-21 Faro Technologies, Inc. Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device
WO2016040229A1 (en) * 2014-09-10 2016-03-17 Faro Technologies, Inc. Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device
DE102014013678B3 (de) 2014-09-10 2015-12-03 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und Steuerung durch Gesten
US9671221B2 (en) 2014-09-10 2017-06-06 Faro Technologies, Inc. Portable device for optically measuring three-dimensional coordinates
TW201616092A (zh) * 2014-10-22 2016-05-01 中原大學 物體三維形貌之量測方法
US10074178B2 (en) * 2015-01-30 2018-09-11 Dental Imaging Technologies Corporation Intra-oral image acquisition alignment
JP6636252B2 (ja) * 2015-03-19 2020-01-29 株式会社メガチップス 投影システム、プロジェクター装置、撮像装置、および、プログラム
DE102015208285A1 (de) * 2015-05-05 2016-11-10 Friedrich-Schiller-Universität Jena Vorrichtung und verfahren zum räumlichen vermessen von oberflächen
CN105181109B (zh) * 2015-08-26 2018-08-28 华北电力大学(保定) 一种导线脱冰跳跃轨迹双目测量方法
US9762897B2 (en) * 2015-10-21 2017-09-12 National Applied Research Laboratories Conic section calibration object for calibrating image capturing device
WO2017090027A1 (en) * 2015-11-24 2017-06-01 Ilmoby Awareness Systems Ltd. A system and method to create three-dimensional models in real-time from stereoscopic video photographs
DE102015122844A1 (de) 2015-12-27 2017-06-29 Faro Technologies, Inc. 3D-Messvorrichtung mit Batteriepack
KR101811696B1 (ko) * 2016-01-25 2017-12-27 주식회사 쓰리디시스템즈코리아 3차원 스캐닝 장치 및 3차원 스캐닝 방법
US9928595B2 (en) 2016-02-01 2018-03-27 Canon Kabushiki Kaisha Devices, systems, and methods for high-resolution multi-view camera calibration
US10531073B2 (en) 2016-03-17 2020-01-07 Samsung Electronics Co., Ltd. Method and apparatus for automatic calibration of RGBZ sensors utilizing epipolar geometry and scanning beam projector
US10013527B2 (en) 2016-05-02 2018-07-03 Aranz Healthcare Limited Automatically assessing an anatomical surface feature and securely managing information related to the same
WO2018213872A1 (en) 2017-05-22 2018-11-29 The Bionics Institute Of Australia "systems and methods for monitoring neural activity"
CN116763325A (zh) 2016-08-08 2023-09-19 深部脑刺激技术有限公司 用于监测神经活动的系统和方法
US9807359B1 (en) * 2016-11-11 2017-10-31 Christie Digital Systems Usa, Inc. System and method for advanced lens geometry fitting for imaging devices
US11116407B2 (en) 2016-11-17 2021-09-14 Aranz Healthcare Limited Anatomical surface assessment methods, devices and systems
US10559085B2 (en) 2016-12-12 2020-02-11 Canon Kabushiki Kaisha Devices, systems, and methods for reconstructing the three-dimensional shapes of objects
CN106584090B (zh) * 2016-12-26 2018-10-02 清华大学 基于结构光三维测量系统的工件装配方法
CN106643555B (zh) * 2016-12-27 2018-11-06 清华大学 基于结构光三维测量系统的连接件识别方法
WO2018149861A1 (en) 2017-02-15 2018-08-23 3Shape A/S Monitoring the scan volume of a 3d scanner
CN106931910B (zh) * 2017-03-24 2019-03-05 南京理工大学 一种基于多模态复合编码和极线约束的高效三维图像获取方法
US11903723B2 (en) 2017-04-04 2024-02-20 Aranz Healthcare Limited Anatomical surface assessment methods, devices and systems
US10706570B2 (en) * 2017-05-16 2020-07-07 Phasica, LLC System and method to acquire the three-dimensional shape of an object using a moving patterned substrate
DE102017213362A1 (de) * 2017-08-02 2019-02-07 Siemens Aktiengesellschaft Bewerten einer Kalibrierung eines Sensorsystems
JP2019058993A (ja) * 2017-09-27 2019-04-18 セイコーエプソン株式会社 ロボットシステム
AU2017251725A1 (en) * 2017-10-24 2019-05-09 Canon Kabushiki Kaisha Calibration of projection systems
US20190212135A1 (en) * 2018-01-08 2019-07-11 Lenscloud LLC Methods And Systems For 3D Scanning
NL2020405B1 (en) * 2018-02-08 2019-08-19 Fugro N V Method of and apparatus for analyzing images
US11040452B2 (en) * 2018-05-29 2021-06-22 Abb Schweiz Ag Depth sensing robotic hand-eye camera using structured light
FR3082934B1 (fr) * 2018-06-26 2021-10-08 Safran Nacelles Dispositif et procede de projection laser pour fabrication de pieces en materiau composite par drapage
US20200014909A1 (en) 2018-07-03 2020-01-09 Faro Technologies, Inc. Handheld three dimensional scanner with autofocus or autoaperture
US10679367B2 (en) * 2018-08-13 2020-06-09 Hand Held Products, Inc. Methods, systems, and apparatuses for computing dimensions of an object using angular estimates
JP7219034B2 (ja) * 2018-09-14 2023-02-07 株式会社ミツトヨ 三次元形状測定装置及び三次元形状測定方法
CN109341576B (zh) * 2018-10-09 2020-10-27 广东奥普特科技股份有限公司 一种快速测量物体表面三维形貌及颜色的方法
US11758110B2 (en) 2019-02-28 2023-09-12 Nec Corporation Camera calibration information acquisition device, image processing device, camera calibration information acquisition method, and recording medium
CN110441981A (zh) * 2019-07-26 2019-11-12 华中科技大学 一种彩色结构光投影装置
CN110763152B (zh) * 2019-10-09 2021-08-20 哈尔滨工程大学 一种水下主动旋转结构光三维视觉测量装置及测量方法
JP2021117437A (ja) 2020-01-29 2021-08-10 セイコーエプソン株式会社 推定方法、計測方法および推定装置
JP2021135133A (ja) 2020-02-26 2021-09-13 セイコーエプソン株式会社 電子機器の制御方法および電子機器
CN111553955B (zh) * 2020-04-30 2024-03-15 北京航达青云科技有限公司 一种多目相机三维系统及其标定方法
CN116182703A (zh) * 2023-01-31 2023-05-30 桂林电子科技大学 一种线结构光传感器标定方法及系统

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19618140A1 (de) * 1996-05-06 1997-11-13 Fraunhofer Ges Forschung 3D-Meßanordnung zur Ganzkörpererfassung und Einmessung einer entsprechenden Meßanordnung
AU3991799A (en) * 1998-05-14 1999-11-29 Metacreations Corporation Structured-light, triangulation-based three-dimensional digitizer
EP1037069A3 (en) 1999-03-17 2004-01-14 Matsushita Electric Industrial Co., Ltd. Rangefinder
JP3517628B2 (ja) * 1999-03-17 2004-04-12 松下電器産業株式会社 レンジファインダ装置
DE19928341C2 (de) * 1999-06-21 2002-06-20 Inb Vision Ag Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen
US6937348B2 (en) * 2000-01-28 2005-08-30 Genex Technologies, Inc. Method and apparatus for generating structural pattern illumination
JP2001268594A (ja) 2000-03-15 2001-09-28 Infiniteface.Com Inc 三次元ビューティーシミュレーション用クライアントサーバシステム
US7061628B2 (en) * 2001-06-27 2006-06-13 Southwest Research Institute Non-contact apparatus and method for measuring surface profile
US7286246B2 (en) * 2003-03-31 2007-10-23 Mitutoyo Corporation Method and apparatus for non-contact three-dimensional surface measurement
JP2005037378A (ja) * 2003-06-30 2005-02-10 Sanyo Electric Co Ltd 奥行計測方法と奥行計測装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014534428A (ja) * 2011-11-23 2014-12-18 クレアフォーム・インコーポレイテッドCreaform Inc. 空間コード化スライド画像に対するパターンのアライメント方法およびシステム
WO2014104383A1 (en) 2012-12-28 2014-07-03 Ricoh Company, Ltd. Calibration apparatus, projector and calibration method
US9532020B2 (en) 2012-12-28 2016-12-27 Ricoh Company, Ltd. Calibration apparatus, projector and calibration method
US9739603B2 (en) 2013-03-15 2017-08-22 Ricoh Company, Ltd. Calibration device, calibration method, and non-transitory computer-readable recording medium
US9441958B2 (en) 2013-08-12 2016-09-13 Ricoh Company, Ltd. Device, method, and non-transitory computer-readable recording medium to calculate a parameter for calibration
US9595106B2 (en) 2014-11-19 2017-03-14 Ricoh Company, Ltd. Calibration apparatus, calibration method, and program

Also Published As

Publication number Publication date
JPWO2006120759A1 (ja) 2008-12-18
US20090097039A1 (en) 2009-04-16
WO2006120759A1 (ja) 2006-11-16
US7724379B2 (en) 2010-05-25
EP1882895A1 (en) 2008-01-30
EP1882895A4 (en) 2012-06-27

Similar Documents

Publication Publication Date Title
JP4230525B2 (ja) 3次元形状計測方法およびその装置
Feng et al. Calibration of fringe projection profilometry: A comparative review
JP5285619B2 (ja) カメラシステムのキャリブレーション
JP6317760B2 (ja) 3次元表面測定のための装置および方法
JP5583761B2 (ja) 動的基準フレームを用いた3次元表面検出方法及び装置
JP5943547B2 (ja) 非接触測定を行う装置および方法
JP6041513B2 (ja) 画像処理装置、画像処理方法及びプログラム
WO2011145285A1 (ja) 画像処理装置、画像処理方法およびプログラム
WO2007137388A1 (en) Photogrammetric system and techniques for 3d acquisition
JP6282098B2 (ja) キャリブレーション装置及び方法
CN110940295B (zh) 基于激光散斑极限约束投影的高反射物体测量方法及系统
JP2015090298A (ja) 情報処理装置、情報処理方法
CN113008195B (zh) 一种基于空间点云的三维曲面距离测量方法及系统
Horbach et al. 3D reconstruction of specular surfaces using a calibrated projector–camera setup
Strobl et al. More accurate camera and hand-eye calibrations with unknown grid pattern dimensions
CN112686961A (zh) 一种深度相机标定参数的修正方法、装置
JP2007508557A (ja) 三次元物体を走査するための装置
JP6237032B2 (ja) 色と三次元形状の計測方法及び装置
US7046839B1 (en) Techniques for photogrammetric systems
KR20190050819A (ko) 가정된 캘리브레이션 모델 없이 측정된 데이터를 이용하여 캘리브레이션을 수행하는 방법 및 상기 방법을 수행하는 3차원 스캐너 캘리브레이션 시스템
US11143499B2 (en) Three-dimensional information generating device and method capable of self-calibration
Mavrinac et al. Calibration of dual laser-based range cameras for reduced occlusion in 3D imaging
CN114170321A (zh) 一种基于测距的相机自标定方法及系统
Li et al. A method for 3D measurement and reconstruction for active vision
Elnashef et al. Direct estimation of the relative orientation in underwater environment

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081111

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081203

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111212

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111212

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121212

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131212

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees