JP2019219929A - 常時キャリブレーションシステム及びその方法 - Google Patents
常時キャリブレーションシステム及びその方法 Download PDFInfo
- Publication number
- JP2019219929A JP2019219929A JP2018117050A JP2018117050A JP2019219929A JP 2019219929 A JP2019219929 A JP 2019219929A JP 2018117050 A JP2018117050 A JP 2018117050A JP 2018117050 A JP2018117050 A JP 2018117050A JP 2019219929 A JP2019219929 A JP 2019219929A
- Authority
- JP
- Japan
- Prior art keywords
- irradiation
- unit
- feature point
- imaging
- coordinate system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
従来のキャリブレーションの方法としては、例えば、所定の座標系における座標位置が既知の特徴点をそれぞれのカメラで撮影し、各特徴点の、カメラ画像上における座標と実際の空間座標とを対応づけた一組のデータ、すなわちキャリブレーションデータを用いて行う方法が知られている。
例えば、赤外線カメラの場合、ストロボや白熱電球のような発光手段を並べて取り付けた板状の治具を作成し、赤外線カメラで撮影したものでキャリブレーションを行うことが、特許文献1や非特許文献1に記載されている。しかし、特許文献1や非特許文献1に開示された技術は、カメラと治具との位置関係が固定されていることが前提となっている。このため、カメラを移動させながら、動的に、キャリブレーションしながら、3次元空間中の被写体を撮像することはできない。
この場合、治具に取り付けられた三角形の頂点をそれぞれ形成する球の中心を正確に検出する必要がある。このため、マーカー位置情報算出部31は、エッジ画像を生成し、生成したエッジ画像からHough変換により円を抽出し、円の半径を計算することにより、当該球体の中心を求めるように構成されている。
第2電子機器の数が増えるほどに、第1電子機器は、球体(色)をそれぞれ、一意的に識別できるように選択する必要がある。また、撮像される全ての球体がそれぞれどの第2電子機器に対応するか、といった識別を正確に行う必要があり、そのために係る労力は必ずしも簡単なものではなかった。
2以上の移動可能な電子機器と、
制御装置と、を備え、
前記電子機器は、それぞれ、
前記プロジェクション部により前記照射パターンが照射されるタイミングと同期して、少なくとも前記所定の照射領域の一部を含む領域を撮像する特徴点撮像部を備え、
前記制御装置は、
前記プロジェクション部に対して、前記第1の照射時間帯に前記第1の照射時間間隔で前記照射パターンを第1の照射回数異なる照射位置に照射するように照射指示を行い、特徴点撮像部に対して、前記プロジェクタによる前記照射パターンの照射と同期して、少なくともプロジェクタの照射領域の一部を含む領域を、前記第1の照射時間帯に前記第1の照射時間間隔で前記第1の照射回数、撮像するように撮像指示をするキャリブレーションフェーズ指示部と、
前記電子機器それぞれから、前記特徴点撮像部により撮像した前記第1の照射時間間隔で前記第1の照射回数、照射した各照射映像を撮像した撮像データの集合を取得する特徴点取得部と、
前記撮像データの集合から、それぞれ前記照射パターンの位置を検出し、特徴点として抽出する特徴点検出部と、
前記特徴点撮像部ごとに取得した前記撮像データの集合間で、同じ照射タイミングで照射された照射映像を撮像した撮像データにおける特徴点をそれぞれ対応点として抽出する、対応点抽出部と、
前記対応点抽出部により抽出した対応点に基づき、前記特徴点撮像部の1つである特徴点撮像部の備えるカメラ座標系と、他の特徴点撮像部の備えるカメラ座標系との相対位置関係を、前記対応点に基づいて算出する第1キャリブレーション部と、を備える常時キャリブレーションシステムに関する。
前記特徴点撮像部は赤外線カメラであり、
前記第1キャリブレーション部は、
前記対応点抽出部により抽出される対応点が8個以上ある場合に、8点アルゴリズムにより、前記特徴点撮像部の1つである特徴点撮像部の備えるカメラ座標系と、他の特徴点撮像部の備えるカメラ座標系との相対位置関係を、前記対応点に基づいて算出してもよい。
前記特徴点撮像部は赤外線ステレオカメラであり、
前記第1キャリブレーション部は、
前記対応点抽出部により抽出される対応点が4個以上ある場合に、前記特徴点撮像部の1つである特徴点撮像部の備えるカメラ座標系と、他の特徴点撮像部の備えるカメラ座標系との相対位置関係を、前記対応点に基づいて算出してもよい。
深度カメラ部を備え、
前記制御装置は、さらに、
前記プロジェクション部による照射パターンの照射を開始する直前、又は前記第1の照射時間間隔で前記第1の照射回数、照射を実行した直後に、すべての前記深度カメラ部に対して、同時に被写体の撮像指示を行う深度データ取得フェーズ指示部を備え、
前記深度カメラ部のそれぞれから、画像データを撮像したタイムスタンプと、前記深度カメラ部の備える深度カメラ座標系における座標位置と、を含む点群データの集合を取得する点群データ取得部と、
を備えてもよい。
前記電子機器ごとに、予め前記特徴点撮像部の備えるカメラ座標系と前記深度カメラ部の備える深度カメラ座標系との間の座標変換行列を備え、
前記座標変換行列と、前記第1キャリブレーション部により算出された前記特徴点撮像部の備えるカメラ座標系と、前記特徴点撮像部と異なる他の特徴点撮像部の備えるカメラ座標系との相対位置関係と、に基づき、前記深度カメラ部で撮像された点群データを所定の3次元座標系における座標値に変換する点群データ座標値変換部と、
前記点群データを、前記点群データ座標値変換部により変換された前記所定の3次元座標系における座標値に基づいて、重なる部分の位置合わせを行うことで、1つの合成点群データを作成する合成点群データ作成部と、を備えてもよい。
前記プロジェクション部に対して、前記第1の照射時間帯に前記第1の照射時間間隔で前記照射パターンを第1の照射回数異なる照射位置に照射するように照射指示を行い、前記特徴点撮像部に対して、前記プロジェクタによる前記照射パターンの照射と同期して、少なくともプロジェクタの照射領域の一部を含む領域を、前記第1の照射時間帯に前記第1の照射時間間隔で前記第1の照射回数、撮像するように撮像指示をするキャリブレーションフェーズステップと、
前記電子機器それぞれから、前記特徴点撮像部により撮像した前記第1の照射時間間隔で前記第1の照射回数、照射した各照射映像を撮像した撮像データの集合を取得する撮像データ取得ステップと、
前記撮像データの集合から、それぞれ前記照射パターンの位置を検出し、特徴点として抽出する特徴点検出ステップと、
前記特徴点撮像部ごとに取得した前記撮像データの集合間で、同じ照射タイミングで照射された照射映像を撮像した撮像データにおける特徴点をそれぞれ対応点として抽出する、対応点抽出ステップと、
前記対応点抽出ステップにおいて抽出した対応点に基づき、前記特徴点撮像部の1つである特徴点撮像部の備えるカメラ座標系と、他の特徴点撮像部の備えるカメラ座標系との相対位置関係を、前記対応点に基づいて算出するキャリブレーションステップと、を備える常時キャリブレーション方法に関する。
図1は、本実施形態に係る常時キャリブレーションシステム100の機能構成を示す図である。
図2Aに示すように、プロジェクション部1は、プロジェクタ制御部10及びプロジェクタ11を備え、これらの他、さらに入出力及び通信等の各種のインタフェースを備えてよい。最初にプロジェクタ11について説明する。プロジェクタ制御部10については、後述する。
マーカ15は、後述するようにキャリブレーションのための特徴点とする。このため、図3A、図3Bにそれぞれ示すように、マーカ15として、例えば、円の形状をした点又はカギ状の線分としてもよい。マーカ15を円の形状をした点又はカギ状の線分とすることで、特徴点として円の中心又はカギ状の線分の頂点を容易に識別することができる。また、マーカ15として、赤外線輝度の値が所定の閾値以上となるようにしてもよい。そうすることで、後述の特徴点撮像部21(高速赤外線カメラ)に赤外線輝度によるフィルタを設け、閾値以上の輝度データのみをフィルタにより透過させるようにすることで、撮像データからマーカ15を容易に抽出することが可能となる。
プロジェクタ制御部10は、プロジェクタ11に対して、第1の照射時間間隔ごとにマーカ15の照射位置が異なるように制御する。なお、照射位置の制御においては、予め、互いに異なる複数の照射位置を設定したテーブルを作成しておき、当該テーブルに基づいて、異なる照射位置を設定するようにしてもよい。また、照射位置の制御においては、照射位置がそれぞれ異なるように、ランダムに照射位置を算出するようにしてもよい。
プロジェクタ制御部10は、後述の特徴点撮像部21により、例えば、マーカ15が隠れて撮影できないケース(オクルージョン)やマーカ15が撮像領域外にある等の理由で撮像できないケースが発生する可能性を考慮すると、第1の照射時間帯(例えば1/60秒)の間に、プロジェクタ11によるマーカ15の照射に係る第1の照射回数として、例えば8回以上、好ましくは16回、24回、又は32回、発生させて照射するように設定することが好ましい。その場合、第1の照射時間帯を仮に1/60秒間とした場合、プロジェクタ11によるマーカ15の照射に係る第1の照射時間間隔は、それぞれ、1/(60×16)秒、1/(60×24)秒又は1/(60×32)秒となり、その時のフレームレートは、それぞれ、960fps、1440fps、1920fpsとなる。
例示した第1の照射時間帯、第1の照射時間間隔、及び第1の照射回数の詳細な説明は、後述する。
プロジェクタ制御部10は、後述するように、通信可能に接続された制御装置3からの指示に基づいて、プロジェクタ11に対する制御信号を出力するようにしてもよい。
次に電子機器2について説明する。電子機器2の説明に際して、各電子機器2を区別する必要がある場合、インデックスn(1≦n≦N)(N:電子機器2の台数)を用いて、電子機器2(n)(1≦n≦N)として参照する。その際、電子機器2(n)の備える‘構成要素’についても、‘構成要素’(n)とすることで、電子機器2(n)の備える構成要素であることを示す。
図2Bに示すように、電子機器2は、撮像制御部20と、特徴点撮像部21と、深度カメラ部22と、記憶部25を備え、これらの他、さらに入出力及び通信等の各種のインタフェースを備えてよい。最初に特徴点撮像部21及び深度カメラ部22について説明する。撮像制御部20については、後述する。
特徴点撮像部21(n)(1≦n≦N)は、プロジェクション部1(プロジェクタ11)によりマーカ15が照射されるタイミングと同期して、少なくとも第1の照射領域の一部を含む領域を撮像する。なお、特徴点撮像部21(n)は、プロジェクタ11の照射領域のすべての領域を撮像することが好ましい。
プロジェクタ11が不可視光線としての、例えば赤外線によりマーカ15を第1の照射時間間隔ごとに異なる照射位置に照射する場合、電子機器2(n)の備える特徴点撮像部21(n)(1≦n≦N)は、例えば、高速度赤外線カメラであって、第1の照射時間間隔ごとに異なる照射位置に照射されるマーカ15を撮像する。ここで、プロジェクタ11が第1の照射時間間隔毎に異なる位置に照射したマーカ15を全て撮像することができるように、特徴点撮像部21(n)(1≦n≦N)に設定されるシャッタースピード(撮像時のフレームレート)は、プロジェクタ11がマーカ15を照射するフレームレートと同期をとるようにしてもよい。
そうすることで、プロジェクタ11が、例えば時刻tから第1の照射時間帯(例えば1/60秒間)に第1の照射時間間隔(例えば1/(60×16)秒の時間間隔)でマーカ15を第1の照射回数(例えば16回)異なる照射位置に照射したときの照射映像の集合を{特徴点照射映像(t,j)(1≦j≦16)}とした場合、各特徴点撮像部21(n)(1≦n≦N)は{特徴点照射映像(t,j)(1≦j≦16)}を撮像した特徴点撮像データの集合{特徴点撮像データ(n)(t,j)(1≦j≦16)}を取得する。なお、各特徴点撮像部21(n)(1≦n≦N)はプロジェクタ11のフレームレート以上で撮影して特徴点撮像データの集合を得るようにしてもよい。
以下、説明のため、第1の照射時間帯を時刻tから1/60秒間とし、第1の照射時間間隔を1/(60×16)秒の時間間隔とし、第1の照射回数を16回とする態様を例として説明するが、本発明における第1の照射時間帯、第1の照射時間間隔、及び第1の照射回数はこれらの値に限られない。ユーザは、キャリブレーションに応じて任意の値を設定することができる。後述するように、例えば、第1の照射時間帯の長さは、当該時間帯における各電子機器(n)の移動量が無視できる長さ(例えば、ユーザにより設定される所定の閾値以下)であればよい。また、第1の照射回数は、後述するように、例えば8以上の所定の回数に設定することができる。
ここで、特徴点撮像部21の備える座標系について簡単に説明する。
特徴点撮像部21(n)は、それぞれ固有の座標系、すなわち、カメラ座標系(n)、正規化画像座標系(n)、及びデジタル画像座標系(n)を備える。なお、本実施例では、特徴点撮像部(n)において、レンズ歪みの影響をキャンセルした補正画像が得られるものとし、内部パラメータは既知とする。
カメラ座標系(n)は、空間を表す3次元座標として、特徴点撮像部21(n)としての赤外線カメラ(n)を中心としてみた3次元座標系である。カメラ座標系(n)は、一般的に、カメラレンズ(n)の中心を原点として、カメラ(n)の光軸方向をZ軸とし、カメラ(n)の上向きをY軸とし、カメラ(n)の横向きをX軸とする3次元座標系(右手系)とされる。
以下、特に断らない限り、カメラ座標系(n)による座標値を(Xn,Yn,Zn)で表す。
正規化画像座標系(n)は、光軸上の点を原点とし、x軸、y軸をそれぞれ、X軸、Y軸に平行にとり、焦点距離fを1とした2次元座標系(x、y)を正規化画像座標系(n)という。
以下、特に断らない限り、正規化画像座標系(n)による座標値を(xn,yn)で表す。
このとき、
xn = Xn/Zn
yn = Yn/Zn
が成り立つ。
デジタル画像座標系(n)は、画素数(pixel)単位で記述される。以下、デジタル画像座標系を画像座標系ともいう。
デジタル画像座標系(n)は、左上を原点とし、右方向を第1軸(u軸)、下方向を第2軸(v軸)とする。また、光軸が通る点を画像中心といい(cu,vu)で表す。
fを特徴点撮像部21の焦点距離、δu及びδvは、それぞれ、撮像素子の画素の横、縦の間隔とすると、
αu = f/δu 及びαv = f/δv は、画素数(pixel)単位で表される焦点距離とする。
このとき、正規化画像座標(x,y)とデジタル画像座標(u,v)の間には、
u = αux+cu ここで、αu = f/δu
v = αvx+cv ここで、αv = f/δv
なお、αu αvとcu cvをカメラの内部パラメータという。
深度カメラ部22(n)(1≦n≦N)は、深度センサ(図示せず)を、例えば通常の画像カメラと組み合わせて構成することができる。深度カメラ部22(n)を用いて計測対象物を計測することで、計測対象物表面の各点を画素単位で例えばRGBの色情報とともに深度カメラ部22(n)の備える3次元の座標系における座標値を併せ持つ、計測対象物の点群データ(n)を生成することができる。
したがって、深度カメラ部22(n)により計測する場合には、計測対象物表面の各点の位置を表す3次元座標値(Xd n、Yd n、Zd n)と、その3次元座標位置における計測対象物表面のRGBの色情報と、からなる点データの集合を点群データ(n)として取得することができる。
深度カメラ部22(n)は、計測対象物の表面の各点の情報を画素単位で、予め設定した時間間隔で取得することができる。例えば、時間間隔として1/30秒を設定することで、深度カメラ部22(n)は、1秒間に30コマの画像データ(30fps)を取得することができる。深度カメラ部22(n)により計測された各点群データ(n)には、それぞれ計測時刻となるタイムスタンプを付すことができ、当該タイムスタンプに基づいて点群データ(n)の間で関連付けが可能となっている。
N個(1≦N)の深度カメラ部22をインデックス1、2、3、・・・Nにより識別する場合、tを計測時刻とすると、インデックス(識別番号)nの深度カメラ部22(n)により取得した点群データをQn(t)と表現することができる。
特徴点撮像部21(n)と深度カメラ部22(n)とを予めキャリブレーションしておくことで、深度カメラ座標系(n)における座標値をカメラ座標系(n)における座標値に変換する座標変換行列cTd nを、例えば、電子機器2の記憶部(図示せず)又は後述する制御装置3の記憶部32に記憶する。逆に、カメラ座標系(n)における座標値を深度カメラ座標系(n)における座標値に変換する座標変換行列をdTc nで表す。
これらの間には以下の関係が成り立つ。
cTd n・dTc n=E
dTc n・cTd n=E
以下の説明において、特徴点撮像部21(n)は、第1の撮像時間帯を時刻tから1/60秒間とし、第1の撮像時間間隔を1/(60×16)秒の時間間隔とし、第1の撮像回数を16回として、プロジェクタ11の照射タイミングと同期をとるものとする。そうすることで、特徴点撮像部21(n)は、時刻tから1/60秒経過するまでの間に、16回、{特徴点照射映像(t,j)(1≦j≦16)}を撮像した特徴点撮像データの集合{特徴点撮像データ(n)(t,j)(1≦j≦16)}を取得することができる。
他方、深度カメラ部22(n)は、フレームレート30fpsで深度データを取得するものを例示する。
この場合、例えば、撮像制御部20(n)は、特徴点撮像部21(n)による特徴点撮像データを取得するフェーズ(「キャリブレーションフェーズ」という)と、深度カメラ部22(n)による点群データを取得するフェーズ(「深度データ取得フェーズ」という)と、を交互に実行するように制御する。図4にキャリブレーションフェーズと深度データ取得フェーズとが交互に発生する様子を示す。
より具体的には、図4を参照すると、特徴点撮像部21(n)は、第1の撮像時間帯(時刻t0から1/60秒の間)において、第1の撮像時間間隔(1/(60×16)秒の時間間隔)ごとに、第1の撮像回数(16回)特徴点撮像データの集合{特徴点撮像データ(n)(t0,j)(1≦j≦16)}を取得する(キャリブレーションフェーズ)。
次に、時刻t1(=t0+1/60秒)に、深度カメラ部22(n)により点群データQn(t1)を計測する(深度データ取得フェーズ)。
次に、時刻t2(=t1+1/60秒)から1/60秒の間、特徴点撮像部21(n)により、16回特徴点撮像データを取得する(キャリブレーションフェーズ)。
次に、時刻t3(=t2+1/60秒)に、深度カメラ部22(n)により点群データQn(t3)を計測する(深度データ取得フェーズ)。
このように、時刻t2i=t0+(1/30)×i (0≦i)から第1の照射時間帯(1/60秒)の間、特徴点撮像部21(n)により、第1の照射回数(16回)特徴点撮像データを取得するキャリブレーションフェーズ(2i)(0≦i)と、時刻t2i+1=t0+1/60+(1/30)×i (0≦i)ごとに深度カメラ部22(n)により点群データQn(t2i+1)を計測する深度データ取得フェーズ(2i+1)(0≦i)とを交互に実行する。
撮像制御部20(n)(1≦n≦N)は、前述したキャリブレーションフェーズ(2i)(0≦i)において、特徴点撮像部21(n)に対して、少なくともプロジェクタ11の照射領域の一部を含む領域を、第1の照射時間間隔で第1の照射回数、撮像するように制御する。特徴点撮像部21(n)は、プロジェクタ11の照射領域を撮像することが好ましい。
撮像制御部20(n)は、後述するように、通信可能に接続された制御装置3からの指示に基づいて、特徴点撮像部21(n)に対する制御信号を同時に出力するようにしてもよい。そうすることで、プロジェクタ11と全ての特徴点撮像部21(n)(1≦n≦N)とは、容易に同期をとることができる。
撮像制御部20(n)は、各キャリブレーションフェーズ(2i)(0≦i)において、プロジェクタ11が、例えば時刻t2i(0≦i)から第1の照射時間帯(例えば1/60秒の間)に第1の照射時間間隔(1/(60×16)秒の時間間隔)でマーカ15を第1の照射回数(16回)異なる照射位置に照射したときの照射映像{特徴点照射映像(t2i,j)(1≦j≦16)}を、特徴点撮像部21(n)により撮像した特徴点撮像データの集合{特徴点撮像データ(n)(t2i,j)(1≦j≦16)}を後述する制御装置3に送信する。
撮像制御部20(n)は、各深度データ取得フェーズ(2i+1)(0≦i)において、深度カメラ部22(n)が、時刻t2i+1(0≦i)において計測した点群データをQn(t2i+1)を後述する制御装置3に送信する。
次に制御装置3について説明する。
制御装置3は、例えばパーソナルコンピュータ又はサーバ装置等の情報処理装置としてもよい。あるいはCPU、DSP等の演算チップを搭載した演算ボードで構成することができる。図2Cに示すように、制御装置3は、制御部30及び記憶部32を備え、これらの他、さらに入出力及び通信等の各種のインタフェースを備えてよい。
図4に示すように、t2i =t0+(1/30)×i (0≦i)とすると、キャリブレーションフェーズは、t0から1/30秒間隔でt2、t4、・・・と続く。
他方、t2i+1=t0+1/60+(1/30)×i (0≦i)とすると、深度データ取得フェーズは、t1(=t0+1/60)から1/30秒間隔でt3、t5、・・・と続く。
そうすることで、キャリブレーションフェーズと、深度データ取得フェーズと、を交互に実行するように制御することができる。
このように、キャリブレーションフェーズ指示部301は、プロジェクション部1に対して、例えば時刻t2i(0≦i)から第1の照射時間帯(例えば1/60秒の間)に第1の照射時間間隔(例えば1/(60×16)秒の時間間隔)でマーカ15を第1の照射回数(例えば16回)異なる照射位置に照射するように照射指示を行うとともに、特徴点撮像部21(n)に対して、プロジェクタ11の照射と同期して、少なくともプロジェクタ11の照射領域の一部を含む領域を、第1の照射時間間隔で第1の照射回数、撮像するように撮像指示をする。
ここで、電子機器2(n)は移動可能としているが、例えば、時刻t2i(0≦i)から第1の照射時間帯(例えば1/60秒の間)の電子機器2(n)の移動量、すなわち特徴点撮像部21(n)の移動量は無視できるものとする。すなわち、時刻t2i(0≦i)から第1の照射時間帯(例えば1/60秒の間)における、特徴点撮像部21(n)のカメラ座標系(n)、正規化画像座標系(n)、及びデジタル画像座標系(n)は、それぞれ同一の固定座標系とみなすことができる。
そこで、特徴点撮像部21(n)の時刻t2i(0≦i)から第1の照射時間帯(例えば1/60秒の間)の座標系を、それぞれカメラ座標系(n,t2i)、正規化画像座標系(n,t2i)、及びデジタル画像座標系(n,t2i)という。
また、各特徴点撮像データ(n)(t2i、j)(0≦i),(1≦j≦16)を例えば正規化画像座標系(n)における座標値に基づいて重畳して1つの画像データとしたものを、特徴点撮像データ(n、t2i)と表す。すなわち、特徴点撮像データ(n、t2i)は、第1の照射時間間隔で照射された特徴点j(1≦j≦16)を含む。
前述したように、特徴点撮像部21(n)に赤外線の輝度によるフィルタを設け、閾値以上の輝度データのみを当該フィルタにより透過させるようにすることで、特徴点検出部303は、撮像データからマーカ15を容易に検出することが可能となる。また、マーカ15を円の形状をした点又はカギ状の線分とすることで、特徴点検出部303は、円の中心又はカギ状の線分の頂点を特徴点として容易に識別することができる。
そうすることで、特徴点検出部303は、これらを重畳した正規化画像座標系(n,t2i)における、特徴点(n,t2i)(j)(1≦j≦16)の正規化画像座標値(n,t2i)(j)(1≦j≦16)をそれぞれ算出することができる。
ここで、プロジェクタ11は時刻t2i(0≦i)から、第1の照射時間帯(例えば1/60秒の間)に第1の照射時間間隔(例えば1/(60×16)秒の時間間隔)でマーカ15を第1の照射回数(例えば16回)異なる位置に照射したことから、マーカ15の照射位置(特徴点(j))の正規化画像座標値(n,t2i)(j)(1≦j≦16)は全て異なる。また、任意の異なる画像座標系(n1,t2i)及び画像座標系(n2,t2i)において、画像座標系(n1,t2i)におけるj番目の特徴点(n1,t2i)(j)(1≦j≦16)と、画像座標系(n2,t2i)におけるj番目の特徴点(n2,t2i)(j)(1≦j≦16)とはそれぞれ2画像間の対応点となる。
すなわち、第1キャリブレーション部305は、3×3の回転行列である(n2,t2i)R(n1,t2i)、及び3次元の位置ベクトルである(n2,t2i)T(n1,t2i)を算出し、カメラ座標系(n1,t2i)における3次元座標値をP(n1,t2i),カメラ座標系(n2,t2i)における3次元座標値をP(n2,t2i)とすると、以下の関係が成り立つ。
P(n2,t2i)=(n2,t2i)R(n1,t2i)P(n1,t2i)+(n2,t2i)T(n1,t2i)
(式1)
このように、空間上の任意の点のカメラ座標系(n1,t2i)における3次元座標値を他のカメラ座標系(n2,t2i)における3次元座標値に変換することができる。
なお、仮にn1の画像座標系(n1,t2i)及びn2の画像座標系(n2,t2i)において、対応点が8点以上とれない場合であっても、例えば、n3の画像座標系(n3,t2i)との間で、n1の画像座標系(n1,t2i)及びn2の画像座標系(n2,t2i)がそれぞれ対応点を8点以上取れる場合、当該2画像間での対応点に基づいて、8点アルゴリズムにより、n1のカメラ座標系(n1,t2i)と、n3のカメラ座標系(n3,t2i)との相対位置関係、及びn2のカメラ座標系(n2,t2i)と、n3のカメラ座標系(n3,t2i)との相対位置関係を算出することができる。
そうすることで、n3のカメラ座標系(n3,t2i)との相対位置関係を介して、n1のカメラ座標系(n1,t2i)と、n2のカメラ座標系(n2,t2i)との相対位置関係を算出することができる。
より具体的には、深度データ取得フェーズ指示部306は、撮像制御部20(n)に対して、例えば時刻t2i+1=(0≦i)ごとに、深度カメラ部22(n)により、計測対象物表面の各点を画素単位で例えばRGBの色情報とともに深度カメラ部22(n)の備える3次元の座標系における座標値を併せ持つ、計測対象物の点群データQn(t2i+1)を撮像するように指示をする。ここで、深度カメラ部22(n)のフレームレートを30fpsとする場合、t2i+1=t0+1/60+(1/30)×i (0≦i)としてもよい。
ここで、各点群データQn(t2i+1)は、深度カメラ座標系(n)による3次元座標値(Xd n、Yd n、Zd n)と、3次元座標値における例えばRGB等の色情報とを併せ持つ点群データである。
ここで、説明を簡単にするため、カメラ座標系(n)(1≦n≦N)の中から、予め基準座標系となるカメラ座標系(1)を設定しておく。ここでは、カメラ座標系(1)が予め基準座標系として設定されているものとする。
点群データ座標値変換部308は、第1キャリブレーション部305により算出された、座標変換関数により、カメラ座標系(n,t2i)(2≦n≦N)における3次元座標値P(n,t2i)を、基準座標系として設定されたカメラ座標系(1,t2i)における3次元座標値P(1,t2i)に変換することができる。
また、電子機器2(n)は移動可能としているが、前述したように、例えば、時刻t2iから時刻t2i+1(0≦i)の電子機器2(n)の移動量は無視できるものとする。すなわち、時刻t2i(0≦i)におけるカメラ座標系(n)と時刻t2i+1(0≦i)におけるカメラ座標系(n)とは、それぞれ同一の固定座標系とみなすことができる。
点群データ座標値変換部308は、点群データQn(t2i+1)をカメラ座標系(n)における座標値に変換された点群データQn´(t2i+1)を生成し、カメラ座標系(n)における座標値に変換された点群データQn´(t2i+1)を、カメラ座標系(n,t2i)(2≦n≦N)における3次元座標値P(n,t2i)を基準座標系として設定されたカメラ座標系(1,t2i)における3次元座標値P(1,t2i)に変換する座標変換により、基準座標系として設定されたカメラ座標系(1,t2i)における座標値に変換することで、カメラ座標系(1)における座標値に変換された点群データQn−>1´(t2i+1)を生成することができる。
なお、電子機器2を移動しないように設置した場合(すなわち、設置位置を固定させた場合)、カメラ座標系(1)を例えば、ワールド座標系としてもよい。
以上、本発明の実施形態の常時キャリブレーションシステム100の各機能部の実施形態を、プロジェクション部、電子機器2、及び制御装置3等の構成に基づいて説明した。
以上のようにして、時刻t2i+1ごとに合成点群データQ1´(t2i+1)が作成され、ユーザにより設定された任意の視点から見た3次元動画を、例えばスマートフォンやタブレット等でリアルタイムでみることができる。
上記実施形態においては、特徴点撮像部21(n)と深度カメラ部22(n)とは、それぞれ別の構成要素としたが、これに限られない。
例えば、深度カメラ部22(n)の備える深度センサ(図示せず)が、高速度赤外線カメラの場合、当該深度センサを特徴点撮像部21(n)として利用することができる。
すなわち、深度カメラ部22(n)が特徴点撮像部21(n)を備えるように構成してもよい。
上記実施形態においては、特徴点撮像部21(n)を単眼カメラとしたが、これに限られない。特徴点撮像部21(n)を例えば、赤外線ステレオカメラとしてもよい。そうすることで、特徴点撮像部21(n)は、それぞれのカメラ座標系(n)における、マーカ15の3次元座標値を取得することができる。
それにより、4つ以上の線形独立となる対応点をとることができれば、2つのカメラ座標系(n1)とカメラ座標系(n2)との相対位置関係を算出することができる。
本実施形態の常時キャリブレーションシステム100において、例えば、プロジェクション部1、電子機器2、及び制御装置3のそれぞれ有する各機能部を、クラウド上の仮想コンピュータを含めて、特定のコンピュータに集中させるか、又は複数のコンピュータに分散させるか、については、ユーザにとって適宜成しえる設計事項である。また、クラウド上の仮想コンピュータに機能部を持たせるようにしてもよい。
例えば、制御装置の機能の一部を特定の電子機器(1)が備えるようにしてもよい。例えば、キャリブレーションフェーズ指示部301、深度データ取得フェーズ指示部306を特定の電子機器(1)が備えるようにしてもよい。
本実施形態の常時キャリブレーションシステム100において、深度カメラ(n)のフレームレートとして30fpsを例示し、特徴点撮像部21(n)のフレームレートとして960fpsを例示し、第1の照射時間間隔を1/60秒で、第1の照射回数を16回を例示したが、これに限られない。これらの値は、プロジェクタ11、特徴点撮像部21(n)、及び深度カメラ部(n)の対応可能な高速フレームレートに応じて適宜設定することができる。
本実施形態の常時キャリブレーションシステム100において、キャリブレーションフェーズと深度データ取得フェーズとを、交互に発生させるように制御したが、これに限られない。
キャリブレーションフェーズと深度データ取得フェーズとを同時に行うように制御してもよい。
1 プロジェクション部
10 プロジェクタ制御部
11 プロジェクタ
15 照射パターン(マーカ)
2 電子機器
20 撮像制御部
21 特徴点撮像部
22 深度カメラ部
25 記憶部
3 制御装置
30 制御部
301 キャリブレーションフェーズ指示部
302 特徴点取得部
303 特徴点検出部
304 対応点抽出部
305 第1キャリブレーション部
306 深度データ取得フェーズ指示部
307 点群データ取得部
308 点群データ座標値変換部
309 合成点群データ作成部
5 ネットワーク
Claims (11)
- 予め設定された第1の照射時間帯に予め設定された第1の照射時間間隔で予め設定された第1の照射回数、不可視光線により予め形状の設定された照射パターンを所定の照射領域内に照射するプロジェクタを有し、前記第1の照射時間間隔ごとに前記照射パターンの照射される位置が異なるように照射するプロジェクション部と
2以上の移動可能な電子機器と、
制御装置と、を備え、
前記電子機器は、それぞれ、
前記プロジェクション部により前記照射パターンが照射されるタイミングと同期して、少なくとも前記所定の照射領域の一部を含む領域を撮像する特徴点撮像部を備え、
前記制御装置は、
前記プロジェクション部に対して、前記第1の照射時間帯に前記第1の照射時間間隔で前記照射パターンを第1の照射回数異なる照射位置に照射するように照射指示を行い、特徴点撮像部に対して、前記プロジェクタによる前記照射パターンの照射と同期して、少なくともプロジェクタの照射領域の一部を含む領域を、前記第1の照射時間帯に前記第1の照射時間間隔で前記第1の照射回数、撮像するように撮像指示をするキャリブレーションフェーズ指示部と、
前記電子機器それぞれから、前記特徴点撮像部により撮像した前記第1の照射時間間隔で前記第1の照射回数、照射した各照射映像を撮像した撮像データの集合を取得する特徴点取得部と、
前記撮像データの集合から、それぞれ前記照射パターンの位置を検出し、特徴点として抽出する特徴点検出部と、
前記特徴点撮像部ごとに取得した前記撮像データの集合間で、同じ照射タイミングで照射された照射映像を撮像した撮像データにおける特徴点をそれぞれ対応点として抽出する、対応点抽出部と、
前記対応点抽出部により抽出した対応点に基づき、前記特徴点撮像部の1つである特徴点撮像部の備えるカメラ座標系と、他の特徴点撮像部の備えるカメラ座標系との相対位置関係を、前記対応点に基づいて算出する第1キャリブレーション部と、を備える常時キャリブレーションシステム。 - 前記不可視光線は赤外線であり、
前記特徴点撮像部は赤外線カメラであり、
前記第1キャリブレーション部は、
前記対応点抽出部により抽出される対応点が8個以上ある場合に、8点アルゴリズムにより、前記特徴点撮像部の1つである特徴点撮像部の備えるカメラ座標系と、他の特徴点撮像部の備えるカメラ座標系との相対位置関係を、前記対応点に基づいて算出する請求項1に記載の常時キャリブレーションシステム。 - 前記不可視光線は赤外線であり、
前記特徴点撮像部は赤外線ステレオカメラであり、
前記第1キャリブレーション部は、
前記対応点抽出部により抽出される対応点が4個以上ある場合に、前記特徴点撮像部の1つである特徴点撮像部の備えるカメラ座標系と、他の特徴点撮像部の備えるカメラ座標系との相対位置関係を、前記対応点に基づいて算出する請求項1に記載の常時キャリブレーションシステム。 - 前記照射パターンは、その形状が点又はカギ状の線分である、請求項1から請求項3のいずれか1項に記載の常時キャリブレーションシステム。
- 前記照射パターンは、その輝度が所定の閾値と等しいか又は当該閾値を超える、請求項1から請求項4のいずれか1項に記載の常時キャリブレーションシステム。
- 前記特徴点検出部は、撮像データから輝度が前記閾値を超える個所を検出する、請求項5に記載の常時キャリブレーションシステム。
- 前記電子機器は、それぞれ、
深度カメラ部を備え、
前記制御装置は、さらに、
前記プロジェクション部による照射パターンの照射を開始する直前、又は前記第1の照射時間間隔で前記第1の照射回数、照射を実行した直後に、すべての前記深度カメラ部に対して、同時に被写体の撮像指示を行う深度データ取得フェーズ指示部を備え、
前記深度カメラ部のそれぞれから、画像データを撮像したタイムスタンプと、前記深度カメラ部の備える深度カメラ座標系における座標位置と、を含む点群データの集合を取得する点群データ取得部と、
を備える、請求項1から請求項6の何れか1項に記載の常時キャリブレーションシステム。 - 前記深度カメラ部が、前記特徴点撮像部を備える、請求項7に記載の常時キャリブレーションシステム。
- 前記制御装置は、さらに、
前記電子機器ごとに、予め前記特徴点撮像部の備えるカメラ座標系と前記深度カメラ部の備える深度カメラ座標系との間の座標変換行列を備え、
前記座標変換行列と、前記第1キャリブレーション部により算出された前記特徴点撮像部の備えるカメラ座標系と、前記特徴点撮像部と異なる他の特徴点撮像部の備えるカメラ座標系との相対位置関係と、に基づき、前記深度カメラ部で撮像された点群データを所定の3次元座標系における座標値に変換する点群データ座標値変換部と、
前記点群データを、前記点群データ座標値変換部により変換された前記所定の3次元座標系における座標値に基づいて、重なる部分の位置合わせを行うことで、1つの合成点群データを作成する合成点群データ作成部と、を備える請求項7又は請求項8に記載の常時キャリブレーションシステム。 - 予め設定された第1の照射時間帯に予め設定された第1の照射時間間隔で予め設定された第1の照射回数、不可視光線(赤外線)により予め形状の設定された照射パターンを所定の照射領域内に照射するプロジェクタを有し、前記第1の照射時間間隔ごとに前記照射パターンの照射される位置が異なるように照射するプロジェクション部と、前記プロジェクション部により前記照射パターンが照射されるタイミングと同期して、少なくとも前記所定の照射領域の一部を含む領域を撮像する特徴点撮像部を備える、2以上の移動可能な電子機器と、通信可能に接続されるコンピュータにより、
前記プロジェクション部に対して、前記第1の照射時間帯に前記第1の照射時間間隔で前記照射パターンを第1の照射回数異なる照射位置に照射するように照射指示を行い、前記特徴点撮像部に対して、前記プロジェクタによる前記照射パターンの照射と同期して、少なくともプロジェクタの照射領域の一部を含む領域を、前記第1の照射時間帯に前記第1の照射時間間隔で前記第1の照射回数、撮像するように撮像指示をするキャリブレーションフェーズステップと、
前記電子機器それぞれから、前記特徴点撮像部により撮像した前記第1の照射時間間隔で前記第1の照射回数、照射した各照射映像を撮像した撮像データの集合を取得する撮像データ取得ステップと、
前記撮像データの集合から、それぞれ前記照射パターンの位置を検出し、特徴点として抽出する特徴点検出ステップと、
前記特徴点撮像部ごとに取得した前記撮像データの集合間で、同じ照射タイミングで照射された照射映像を撮像した撮像データにおける特徴点をそれぞれ対応点として抽出する、対応点抽出ステップと、
前記対応点抽出ステップにおいて抽出した対応点に基づき、前記特徴点撮像部の1つである特徴点撮像部の備えるカメラ座標系と、他の特徴点撮像部の備えるカメラ座標系との相対位置関係を、前記対応点に基づいて算出するキャリブレーションステップと、を備える常時キャリブレーション方法。 - コンピュータに、請求項10に記載の各ステップを実行させるためのコンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018117050A JP6633140B2 (ja) | 2018-06-20 | 2018-06-20 | 常時キャリブレーションシステム及びその方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018117050A JP6633140B2 (ja) | 2018-06-20 | 2018-06-20 | 常時キャリブレーションシステム及びその方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019219929A true JP2019219929A (ja) | 2019-12-26 |
JP6633140B2 JP6633140B2 (ja) | 2020-01-22 |
Family
ID=69096602
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018117050A Expired - Fee Related JP6633140B2 (ja) | 2018-06-20 | 2018-06-20 | 常時キャリブレーションシステム及びその方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6633140B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024032971A1 (de) * | 2022-08-09 | 2024-02-15 | Bayerische Motoren Werke Aktiengesellschaft | Vorrichtung und verfahren zur vermessung dreidimensionaler virtueller bilder und objekte eines head-up-displays |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62206684A (ja) * | 1986-03-07 | 1987-09-11 | Nippon Telegr & Teleph Corp <Ntt> | パタ−ン投影による位置形状計測方法 |
JPH0771940A (ja) * | 1993-06-21 | 1995-03-17 | Nippon Telegr & Teleph Corp <Ntt> | 3次元情報入力方法及びそれを使った3次元情報入力装置 |
JPH09323280A (ja) * | 1996-06-04 | 1997-12-16 | Nippon Telegr & Teleph Corp <Ntt> | マニピュレータの制御方法及びシステム |
JP2009100342A (ja) * | 2007-10-18 | 2009-05-07 | Sanyo Electric Co Ltd | カメラ校正装置及び方法、並びに、車両 |
JP2009270915A (ja) * | 2008-05-07 | 2009-11-19 | Kagawa Univ | 3次元形状の計測方法および装置 |
WO2015008587A1 (ja) * | 2013-07-16 | 2015-01-22 | 富士フイルム株式会社 | 撮影装置及び3次元計測装置 |
JP2015056834A (ja) * | 2013-09-13 | 2015-03-23 | 株式会社リコー | 投影システム、画像処理装置、投影方法およびプログラム |
JP2015233266A (ja) * | 2014-05-16 | 2015-12-24 | 株式会社リコー | 画像処理システム、情報処理装置、プログラム |
JP2017194301A (ja) * | 2016-04-19 | 2017-10-26 | 株式会社デジタルハンズ | 顔形状測定装置及び方法 |
-
2018
- 2018-06-20 JP JP2018117050A patent/JP6633140B2/ja not_active Expired - Fee Related
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62206684A (ja) * | 1986-03-07 | 1987-09-11 | Nippon Telegr & Teleph Corp <Ntt> | パタ−ン投影による位置形状計測方法 |
JPH0771940A (ja) * | 1993-06-21 | 1995-03-17 | Nippon Telegr & Teleph Corp <Ntt> | 3次元情報入力方法及びそれを使った3次元情報入力装置 |
JPH09323280A (ja) * | 1996-06-04 | 1997-12-16 | Nippon Telegr & Teleph Corp <Ntt> | マニピュレータの制御方法及びシステム |
JP2009100342A (ja) * | 2007-10-18 | 2009-05-07 | Sanyo Electric Co Ltd | カメラ校正装置及び方法、並びに、車両 |
JP2009270915A (ja) * | 2008-05-07 | 2009-11-19 | Kagawa Univ | 3次元形状の計測方法および装置 |
WO2015008587A1 (ja) * | 2013-07-16 | 2015-01-22 | 富士フイルム株式会社 | 撮影装置及び3次元計測装置 |
JP2015056834A (ja) * | 2013-09-13 | 2015-03-23 | 株式会社リコー | 投影システム、画像処理装置、投影方法およびプログラム |
JP2015233266A (ja) * | 2014-05-16 | 2015-12-24 | 株式会社リコー | 画像処理システム、情報処理装置、プログラム |
JP2017194301A (ja) * | 2016-04-19 | 2017-10-26 | 株式会社デジタルハンズ | 顔形状測定装置及び方法 |
Non-Patent Citations (1)
Title |
---|
川端 聡、河井 良浩: ""参照平面上の局所座標系間の対応推定による複数カメラの校正法"", 電子情報通信学会論文誌, vol. 94, no. 8, JPN6019033378, 1 August 2011 (2011-08-01), JP, pages 1314 - 1323, ISSN: 0004158281 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024032971A1 (de) * | 2022-08-09 | 2024-02-15 | Bayerische Motoren Werke Aktiengesellschaft | Vorrichtung und verfahren zur vermessung dreidimensionaler virtueller bilder und objekte eines head-up-displays |
Also Published As
Publication number | Publication date |
---|---|
JP6633140B2 (ja) | 2020-01-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20240000295A1 (en) | Light field capture and rendering for head-mounted displays | |
CN111060023B (zh) | 一种高精度3d信息采集的设备及方法 | |
KR102417177B1 (ko) | 인사이드-아웃 위치, 사용자 신체 및 환경 추적을 갖는 가상 및 혼합 현실을 위한 머리 장착 디스플레이 | |
CN106643699B (zh) | 一种虚拟现实系统中的空间定位装置和定位方法 | |
JP6447516B2 (ja) | 画像処理装置、および画像処理方法 | |
JP2019141620A (ja) | 三次元物体上の注視点決定方法及び装置 | |
JP6377863B2 (ja) | 反射マップ表現による奥行きマップ表現の増補 | |
JP2018511098A (ja) | 複合現実システム | |
EP3441788A1 (en) | Apparatus and method for generating a representation of a scene | |
JP2019194616A (ja) | 画像に基づく位置検出方法、装置、機器及び記憶媒体 | |
JP2016218905A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
CN107517346B (zh) | 基于结构光的拍照方法、装置及移动设备 | |
WO2004044522A1 (ja) | 3次元形状計測方法およびその装置 | |
WO2007041690A2 (en) | Device for generating three dimensional surface models of moving objects | |
JP2019087791A (ja) | 情報処理装置、情報処理方法、及び、プログラム | |
JP2023526239A (ja) | 医療シーンなどのシーンを撮像してシーン内の物体を追跡する方法及びシステム | |
JP2023511670A (ja) | 多視点カメラシステムからのデータを用いるなどで深度センサからの深度データを増強する方法及びシステム | |
WO2017187694A1 (ja) | 注目領域画像生成装置 | |
JP7479729B2 (ja) | 三次元表現方法及び表現装置 | |
CN107330974B (zh) | 商品展示方法、装置及移动设备 | |
JP6633140B2 (ja) | 常時キャリブレーションシステム及びその方法 | |
CN113870213A (zh) | 图像显示方法、装置、存储介质以及电子设备 | |
JP5336325B2 (ja) | 画像処理方法 | |
KR102298047B1 (ko) | 디지털 콘텐츠를 녹화하여 3d 영상을 생성하는 방법 및 장치 | |
WO2020044809A1 (ja) | 情報処理装置、情報処理方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180810 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190823 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190903 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190920 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191126 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191211 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6633140 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |