JP2019219929A - 常時キャリブレーションシステム及びその方法 - Google Patents

常時キャリブレーションシステム及びその方法 Download PDF

Info

Publication number
JP2019219929A
JP2019219929A JP2018117050A JP2018117050A JP2019219929A JP 2019219929 A JP2019219929 A JP 2019219929A JP 2018117050 A JP2018117050 A JP 2018117050A JP 2018117050 A JP2018117050 A JP 2018117050A JP 2019219929 A JP2019219929 A JP 2019219929A
Authority
JP
Japan
Prior art keywords
irradiation
unit
feature point
imaging
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018117050A
Other languages
English (en)
Other versions
JP6633140B2 (ja
Inventor
卓弥 澤口
Takuya Sawaguchi
卓弥 澤口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
4d Eyes Co Ltd
Original Assignee
4d Eyes Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 4d Eyes Co Ltd filed Critical 4d Eyes Co Ltd
Priority to JP2018117050A priority Critical patent/JP6633140B2/ja
Publication of JP2019219929A publication Critical patent/JP2019219929A/ja
Application granted granted Critical
Publication of JP6633140B2 publication Critical patent/JP6633140B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】複数のカメラを移動させながらキャリブレーションが可能となる常時キャリブレーションシステムを提供する。【解決手段】常時キャリブレーションシステム100は、第1の照射時間帯に第1の照射時間間隔で第1の照射回数、赤外線によりマーカ15を所定の照射領域内に照射するプロジェクタ11と、マーカ15が照射されるタイミングと同期して照射領域を撮像する移動可能な複数の特徴点撮像部21と、特徴点撮像部21毎にマーカ15を撮像した撮像データの集合間で、同じ照射タイミングで照射された照射映像を撮像した撮像データにおけるマーカ15をそれぞれ対応点として抽出する、対応点抽出部304と、対応点に基づき、1つの特徴点撮像部21のカメラ座標系と、他の特徴点撮像部21のカメラ座標系との相対位置関係を算出する第1キャリブレーション部305と、を備える。【選択図】図1

Description

本発明は、カメラの位置や向き等を計算するキャリブレーションに関するものであり、特に、移動しながら撮像するカメラに係るキャリブレーションを行うシステム及びその方法に関する。
例えば、3次元空間中の被写体を複数のカメラで撮像した画像データを統合して、被写体全体の映像を復元する場合に、各カメラ相互間の位置、方向性の3次元情報が必要となる。このようなカメラの位置、方向性の3次元情報を計算することをカメラのキャリブレーションという。
従来のキャリブレーションの方法としては、例えば、所定の座標系における座標位置が既知の特徴点をそれぞれのカメラで撮影し、各特徴点の、カメラ画像上における座標と実際の空間座標とを対応づけた一組のデータ、すなわちキャリブレーションデータを用いて行う方法が知られている。
例えば、赤外線カメラの場合、ストロボや白熱電球のような発光手段を並べて取り付けた板状の治具を作成し、赤外線カメラで撮影したものでキャリブレーションを行うことが、特許文献1や非特許文献1に記載されている。しかし、特許文献1や非特許文献1に開示された技術は、カメラと治具との位置関係が固定されていることが前提となっている。このため、カメラを移動させながら、動的に、キャリブレーションしながら、3次元空間中の被写体を撮像することはできない。
この点、特許文献2には、深度カメラである第2電子機器20ごとに取り付けられる、表面が予め設定された色で着色された、所定の半径の球であって、球の中心がそれぞれ予め設定された三角形の頂点を形成する治具が開示されている。複数の標識物の視覚的特徴を第2電子機器20ごとに異なるように構成された治具を第2電子機器20に取り付けることで、当該第2電子機器20を移動させながら被写体を撮像した場合に、第1電子機器10(深度カメラ)が各第2電子機器20を一意的に識別する治具を検出することで、各第2電子機器20の位置、方向性を計算することで、キャリブレーションを可能とする技術が開示されている。
この場合、治具に取り付けられた三角形の頂点をそれぞれ形成する球の中心を正確に検出する必要がある。このため、マーカー位置情報算出部31は、エッジ画像を生成し、生成したエッジ画像からHough変換により円を抽出し、円の半径を計算することにより、当該球体の中心を求めるように構成されている。
第2電子機器の数が増えるほどに、第1電子機器は、球体(色)をそれぞれ、一意的に識別できるように選択する必要がある。また、撮像される全ての球体がそれぞれどの第2電子機器に対応するか、といった識別を正確に行う必要があり、そのために係る労力は必ずしも簡単なものではなかった。
特開2001−285681号公報 特許第6293110号 特開2010−066169号公報
橋本謙太郎、外3名、"赤外線画像のステレオ処理に基づく手の形状推定"、日本ロボット学会学術講演会予稿集、19巻、講演概要集、2001年9月18日、p.294頁
上述した従来技術では、工夫された物理的な治具に基づいて、カメラのキャリブレーションを行った。特に、カメラを移動させながら、キャリブレーションを行う場合には、各カメラの位置や方向性を計算するため、カメラごとに当該カメラを識別できる治具の作成やマーカの対応付けをエッジ等による解析等、手間のかかるものであった。
本発明は、前述したような特徴点を備えた治具を必要とせず、各カメラを移動させながら、容易にカメラ間のキャリブレーションをすることが可能となる常時キャリブレーションシステム及びその方法を提供することを目的とする。
(1)本願発明は、予め設定された第1の照射時間帯に予め設定された第1の照射時間間隔で予め設定された第1の照射回数、不可視光線により予め形状の設定された照射パターンを所定の照射領域内に照射するプロジェクタを有し、前記第1の照射時間間隔ごとに前記照射パターンの照射される位置が異なるように照射するプロジェクション部と
2以上の移動可能な電子機器と、
制御装置と、を備え、
前記電子機器は、それぞれ、
前記プロジェクション部により前記照射パターンが照射されるタイミングと同期して、少なくとも前記所定の照射領域の一部を含む領域を撮像する特徴点撮像部を備え、
前記制御装置は、
前記プロジェクション部に対して、前記第1の照射時間帯に前記第1の照射時間間隔で前記照射パターンを第1の照射回数異なる照射位置に照射するように照射指示を行い、特徴点撮像部に対して、前記プロジェクタによる前記照射パターンの照射と同期して、少なくともプロジェクタの照射領域の一部を含む領域を、前記第1の照射時間帯に前記第1の照射時間間隔で前記第1の照射回数、撮像するように撮像指示をするキャリブレーションフェーズ指示部と、
前記電子機器それぞれから、前記特徴点撮像部により撮像した前記第1の照射時間間隔で前記第1の照射回数、照射した各照射映像を撮像した撮像データの集合を取得する特徴点取得部と、
前記撮像データの集合から、それぞれ前記照射パターンの位置を検出し、特徴点として抽出する特徴点検出部と、
前記特徴点撮像部ごとに取得した前記撮像データの集合間で、同じ照射タイミングで照射された照射映像を撮像した撮像データにおける特徴点をそれぞれ対応点として抽出する、対応点抽出部と、
前記対応点抽出部により抽出した対応点に基づき、前記特徴点撮像部の1つである特徴点撮像部の備えるカメラ座標系と、他の特徴点撮像部の備えるカメラ座標系との相対位置関係を、前記対応点に基づいて算出する第1キャリブレーション部と、を備える常時キャリブレーションシステムに関する。
(2) (1)に記載の常時キャリブレーションシステムにおいて、前記不可視光線は赤外線であり、
前記特徴点撮像部は赤外線カメラであり、
前記第1キャリブレーション部は、
前記対応点抽出部により抽出される対応点が8個以上ある場合に、8点アルゴリズムにより、前記特徴点撮像部の1つである特徴点撮像部の備えるカメラ座標系と、他の特徴点撮像部の備えるカメラ座標系との相対位置関係を、前記対応点に基づいて算出してもよい。
(3) (1)に記載の常時キャリブレーションシステムにおいて、前記不可視光線は赤外線であり、
前記特徴点撮像部は赤外線ステレオカメラであり、
前記第1キャリブレーション部は、
前記対応点抽出部により抽出される対応点が4個以上ある場合に、前記特徴点撮像部の1つである特徴点撮像部の備えるカメラ座標系と、他の特徴点撮像部の備えるカメラ座標系との相対位置関係を、前記対応点に基づいて算出してもよい。
(4)(1)〜(3)のいずれかに記載の常時キャリブレーションシステムにおいて、前記照射パターンは、その形状が点又はカギ状の線分としてもよい。
(5)(1)〜(4)のいずれかに記載の常時キャリブレーションシステムにおいて、前記照射パターンは、その輝度が所定の閾値と等しいか又は当該閾値を超えるようにしてもよい。
(6) (5)に記載の常時キャリブレーションシステムにおいて、前記特徴点検出部は、撮像データから輝度が前記閾値を超える個所を検出してもよい。
(7) (1)〜(6)のいずれかに記載の常時キャリブレーションシステムにおいて、前記電子機器は、それぞれ、
深度カメラ部を備え、
前記制御装置は、さらに、
前記プロジェクション部による照射パターンの照射を開始する直前、又は前記第1の照射時間間隔で前記第1の照射回数、照射を実行した直後に、すべての前記深度カメラ部に対して、同時に被写体の撮像指示を行う深度データ取得フェーズ指示部を備え、
前記深度カメラ部のそれぞれから、画像データを撮像したタイムスタンプと、前記深度カメラ部の備える深度カメラ座標系における座標位置と、を含む点群データの集合を取得する点群データ取得部と、
を備えてもよい。
(8) (7)に記載の常時キャリブレーションシステムにおいて、前記深度カメラ部が、前記特徴点撮像部を備えるようにしてもよい。
(9) (7)又は(8)に記載の常時キャリブレーションシステムにおいて、前記制御装置は、さらに、
前記電子機器ごとに、予め前記特徴点撮像部の備えるカメラ座標系と前記深度カメラ部の備える深度カメラ座標系との間の座標変換行列を備え、
前記座標変換行列と、前記第1キャリブレーション部により算出された前記特徴点撮像部の備えるカメラ座標系と、前記特徴点撮像部と異なる他の特徴点撮像部の備えるカメラ座標系との相対位置関係と、に基づき、前記深度カメラ部で撮像された点群データを所定の3次元座標系における座標値に変換する点群データ座標値変換部と、
前記点群データを、前記点群データ座標値変換部により変換された前記所定の3次元座標系における座標値に基づいて、重なる部分の位置合わせを行うことで、1つの合成点群データを作成する合成点群データ作成部と、を備えてもよい。
(10) 本願発明は、予め設定された第1の照射時間帯に予め設定された第1の照射時間間隔で予め設定された第1の照射回数、不可視光線(赤外線)により予め形状の設定された照射パターンを所定の照射領域内に照射するプロジェクタを有し、前記第1の照射時間間隔ごとに前記照射パターンの照射される位置が異なるように照射するプロジェクション部と、前記プロジェクション部により前記照射パターンが照射されるタイミングと同期して、少なくとも前記所定の照射領域の一部を含む領域を撮像する特徴点撮像部を備える、2以上の移動可能な電子機器と、通信可能に接続されるコンピュータにより、
前記プロジェクション部に対して、前記第1の照射時間帯に前記第1の照射時間間隔で前記照射パターンを第1の照射回数異なる照射位置に照射するように照射指示を行い、前記特徴点撮像部に対して、前記プロジェクタによる前記照射パターンの照射と同期して、少なくともプロジェクタの照射領域の一部を含む領域を、前記第1の照射時間帯に前記第1の照射時間間隔で前記第1の照射回数、撮像するように撮像指示をするキャリブレーションフェーズステップと、
前記電子機器それぞれから、前記特徴点撮像部により撮像した前記第1の照射時間間隔で前記第1の照射回数、照射した各照射映像を撮像した撮像データの集合を取得する撮像データ取得ステップと、
前記撮像データの集合から、それぞれ前記照射パターンの位置を検出し、特徴点として抽出する特徴点検出ステップと、
前記特徴点撮像部ごとに取得した前記撮像データの集合間で、同じ照射タイミングで照射された照射映像を撮像した撮像データにおける特徴点をそれぞれ対応点として抽出する、対応点抽出ステップと、
前記対応点抽出ステップにおいて抽出した対応点に基づき、前記特徴点撮像部の1つである特徴点撮像部の備えるカメラ座標系と、他の特徴点撮像部の備えるカメラ座標系との相対位置関係を、前記対応点に基づいて算出するキャリブレーションステップと、を備える常時キャリブレーション方法に関する。
(11)本願発明は、コンピュータに、(10)に記載の各ステップを実行させるためのコンピュータプログラムに関する。
本発明の常時キャリブレーションシステムによれば、前述したような特徴点を備えた治具を必要とせず、各カメラを移動させながら、容易にカメラ間のキャリブレーションをすることが可能となる常時キャリブレーションシステム及びその方法を提供することができる。
本発明の実施形態に係る常時キャリブレーションシステムの一例を概略的に示すブロック図である。 本発明の実施形態に係るプロジェクション部の概略ブロック図である。 本発明の実施形態に係る電子機器の概略ブロック図である。 本発明の実施形態に係る制御装置の概略ブロック図である。 本発明の実施形態に係る制御装置に係る制御部の概略ブロック図である。 本発明の実施形態に係る照射パターンの形状の一例を示す概略図である。 本発明の実施形態に係る照射パターンの形状の一例を示す概略図である。 本発明の実施形態に係るキャリブレーションフェーズと深度データ取得フェーズとが交互に発生する様子を示す概略図である。 本発明の実施形態における一連の処理の流れを示す図である。
以下、本発明の実施形態の一例について説明する。
図1は、本実施形態に係る常時キャリブレーションシステム100の機能構成を示す図である。
図1に示すように、常時キャリブレーションシステム100は、プロジェクション部1と、2つ以上の移動可能な電子機器2と、制御装置3と、を含んで構成される。これらは、有線及び/又は無線ネットワーク5等を介して接続されている。
<プロジェクション部1>
図2Aに示すように、プロジェクション部1は、プロジェクタ制御部10及びプロジェクタ11を備え、これらの他、さらに入出力及び通信等の各種のインタフェースを備えてよい。最初にプロジェクタ11について説明する。プロジェクタ制御部10については、後述する。
プロジェクタ11は、内部の駆動手段(図示せず)が、プロジェクタ制御部10の制御信号を受けて、人の目には不可視となる光線(「不可視光線」ともいう)としての、例えば赤外線により予め形状の設定された照射パターン(以下「マーカ15」ともいう)を発生させて、所定の照射領域内に照射する。
マーカ15は、後述するようにキャリブレーションのための特徴点とする。このため、図3A、図3Bにそれぞれ示すように、マーカ15として、例えば、円の形状をした点又はカギ状の線分としてもよい。マーカ15を円の形状をした点又はカギ状の線分とすることで、特徴点として円の中心又はカギ状の線分の頂点を容易に識別することができる。また、マーカ15として、赤外線輝度の値が所定の閾値以上となるようにしてもよい。そうすることで、後述の特徴点撮像部21(高速赤外線カメラ)に赤外線輝度によるフィルタを設け、閾値以上の輝度データのみをフィルタにより透過させるようにすることで、撮像データからマーカ15を容易に抽出することが可能となる。
プロジェクタ制御部10は、プロジェクタ11に対して、予め設定された所定の時間帯(以下、「第1の照射時間帯」ともいう)において、所定の時間間隔(以下、「第1の照射時間間隔」ともいう)で所定の回数(以下、「第1の照射回数」ともいう)、後述するマーカ15を発光させて、所定の照射領域(以下、「第1の照射領域」ともいう)内に照射するように制御する。
プロジェクタ制御部10は、プロジェクタ11に対して、第1の照射時間間隔ごとにマーカ15の照射位置が異なるように制御する。なお、照射位置の制御においては、予め、互いに異なる複数の照射位置を設定したテーブルを作成しておき、当該テーブルに基づいて、異なる照射位置を設定するようにしてもよい。また、照射位置の制御においては、照射位置がそれぞれ異なるように、ランダムに照射位置を算出するようにしてもよい。
プロジェクタ制御部10は、後述の特徴点撮像部21により、例えば、マーカ15が隠れて撮影できないケース(オクルージョン)やマーカ15が撮像領域外にある等の理由で撮像できないケースが発生する可能性を考慮すると、第1の照射時間帯(例えば1/60秒)の間に、プロジェクタ11によるマーカ15の照射に係る第1の照射回数として、例えば8回以上、好ましくは16回、24回、又は32回、発生させて照射するように設定することが好ましい。その場合、第1の照射時間帯を仮に1/60秒間とした場合、プロジェクタ11によるマーカ15の照射に係る第1の照射時間間隔は、それぞれ、1/(60×16)秒、1/(60×24)秒又は1/(60×32)秒となり、その時のフレームレートは、それぞれ、960fps、1440fps、1920fpsとなる。
例示した第1の照射時間帯、第1の照射時間間隔、及び第1の照射回数の詳細な説明は、後述する。
プロジェクタ制御部10は、後述するように、通信可能に接続された制御装置3からの指示に基づいて、プロジェクタ11に対する制御信号を出力するようにしてもよい。
<電子機器2>
次に電子機器2について説明する。電子機器2の説明に際して、各電子機器2を区別する必要がある場合、インデックスn(1≦n≦N)(N:電子機器2の台数)を用いて、電子機器2(n)(1≦n≦N)として参照する。その際、電子機器2(n)の備える‘構成要素’についても、‘構成要素’(n)とすることで、電子機器2(n)の備える構成要素であることを示す。
図2Bに示すように、電子機器2は、撮像制御部20と、特徴点撮像部21と、深度カメラ部22と、記憶部25を備え、これらの他、さらに入出力及び通信等の各種のインタフェースを備えてよい。最初に特徴点撮像部21及び深度カメラ部22について説明する。撮像制御部20については、後述する。
<特徴点撮像部21>
特徴点撮像部21(n)(1≦n≦N)は、プロジェクション部1(プロジェクタ11)によりマーカ15が照射されるタイミングと同期して、少なくとも第1の照射領域の一部を含む領域を撮像する。なお、特徴点撮像部21(n)は、プロジェクタ11の照射領域のすべての領域を撮像することが好ましい。
プロジェクタ11が不可視光線としての、例えば赤外線によりマーカ15を第1の照射時間間隔ごとに異なる照射位置に照射する場合、電子機器2(n)の備える特徴点撮像部21(n)(1≦n≦N)は、例えば、高速度赤外線カメラであって、第1の照射時間間隔ごとに異なる照射位置に照射されるマーカ15を撮像する。ここで、プロジェクタ11が第1の照射時間間隔毎に異なる位置に照射したマーカ15を全て撮像することができるように、特徴点撮像部21(n)(1≦n≦N)に設定されるシャッタースピード(撮像時のフレームレート)は、プロジェクタ11がマーカ15を照射するフレームレートと同期をとるようにしてもよい。
そうすることで、プロジェクタ11が、例えば時刻tから第1の照射時間帯(例えば1/60秒間)に第1の照射時間間隔(例えば1/(60×16)秒の時間間隔)でマーカ15を第1の照射回数(例えば16回)異なる照射位置に照射したときの照射映像の集合を{特徴点照射映像(t,j)(1≦j≦16)}とした場合、各特徴点撮像部21(n)(1≦n≦N)は{特徴点照射映像(t,j)(1≦j≦16)}を撮像した特徴点撮像データの集合{特徴点撮像データ(n)(t,j)(1≦j≦16)}を取得する。なお、各特徴点撮像部21(n)(1≦n≦N)はプロジェクタ11のフレームレート以上で撮影して特徴点撮像データの集合を得るようにしてもよい。
以下、説明のため、第1の照射時間帯を時刻tから1/60秒間とし、第1の照射時間間隔を1/(60×16)秒の時間間隔とし、第1の照射回数を16回とする態様を例として説明するが、本発明における第1の照射時間帯、第1の照射時間間隔、及び第1の照射回数はこれらの値に限られない。ユーザは、キャリブレーションに応じて任意の値を設定することができる。後述するように、例えば、第1の照射時間帯の長さは、当該時間帯における各電子機器(n)の移動量が無視できる長さ(例えば、ユーザにより設定される所定の閾値以下)であればよい。また、第1の照射回数は、後述するように、例えば8以上の所定の回数に設定することができる。
<特徴点撮像部21の座標系>
ここで、特徴点撮像部21の備える座標系について簡単に説明する。
特徴点撮像部21(n)は、それぞれ固有の座標系、すなわち、カメラ座標系(n)、正規化画像座標系(n)、及びデジタル画像座標系(n)を備える。なお、本実施例では、特徴点撮像部(n)において、レンズ歪みの影響をキャンセルした補正画像が得られるものとし、内部パラメータは既知とする。
<カメラ座標系>
カメラ座標系(n)は、空間を表す3次元座標として、特徴点撮像部21(n)としての赤外線カメラ(n)を中心としてみた3次元座標系である。カメラ座標系(n)は、一般的に、カメラレンズ(n)の中心を原点として、カメラ(n)の光軸方向をZ軸とし、カメラ(n)の上向きをY軸とし、カメラ(n)の横向きをX軸とする3次元座標系(右手系)とされる。
以下、特に断らない限り、カメラ座標系(n)による座標値を(X,Y,Z)で表す。
<正規化画像座標系>
正規化画像座標系(n)は、光軸上の点を原点とし、x軸、y軸をそれぞれ、X軸、Y軸に平行にとり、焦点距離fを1とした2次元座標系(x、y)を正規化画像座標系(n)という。
以下、特に断らない限り、正規化画像座標系(n)による座標値を(x,y)で表す。
このとき、
= X/Z
= Y/Z
が成り立つ。
<デジタル画像座標系>
デジタル画像座標系(n)は、画素数(pixel)単位で記述される。以下、デジタル画像座標系を画像座標系ともいう。
デジタル画像座標系(n)は、左上を原点とし、右方向を第1軸(u軸)、下方向を第2軸(v軸)とする。また、光軸が通る点を画像中心といい(c,v)で表す。
fを特徴点撮像部21の焦点距離、δ及びδは、それぞれ、撮像素子の画素の横、縦の間隔とすると、
α = f/δ 及びα = f/δ は、画素数(pixel)単位で表される焦点距離とする。
このとき、正規化画像座標(x,y)とデジタル画像座標(u,v)の間には、
u = αx+c ここで、α = f/δ
v = αx+c ここで、α = f/δ
なお、ααとcをカメラの内部パラメータという。
<深度カメラ部22>
深度カメラ部22(n)(1≦n≦N)は、深度センサ(図示せず)を、例えば通常の画像カメラと組み合わせて構成することができる。深度カメラ部22(n)を用いて計測対象物を計測することで、計測対象物表面の各点を画素単位で例えばRGBの色情報とともに深度カメラ部22(n)の備える3次元の座標系における座標値を併せ持つ、計測対象物の点群データ(n)を生成することができる。
深度カメラ部22(n)は、固有の基準位置に基づく3次元のカメラ座標系(以下、「深度カメラ座標系(n)」ともいう)を備えている。深度カメラ部22により計測された計測対象物表面の各点の位置は、深度カメラ座標系(n)により、3次元座標により表される。以下、特徴点撮像部21(n)のカメラ座標系(X、Y、Z)と区別するために深度カメラ座標系(n)による座標値を(X 、Y 、Z )で表す。
したがって、深度カメラ部22(n)により計測する場合には、計測対象物表面の各点の位置を表す3次元座標値(X 、Y 、Z )と、その3次元座標位置における計測対象物表面のRGBの色情報と、からなる点データの集合を点群データ(n)として取得することができる。
深度カメラ部22(n)は、計測対象物の表面の各点の情報を画素単位で、予め設定した時間間隔で取得することができる。例えば、時間間隔として1/30秒を設定することで、深度カメラ部22(n)は、1秒間に30コマの画像データ(30fps)を取得することができる。深度カメラ部22(n)により計測された各点群データ(n)には、それぞれ計測時刻となるタイムスタンプを付すことができ、当該タイムスタンプに基づいて点群データ(n)の間で関連付けが可能となっている。
N個(1≦N)の深度カメラ部22をインデックス1、2、3、・・・Nにより識別する場合、tを計測時刻とすると、インデックス(識別番号)nの深度カメラ部22(n)により取得した点群データをQn(t)と表現することができる。
特徴点撮像部21(n)の有するカメラ座標系(n)と深度カメラ部22(n)の深度カメラ座標系(n)との関係について簡単に説明する。
特徴点撮像部21(n)と深度カメラ部22(n)とを予めキャリブレーションしておくことで、深度カメラ座標系(n)における座標値をカメラ座標系(n)における座標値に変換する座標変換行列 を、例えば、電子機器2の記憶部(図示せず)又は後述する制御装置3の記憶部32に記憶する。逆に、カメラ座標系(n)における座標値を深度カメラ座標系(n)における座標値に変換する座標変換行列を で表す。
これらの間には以下の関係が成り立つ。
=E
=E
<キャリブレーションフェーズと深度データ取得フェーズ>
以下の説明において、特徴点撮像部21(n)は、第1の撮像時間帯を時刻tから1/60秒間とし、第1の撮像時間間隔を1/(60×16)秒の時間間隔とし、第1の撮像回数を16回として、プロジェクタ11の照射タイミングと同期をとるものとする。そうすることで、特徴点撮像部21(n)は、時刻tから1/60秒経過するまでの間に、16回、{特徴点照射映像(t,j)(1≦j≦16)}を撮像した特徴点撮像データの集合{特徴点撮像データ(n)(t,j)(1≦j≦16)}を取得することができる。
他方、深度カメラ部22(n)は、フレームレート30fpsで深度データを取得するものを例示する。
この場合、例えば、撮像制御部20(n)は、特徴点撮像部21(n)による特徴点撮像データを取得するフェーズ(「キャリブレーションフェーズ」という)と、深度カメラ部22(n)による点群データを取得するフェーズ(「深度データ取得フェーズ」という)と、を交互に実行するように制御する。図4にキャリブレーションフェーズと深度データ取得フェーズとが交互に発生する様子を示す。
より具体的には、図4を参照すると、特徴点撮像部21(n)は、第1の撮像時間帯(時刻tから1/60秒の間)において、第1の撮像時間間隔(1/(60×16)秒の時間間隔)ごとに、第1の撮像回数(16回)特徴点撮像データの集合{特徴点撮像データ(n)(t,j)(1≦j≦16)}を取得する(キャリブレーションフェーズ)。
次に、時刻t(=t+1/60秒)に、深度カメラ部22(n)により点群データQn(t)を計測する(深度データ取得フェーズ)。
次に、時刻t(=t+1/60秒)から1/60秒の間、特徴点撮像部21(n)により、16回特徴点撮像データを取得する(キャリブレーションフェーズ)。
次に、時刻t(=t+1/60秒)に、深度カメラ部22(n)により点群データQn(t)を計測する(深度データ取得フェーズ)。
このように、時刻t2i=t+(1/30)×i (0≦i)から第1の照射時間帯(1/60秒)の間、特徴点撮像部21(n)により、第1の照射回数(16回)特徴点撮像データを取得するキャリブレーションフェーズ(2i)(0≦i)と、時刻t2i+1=t+1/60+(1/30)×i (0≦i)ごとに深度カメラ部22(n)により点群データQn(t2i+1)を計測する深度データ取得フェーズ(2i+1)(0≦i)とを交互に実行する。
<撮像制御部20>
撮像制御部20(n)(1≦n≦N)は、前述したキャリブレーションフェーズ(2i)(0≦i)において、特徴点撮像部21(n)に対して、少なくともプロジェクタ11の照射領域の一部を含む領域を、第1の照射時間間隔で第1の照射回数、撮像するように制御する。特徴点撮像部21(n)は、プロジェクタ11の照射領域を撮像することが好ましい。
撮像制御部20(n)は、後述するように、通信可能に接続された制御装置3からの指示に基づいて、特徴点撮像部21(n)に対する制御信号を同時に出力するようにしてもよい。そうすることで、プロジェクタ11と全ての特徴点撮像部21(n)(1≦n≦N)とは、容易に同期をとることができる。
撮像制御部20(n)は、各キャリブレーションフェーズ(2i)(0≦i)において、プロジェクタ11が、例えば時刻t2i(0≦i)から第1の照射時間帯(例えば1/60秒の間)に第1の照射時間間隔(1/(60×16)秒の時間間隔)でマーカ15を第1の照射回数(16回)異なる照射位置に照射したときの照射映像{特徴点照射映像(t2i,j)(1≦j≦16)}を、特徴点撮像部21(n)により撮像した特徴点撮像データの集合{特徴点撮像データ(n)(t2i,j)(1≦j≦16)}を後述する制御装置3に送信する。
また、撮像制御部20(n)は、前述したとおり、各深度データ取得フェーズ(2i+1)(0≦i)において、深度カメラ部22(n)に対して、点群データQn(t2i+1)を撮像するように制御する。
撮像制御部20(n)は、各深度データ取得フェーズ(2i+1)(0≦i)において、深度カメラ部22(n)が、時刻t2i+1(0≦i)において計測した点群データをQn(t2i+1)を後述する制御装置3に送信する。
<制御装置3>
次に制御装置3について説明する。
制御装置3は、例えばパーソナルコンピュータ又はサーバ装置等の情報処理装置としてもよい。あるいはCPU、DSP等の演算チップを搭載した演算ボードで構成することができる。図2Cに示すように、制御装置3は、制御部30及び記憶部32を備え、これらの他、さらに入出力及び通信等の各種のインタフェースを備えてよい。
制御部30は、制御装置3の全体を制御する部分であり、記憶部32に記憶されたソフトウェア(常時キャリブレーションプログラム)を適宜読み出して実行することにより、本実施形態における各種機能を実現している。制御部30は、CPUであってよい。
記憶部32は、ハードウェア群を制御装置3として機能させるための各種プログラム、及び各種データ等の記憶領域であり、ROM、RAM、フラッシュメモリ又はハードディスクドライブ(HDD)等であってよい。
図2Dに示すように、制御部30は、キャリブレーションフェーズ指示部301と、特徴点取得部302と、特徴点検出部303と、対応点抽出部304と、第1キャリブレーション部305と、深度データ取得フェーズ指示部306と、点群データ取得部307と、点群データ座標値変換部308と、合成点群データ作成部309と、を備える。
キャリブレーションフェーズ指示部301は、後述する深度データ取得フェーズ指示部306と連携して、前述したように、キャリブレーションフェーズと、深度データ取得フェーズと、を交互に実行するように制御する。図4に、キャリブレーションフェーズと、深度データ取得フェーズと、を交互に実行する一例を示す。
図4に示すように、t2i =t+(1/30)×i (0≦i)とすると、キャリブレーションフェーズは、tから1/30秒間隔でt、t、・・・と続く。
他方、t2i+1=t+1/60+(1/30)×i (0≦i)とすると、深度データ取得フェーズは、t1(=t+1/60)から1/30秒間隔でt、t、・・・と続く。
そうすることで、キャリブレーションフェーズと、深度データ取得フェーズと、を交互に実行するように制御することができる。
このように、キャリブレーションフェーズ指示部301は、プロジェクション部1に対して、例えば時刻t2i(0≦i)から第1の照射時間帯(例えば1/60秒の間)に第1の照射時間間隔(例えば1/(60×16)秒の時間間隔)でマーカ15を第1の照射回数(例えば16回)異なる照射位置に照射するように照射指示を行うとともに、特徴点撮像部21(n)に対して、プロジェクタ11の照射と同期して、少なくともプロジェクタ11の照射領域の一部を含む領域を、第1の照射時間間隔で第1の照射回数、撮像するように撮像指示をする。
特徴点取得部302は、キャリブレーションフェーズ時に、プロジェクタ11により時刻t2i(0≦i)から第1の照射時間帯(例えば1/60秒の間)に第1の照射時間間隔(例えば1/(60×16)秒の時間間隔)でマーカ15を第1の照射回数(例えば16回)異なる位置に照射されたときに、各電子機器2(n)(特徴点撮像部21(n))により各照射映像を撮像した撮像データの集合{特徴点撮像データ(n)(t2i、j)(0≦i),(1≦j≦16)}を各電子機器2(n)から、取得する。
ここで、電子機器2(n)は移動可能としているが、例えば、時刻t2i(0≦i)から第1の照射時間帯(例えば1/60秒の間)の電子機器2(n)の移動量、すなわち特徴点撮像部21(n)の移動量は無視できるものとする。すなわち、時刻t2i(0≦i)から第1の照射時間帯(例えば1/60秒の間)における、特徴点撮像部21(n)のカメラ座標系(n)、正規化画像座標系(n)、及びデジタル画像座標系(n)は、それぞれ同一の固定座標系とみなすことができる。
そこで、特徴点撮像部21(n)の時刻t2i(0≦i)から第1の照射時間帯(例えば1/60秒の間)の座標系を、それぞれカメラ座標系(n,t2i)、正規化画像座標系(n,t2i)、及びデジタル画像座標系(n,t2i)という。
また、各特徴点撮像データ(n)(t2i、j)(0≦i),(1≦j≦16)を例えば正規化画像座標系(n)における座標値に基づいて重畳して1つの画像データとしたものを、特徴点撮像データ(n、t2i)と表す。すなわち、特徴点撮像データ(n、t2i)は、第1の照射時間間隔で照射された特徴点j(1≦j≦16)を含む。
特徴点検出部303は、各特徴点撮像部21(n)ごとに時刻t2iから第1の照射時間間隔(例えば1/(60×16)秒の時間間隔)で撮像された、特徴点撮像データ(n)(t2i、j)(1≦j≦16)から、それぞれマーカ15の照射位置(特徴点(j))を検出する。
前述したように、特徴点撮像部21(n)に赤外線の輝度によるフィルタを設け、閾値以上の輝度データのみを当該フィルタにより透過させるようにすることで、特徴点検出部303は、撮像データからマーカ15を容易に検出することが可能となる。また、マーカ15を円の形状をした点又はカギ状の線分とすることで、特徴点検出部303は、円の中心又はカギ状の線分の頂点を特徴点として容易に識別することができる。
そうすることで、特徴点検出部303は、これらを重畳した正規化画像座標系(n,t2i)における、特徴点(n,t2i)(j)(1≦j≦16)の正規化画像座標値(n,t2i)(j)(1≦j≦16)をそれぞれ算出することができる。
ここで、プロジェクタ11は時刻t2i(0≦i)から、第1の照射時間帯(例えば1/60秒の間)に第1の照射時間間隔(例えば1/(60×16)秒の時間間隔)でマーカ15を第1の照射回数(例えば16回)異なる位置に照射したことから、マーカ15の照射位置(特徴点(j))の正規化画像座標値(n,t2i)(j)(1≦j≦16)は全て異なる。また、任意の異なる画像座標系(n,t2i)及び画像座標系(n,t2i)において、画像座標系(n,t2i)におけるj番目の特徴点(n,t2i)(j)(1≦j≦16)と、画像座標系(n,t2i)におけるj番目の特徴点(n,t2i)(j)(1≦j≦16)とはそれぞれ2画像間の対応点となる。
対応点抽出部304は、前述したように、任意の2つの画像座標系(n,t2i)におけるj番目の特徴点(n,t2i)(j)(1≦j≦16)と、画像座標系(n,t2i)におけるj番目の特徴点(n,t2i)(j)(1≦j≦16)とをそれぞれ2画像間の対応点として抽出する。
第1キャリブレーション部305は、任意の2つの画像座標系(n,t2i)及び画像座標系(n,t2i)において、対応点抽出部304により、2画像間の対応点を8点以上とれることから、2画像間での対応点に基づいて、公知の8点アルゴリズムにより、カメラ座標系(n,t2i)と、他のカメラ座標系(n,t2i)との相対位置関係を算出することができる。
すなわち、第1キャリブレーション部305は、3×3の回転行列である(n2,t2i)(n1,t2i)、及び3次元の位置ベクトルである(n2,t2i)(n1,t2i)を算出し、カメラ座標系(n,t2i)における3次元座標値をP(n1,t2i),カメラ座標系(n,t2i)における3次元座標値をP(n2,t2i)とすると、以下の関係が成り立つ。
(n2,t2i)(n2,t2i)(n1,t2i)(n1,t2i)(n2,t2i)(n1,t2i)
(式1)
このように、空間上の任意の点のカメラ座標系(n,t2i)における3次元座標値を他のカメラ座標系(n,t2i)における3次元座標値に変換することができる。
なお、仮にnの画像座標系(n,t2i)及びnの画像座標系(n,t2i)において、対応点が8点以上とれない場合であっても、例えば、nの画像座標系(n,t2i)との間で、nの画像座標系(n,t2i)及びnの画像座標系(n,t2i)がそれぞれ対応点を8点以上取れる場合、当該2画像間での対応点に基づいて、8点アルゴリズムにより、nのカメラ座標系(n,t2i)と、nのカメラ座標系(n,t2i)との相対位置関係、及びnのカメラ座標系(n,t2i)と、nのカメラ座標系(n,t2i)との相対位置関係を算出することができる。
そうすることで、nのカメラ座標系(n,t2i)との相対位置関係を介して、nのカメラ座標系(n,t2i)と、nのカメラ座標系(n,t2i)との相対位置関係を算出することができる。
深度データ取得フェーズ指示部306は、図4に示したように、キャリブレーションフェーズと深度データ取得フェーズとが交互に発生するように、キャリブレーションフェーズ指示部301と連携して、深度データ取得フェーズを制御する。
より具体的には、深度データ取得フェーズ指示部306は、撮像制御部20(n)に対して、例えば時刻t2i+1=(0≦i)ごとに、深度カメラ部22(n)により、計測対象物表面の各点を画素単位で例えばRGBの色情報とともに深度カメラ部22(n)の備える3次元の座標系における座標値を併せ持つ、計測対象物の点群データQn(t2i+1)を撮像するように指示をする。ここで、深度カメラ部22(n)のフレームレートを30fpsとする場合、t2i+1=t+1/60+(1/30)×i (0≦i)としてもよい。
点群データ取得部307は、各電子機器2(n)(深度カメラ部22(n))から、時刻t2i+1(0≦i)に撮像した点群データQn(t2i+1)を取得する。
ここで、各点群データQn(t2i+1)は、深度カメラ座標系(n)による3次元座標値(X 、Y 、Z )と、3次元座標値における例えばRGB等の色情報とを併せ持つ点群データである。
点群データ座標値変換部308は、点群データ取得部307により各電子機器2(n)から取得した点群データQn(t2i+1)(0≦i)をカメラ座標系(n)における座標値に変換する。より具体的には、点群データQn(t2i+1)を、前述した座標変換行列 により座標変換することで、点群データQn(t2i+1)をカメラ座標系(n)における座標値に変換された点群データQn´(t2i+1)を生成する。
ここで、説明を簡単にするため、カメラ座標系(n)(1≦n≦N)の中から、予め基準座標系となるカメラ座標系(1)を設定しておく。ここでは、カメラ座標系(1)が予め基準座標系として設定されているものとする。
点群データ座標値変換部308は、第1キャリブレーション部305により算出された、座標変換関数により、カメラ座標系(n,t2i)(2≦n≦N)における3次元座標値P(n,t2i)を、基準座標系として設定されたカメラ座標系(1,t2i)における3次元座標値P(1,t2i)に変換することができる。
また、電子機器2(n)は移動可能としているが、前述したように、例えば、時刻t2iから時刻t2i+1(0≦i)の電子機器2(n)の移動量は無視できるものとする。すなわち、時刻t2i(0≦i)におけるカメラ座標系(n)と時刻t2i+1(0≦i)におけるカメラ座標系(n)とは、それぞれ同一の固定座標系とみなすことができる。
点群データ座標値変換部308は、点群データQn(t2i+1)をカメラ座標系(n)における座標値に変換された点群データQn´(t2i+1)を生成し、カメラ座標系(n)における座標値に変換された点群データQn´(t2i+1)を、カメラ座標系(n,t2i)(2≦n≦N)における3次元座標値P(n,t2i)を基準座標系として設定されたカメラ座標系(1,t2i)における3次元座標値P(1,t2i)に変換する座標変換により、基準座標系として設定されたカメラ座標系(1,t2i)における座標値に変換することで、カメラ座標系(1)における座標値に変換された点群データQn−>1´(t2i+1)を生成することができる。
なお、電子機器2を移動しないように設置した場合(すなわち、設置位置を固定させた場合)、カメラ座標系(1)を例えば、ワールド座標系としてもよい。
合成点群データ作成部309は、点群データ座標値変換部308により、深度データ取得フェーズの時刻t2i+1ごとに、各深度カメラ部(n)により撮像された各点群データQn(t2i+1)の3次元座標値が基準座標系(カメラ座標系(1,t2i))での3次元座標値に変換された点群データQn−>1´(t2i+1)(1≦n≦N)に基づいて、該3次元座標値が同じ値となる点を、同一点として重ね合わせることで、基準座標系(カメラ座標系(1,t2i))における合成点群データQ´(t2i+1)を作成することができる。
以上のように、本実施形態によると、従来技術で述べたような特別な治具を必要とせず、各深度カメラ(n)を移動させながら、容易に深度カメラ(n)間のキャリブレーションをすることができる。これにより、例えば、複数の深度カメラ(n)を移動させながら、形状の変化する計測対象物を計測する場合において、多視点同時刻の点群データの合成を容易に行うことができる。
以上、本発明の実施形態の常時キャリブレーションシステム100の各機能部の実施形態を、プロジェクション部、電子機器2、及び制御装置3等の構成に基づいて説明した。
次に、本発明の実施形態の常時キャリブレーションシステム100における一連の処理の流れについて図5を参照しながら説明する。図5は、常時キャリブレーションシステム100における一連の処理の流れを示すフロー図である。なお、以下の動作を始める前に、各初期設定、特徴点撮像部21(n)のカメラ座標系(n)と深度カメラ部(n)のカメラ座標系(n)との間の座標変換行列は算出済とする。
図5を参照すると、ST1のキャリブレーションフェーズにおいて、時刻t2i(0≦i)から、第1の照射時間帯に、第1の照射時間間隔で、第1の照射回数、プロジェクタ11により、照射パターン(マーカ15)を異なる位置に照射する。同時に、プロジェクタ11の照射と同期して、電子機器2の特徴点撮像部21(n)(1≦n≦N)により、プロジェクタ11の照射領域を撮像する。
ST2において、制御装置3は、各特徴点撮像部21(n)(1≦n≦N)の撮像した特徴点撮像データ(n)(t2i、j)(1≦j≦16)に基づいて、2画像間の対応点を抽出し、8点アルゴリズムにより、各特徴点撮像部21(n)の備えるカメラ座標系(n)間の相対位置関係を算出して、例えば、カメラ座標系(1)を基準座標系として、基準座標系との座標変換行列を算出する。
ST3の深度データ取得フェーズにおいて、時刻t2i+1に各深度カメラ部(n)により、被写体を計測して、点群データQn(t2i+1)を取得する。
ST4において、ST3で算出された座標変換行列と、特徴点撮像部21(n)のカメラ座標系(n)と深度カメラ部(n)のカメラ座標系(n)との間の座標変換行列と、に基づいて、各点群データQn(t2i+1)を基準座標系における3次元座標値に変換し、変換後の座標値が同じ値となる点を、同一点として重ね合わせることで、基準座標系における合成点群データQ´(t2i+1)を作成する。
ST5において、当業者にとって公知の3次元表示技術に基づいて、合成点群データQ´(t2i+1)を、ユーザにより設定された任意の視点から見た画像を、例えばスマートフォンやタブレット等の表示部に表示する。
ST6において、撮影終了か否かを判断する。終了の場合(YES)エンドに移る。終了でない場合(No)、ST1に戻り、次のキャリブレーションフェーズに移行する。
以上のようにして、時刻t2i+1ごとに合成点群データQ´(t2i+1)が作成され、ユーザにより設定された任意の視点から見た3次元動画を、例えばスマートフォンやタブレット等でリアルタイムでみることができる。
以上、本発明の常時キャリブレーションシステム100の好ましい実施形態について説明したが、本発明は、上述の実施形態に制限されるものではなく、適宜変更が可能である。
<変形例1>
上記実施形態においては、特徴点撮像部21(n)と深度カメラ部22(n)とは、それぞれ別の構成要素としたが、これに限られない。
例えば、深度カメラ部22(n)の備える深度センサ(図示せず)が、高速度赤外線カメラの場合、当該深度センサを特徴点撮像部21(n)として利用することができる。
すなわち、深度カメラ部22(n)が特徴点撮像部21(n)を備えるように構成してもよい。
<変形例2>
上記実施形態においては、特徴点撮像部21(n)を単眼カメラとしたが、これに限られない。特徴点撮像部21(n)を例えば、赤外線ステレオカメラとしてもよい。そうすることで、特徴点撮像部21(n)は、それぞれのカメラ座標系(n)における、マーカ15の3次元座標値を取得することができる。
それにより、4つ以上の線形独立となる対応点をとることができれば、2つのカメラ座標系(n)とカメラ座標系(n)との相対位置関係を算出することができる。
<変形例3>
本実施形態の常時キャリブレーションシステム100において、例えば、プロジェクション部1、電子機器2、及び制御装置3のそれぞれ有する各機能部を、クラウド上の仮想コンピュータを含めて、特定のコンピュータに集中させるか、又は複数のコンピュータに分散させるか、については、ユーザにとって適宜成しえる設計事項である。また、クラウド上の仮想コンピュータに機能部を持たせるようにしてもよい。
例えば、制御装置の機能の一部を特定の電子機器(1)が備えるようにしてもよい。例えば、キャリブレーションフェーズ指示部301、深度データ取得フェーズ指示部306を特定の電子機器(1)が備えるようにしてもよい。
<変形例4>
本実施形態の常時キャリブレーションシステム100において、深度カメラ(n)のフレームレートとして30fpsを例示し、特徴点撮像部21(n)のフレームレートとして960fpsを例示し、第1の照射時間間隔を1/60秒で、第1の照射回数を16回を例示したが、これに限られない。これらの値は、プロジェクタ11、特徴点撮像部21(n)、及び深度カメラ部(n)の対応可能な高速フレームレートに応じて適宜設定することができる。
<変形例5>
本実施形態の常時キャリブレーションシステム100において、キャリブレーションフェーズと深度データ取得フェーズとを、交互に発生させるように制御したが、これに限られない。
キャリブレーションフェーズと深度データ取得フェーズとを同時に行うように制御してもよい。
100 常時キャリブレーションシステム
1 プロジェクション部
10 プロジェクタ制御部
11 プロジェクタ
15 照射パターン(マーカ)
2 電子機器
20 撮像制御部
21 特徴点撮像部
22 深度カメラ部
25 記憶部
3 制御装置
30 制御部
301 キャリブレーションフェーズ指示部
302 特徴点取得部
303 特徴点検出部
304 対応点抽出部
305 第1キャリブレーション部
306 深度データ取得フェーズ指示部
307 点群データ取得部
308 点群データ座標値変換部
309 合成点群データ作成部
5 ネットワーク

Claims (11)

  1. 予め設定された第1の照射時間帯に予め設定された第1の照射時間間隔で予め設定された第1の照射回数、不可視光線により予め形状の設定された照射パターンを所定の照射領域内に照射するプロジェクタを有し、前記第1の照射時間間隔ごとに前記照射パターンの照射される位置が異なるように照射するプロジェクション部と
    2以上の移動可能な電子機器と、
    制御装置と、を備え、
    前記電子機器は、それぞれ、
    前記プロジェクション部により前記照射パターンが照射されるタイミングと同期して、少なくとも前記所定の照射領域の一部を含む領域を撮像する特徴点撮像部を備え、
    前記制御装置は、
    前記プロジェクション部に対して、前記第1の照射時間帯に前記第1の照射時間間隔で前記照射パターンを第1の照射回数異なる照射位置に照射するように照射指示を行い、特徴点撮像部に対して、前記プロジェクタによる前記照射パターンの照射と同期して、少なくともプロジェクタの照射領域の一部を含む領域を、前記第1の照射時間帯に前記第1の照射時間間隔で前記第1の照射回数、撮像するように撮像指示をするキャリブレーションフェーズ指示部と、
    前記電子機器それぞれから、前記特徴点撮像部により撮像した前記第1の照射時間間隔で前記第1の照射回数、照射した各照射映像を撮像した撮像データの集合を取得する特徴点取得部と、
    前記撮像データの集合から、それぞれ前記照射パターンの位置を検出し、特徴点として抽出する特徴点検出部と、
    前記特徴点撮像部ごとに取得した前記撮像データの集合間で、同じ照射タイミングで照射された照射映像を撮像した撮像データにおける特徴点をそれぞれ対応点として抽出する、対応点抽出部と、
    前記対応点抽出部により抽出した対応点に基づき、前記特徴点撮像部の1つである特徴点撮像部の備えるカメラ座標系と、他の特徴点撮像部の備えるカメラ座標系との相対位置関係を、前記対応点に基づいて算出する第1キャリブレーション部と、を備える常時キャリブレーションシステム。
  2. 前記不可視光線は赤外線であり、
    前記特徴点撮像部は赤外線カメラであり、
    前記第1キャリブレーション部は、
    前記対応点抽出部により抽出される対応点が8個以上ある場合に、8点アルゴリズムにより、前記特徴点撮像部の1つである特徴点撮像部の備えるカメラ座標系と、他の特徴点撮像部の備えるカメラ座標系との相対位置関係を、前記対応点に基づいて算出する請求項1に記載の常時キャリブレーションシステム。
  3. 前記不可視光線は赤外線であり、
    前記特徴点撮像部は赤外線ステレオカメラであり、
    前記第1キャリブレーション部は、
    前記対応点抽出部により抽出される対応点が4個以上ある場合に、前記特徴点撮像部の1つである特徴点撮像部の備えるカメラ座標系と、他の特徴点撮像部の備えるカメラ座標系との相対位置関係を、前記対応点に基づいて算出する請求項1に記載の常時キャリブレーションシステム。
  4. 前記照射パターンは、その形状が点又はカギ状の線分である、請求項1から請求項3のいずれか1項に記載の常時キャリブレーションシステム。
  5. 前記照射パターンは、その輝度が所定の閾値と等しいか又は当該閾値を超える、請求項1から請求項4のいずれか1項に記載の常時キャリブレーションシステム。
  6. 前記特徴点検出部は、撮像データから輝度が前記閾値を超える個所を検出する、請求項5に記載の常時キャリブレーションシステム。
  7. 前記電子機器は、それぞれ、
    深度カメラ部を備え、
    前記制御装置は、さらに、
    前記プロジェクション部による照射パターンの照射を開始する直前、又は前記第1の照射時間間隔で前記第1の照射回数、照射を実行した直後に、すべての前記深度カメラ部に対して、同時に被写体の撮像指示を行う深度データ取得フェーズ指示部を備え、
    前記深度カメラ部のそれぞれから、画像データを撮像したタイムスタンプと、前記深度カメラ部の備える深度カメラ座標系における座標位置と、を含む点群データの集合を取得する点群データ取得部と、
    を備える、請求項1から請求項6の何れか1項に記載の常時キャリブレーションシステム。
  8. 前記深度カメラ部が、前記特徴点撮像部を備える、請求項7に記載の常時キャリブレーションシステム。
  9. 前記制御装置は、さらに、
    前記電子機器ごとに、予め前記特徴点撮像部の備えるカメラ座標系と前記深度カメラ部の備える深度カメラ座標系との間の座標変換行列を備え、
    前記座標変換行列と、前記第1キャリブレーション部により算出された前記特徴点撮像部の備えるカメラ座標系と、前記特徴点撮像部と異なる他の特徴点撮像部の備えるカメラ座標系との相対位置関係と、に基づき、前記深度カメラ部で撮像された点群データを所定の3次元座標系における座標値に変換する点群データ座標値変換部と、
    前記点群データを、前記点群データ座標値変換部により変換された前記所定の3次元座標系における座標値に基づいて、重なる部分の位置合わせを行うことで、1つの合成点群データを作成する合成点群データ作成部と、を備える請求項7又は請求項8に記載の常時キャリブレーションシステム。
  10. 予め設定された第1の照射時間帯に予め設定された第1の照射時間間隔で予め設定された第1の照射回数、不可視光線(赤外線)により予め形状の設定された照射パターンを所定の照射領域内に照射するプロジェクタを有し、前記第1の照射時間間隔ごとに前記照射パターンの照射される位置が異なるように照射するプロジェクション部と、前記プロジェクション部により前記照射パターンが照射されるタイミングと同期して、少なくとも前記所定の照射領域の一部を含む領域を撮像する特徴点撮像部を備える、2以上の移動可能な電子機器と、通信可能に接続されるコンピュータにより、
    前記プロジェクション部に対して、前記第1の照射時間帯に前記第1の照射時間間隔で前記照射パターンを第1の照射回数異なる照射位置に照射するように照射指示を行い、前記特徴点撮像部に対して、前記プロジェクタによる前記照射パターンの照射と同期して、少なくともプロジェクタの照射領域の一部を含む領域を、前記第1の照射時間帯に前記第1の照射時間間隔で前記第1の照射回数、撮像するように撮像指示をするキャリブレーションフェーズステップと、
    前記電子機器それぞれから、前記特徴点撮像部により撮像した前記第1の照射時間間隔で前記第1の照射回数、照射した各照射映像を撮像した撮像データの集合を取得する撮像データ取得ステップと、
    前記撮像データの集合から、それぞれ前記照射パターンの位置を検出し、特徴点として抽出する特徴点検出ステップと、
    前記特徴点撮像部ごとに取得した前記撮像データの集合間で、同じ照射タイミングで照射された照射映像を撮像した撮像データにおける特徴点をそれぞれ対応点として抽出する、対応点抽出ステップと、
    前記対応点抽出ステップにおいて抽出した対応点に基づき、前記特徴点撮像部の1つである特徴点撮像部の備えるカメラ座標系と、他の特徴点撮像部の備えるカメラ座標系との相対位置関係を、前記対応点に基づいて算出するキャリブレーションステップと、を備える常時キャリブレーション方法。
  11. コンピュータに、請求項10に記載の各ステップを実行させるためのコンピュータプログラム。
JP2018117050A 2018-06-20 2018-06-20 常時キャリブレーションシステム及びその方法 Expired - Fee Related JP6633140B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018117050A JP6633140B2 (ja) 2018-06-20 2018-06-20 常時キャリブレーションシステム及びその方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018117050A JP6633140B2 (ja) 2018-06-20 2018-06-20 常時キャリブレーションシステム及びその方法

Publications (2)

Publication Number Publication Date
JP2019219929A true JP2019219929A (ja) 2019-12-26
JP6633140B2 JP6633140B2 (ja) 2020-01-22

Family

ID=69096602

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018117050A Expired - Fee Related JP6633140B2 (ja) 2018-06-20 2018-06-20 常時キャリブレーションシステム及びその方法

Country Status (1)

Country Link
JP (1) JP6633140B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024032971A1 (de) * 2022-08-09 2024-02-15 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung und verfahren zur vermessung dreidimensionaler virtueller bilder und objekte eines head-up-displays

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62206684A (ja) * 1986-03-07 1987-09-11 Nippon Telegr & Teleph Corp <Ntt> パタ−ン投影による位置形状計測方法
JPH0771940A (ja) * 1993-06-21 1995-03-17 Nippon Telegr & Teleph Corp <Ntt> 3次元情報入力方法及びそれを使った3次元情報入力装置
JPH09323280A (ja) * 1996-06-04 1997-12-16 Nippon Telegr & Teleph Corp <Ntt> マニピュレータの制御方法及びシステム
JP2009100342A (ja) * 2007-10-18 2009-05-07 Sanyo Electric Co Ltd カメラ校正装置及び方法、並びに、車両
JP2009270915A (ja) * 2008-05-07 2009-11-19 Kagawa Univ 3次元形状の計測方法および装置
WO2015008587A1 (ja) * 2013-07-16 2015-01-22 富士フイルム株式会社 撮影装置及び3次元計測装置
JP2015056834A (ja) * 2013-09-13 2015-03-23 株式会社リコー 投影システム、画像処理装置、投影方法およびプログラム
JP2015233266A (ja) * 2014-05-16 2015-12-24 株式会社リコー 画像処理システム、情報処理装置、プログラム
JP2017194301A (ja) * 2016-04-19 2017-10-26 株式会社デジタルハンズ 顔形状測定装置及び方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62206684A (ja) * 1986-03-07 1987-09-11 Nippon Telegr & Teleph Corp <Ntt> パタ−ン投影による位置形状計測方法
JPH0771940A (ja) * 1993-06-21 1995-03-17 Nippon Telegr & Teleph Corp <Ntt> 3次元情報入力方法及びそれを使った3次元情報入力装置
JPH09323280A (ja) * 1996-06-04 1997-12-16 Nippon Telegr & Teleph Corp <Ntt> マニピュレータの制御方法及びシステム
JP2009100342A (ja) * 2007-10-18 2009-05-07 Sanyo Electric Co Ltd カメラ校正装置及び方法、並びに、車両
JP2009270915A (ja) * 2008-05-07 2009-11-19 Kagawa Univ 3次元形状の計測方法および装置
WO2015008587A1 (ja) * 2013-07-16 2015-01-22 富士フイルム株式会社 撮影装置及び3次元計測装置
JP2015056834A (ja) * 2013-09-13 2015-03-23 株式会社リコー 投影システム、画像処理装置、投影方法およびプログラム
JP2015233266A (ja) * 2014-05-16 2015-12-24 株式会社リコー 画像処理システム、情報処理装置、プログラム
JP2017194301A (ja) * 2016-04-19 2017-10-26 株式会社デジタルハンズ 顔形状測定装置及び方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
川端 聡、河井 良浩: ""参照平面上の局所座標系間の対応推定による複数カメラの校正法"", 電子情報通信学会論文誌, vol. 94, no. 8, JPN6019033378, 1 August 2011 (2011-08-01), JP, pages 1314 - 1323, ISSN: 0004158281 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024032971A1 (de) * 2022-08-09 2024-02-15 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung und verfahren zur vermessung dreidimensionaler virtueller bilder und objekte eines head-up-displays

Also Published As

Publication number Publication date
JP6633140B2 (ja) 2020-01-22

Similar Documents

Publication Publication Date Title
US20240000295A1 (en) Light field capture and rendering for head-mounted displays
CN111060023B (zh) 一种高精度3d信息采集的设备及方法
KR102417177B1 (ko) 인사이드-아웃 위치, 사용자 신체 및 환경 추적을 갖는 가상 및 혼합 현실을 위한 머리 장착 디스플레이
CN106643699B (zh) 一种虚拟现实系统中的空间定位装置和定位方法
JP6447516B2 (ja) 画像処理装置、および画像処理方法
JP2019141620A (ja) 三次元物体上の注視点決定方法及び装置
JP6377863B2 (ja) 反射マップ表現による奥行きマップ表現の増補
JP2018511098A (ja) 複合現実システム
EP3441788A1 (en) Apparatus and method for generating a representation of a scene
JP2019194616A (ja) 画像に基づく位置検出方法、装置、機器及び記憶媒体
JP2016218905A (ja) 情報処理装置、情報処理方法、及びプログラム
CN107517346B (zh) 基于结构光的拍照方法、装置及移动设备
WO2004044522A1 (ja) 3次元形状計測方法およびその装置
WO2007041690A2 (en) Device for generating three dimensional surface models of moving objects
JP2019087791A (ja) 情報処理装置、情報処理方法、及び、プログラム
JP2023526239A (ja) 医療シーンなどのシーンを撮像してシーン内の物体を追跡する方法及びシステム
JP2023511670A (ja) 多視点カメラシステムからのデータを用いるなどで深度センサからの深度データを増強する方法及びシステム
WO2017187694A1 (ja) 注目領域画像生成装置
JP7479729B2 (ja) 三次元表現方法及び表現装置
CN107330974B (zh) 商品展示方法、装置及移动设备
JP6633140B2 (ja) 常時キャリブレーションシステム及びその方法
CN113870213A (zh) 图像显示方法、装置、存储介质以及电子设备
JP5336325B2 (ja) 画像処理方法
KR102298047B1 (ko) 디지털 콘텐츠를 녹화하여 3d 영상을 생성하는 방법 및 장치
WO2020044809A1 (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190920

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191211

R150 Certificate of patent or registration of utility model

Ref document number: 6633140

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees