JP6930739B2 - キャリブレーションシステム - Google Patents

キャリブレーションシステム Download PDF

Info

Publication number
JP6930739B2
JP6930739B2 JP2018146740A JP2018146740A JP6930739B2 JP 6930739 B2 JP6930739 B2 JP 6930739B2 JP 2018146740 A JP2018146740 A JP 2018146740A JP 2018146740 A JP2018146740 A JP 2018146740A JP 6930739 B2 JP6930739 B2 JP 6930739B2
Authority
JP
Japan
Prior art keywords
image
depth
coordinates
mapping
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018146740A
Other languages
English (en)
Other versions
JP2020021401A (ja
Inventor
クルニアワン ソニ
クルニアワン ソニ
Original Assignee
株式会社プレースホルダ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社プレースホルダ filed Critical 株式会社プレースホルダ
Priority to JP2018146740A priority Critical patent/JP6930739B2/ja
Publication of JP2020021401A publication Critical patent/JP2020021401A/ja
Application granted granted Critical
Publication of JP6930739B2 publication Critical patent/JP6930739B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Description

本発明は、キャリブレーションシステムに関する。
デプスカメラを用いて画像を重畳表示させることが行われている。たとえば特許文献1では、デプスカメラを用いて現実の物体に仮想的な物体を重畳表示させる技術が開示されている。
特開2013−101528号公報
しかしながら、特許文献1に記載技術では、現実の物体が広範囲に広がっているような状況に対応することができない。
本発明は、このような背景を鑑みてなされたものであり、広い範囲に対応することのできる深度測定装置を容易に較正することを目的とする。
上記課題を解決するための本発明の主たる発明は、画像を投影する投影場所の深度を検出する複数の深度測定装置を較正するキャリブレーションシステムであって、複数の深度測定装置から深度情報を取得し、取得した前記深度情報を合成した深度マップを作成する深度マップ作成部と、前記深度マップの座標を前記投影場所の座標にマッピングするための第1のマッピング情報を作成する第1のマッピング処理部と、前記画像の座標を前記投影場所の座標にマッピングするための第2のマッピング情報を作成する第2のマッピング処理部と、を備えることとする。
その他本願が開示する課題やその解決方法については、発明の実施形態の欄及び図面により明らかにされる。
本発明によれば、広い範囲に対応可能な深度測定装置を容易に較正することができる。
投影先となるボールプール1の構成例を示す図である。 重複領域12を設けてデプスカメラ10を配置した場合の測定領域11を表す図である。 本実施形態に係る投影システムの全体構成例を示す図である。 画像処理装置20のハードウェア構成例を示す図である。 画像処理装置20のソフトウェア構成例を示す図である。 投影画像記憶部221の構成例を示す図である。 設定情報記憶部222に記憶されるデプスカメラ設定情報とプロジェクタ設定情報との構成例を示す図である。 画像処理装置20により実行されるキャリブレーション処理の流れを説明する図である。 画像処理装置20により実行される投影処理の流れを説明する図である。
本発明の実施形態の内容を列記して説明する。本発明の実施の形態による投影システムは、以下のような構成を備える。
[項目1]
画像を投影する投影場所の深度を検出する複数の深度測定装置を較正するキャリブレーションシステムであって、
複数の深度測定装置から深度情報を取得し、取得した前記深度情報を合成した深度マップを作成する深度マップ作成部と、
前記深度マップの座標を前記投影場所の座標にマッピングするための第1のマッピング情報を作成する第1のマッピング処理部と、
前記画像の座標を前記投影場所の座標にマッピングするための第2のマッピング情報を作成する第2のマッピング処理部と、
を備えることを特徴とするキャリブレーションシステム。
[項目2]
項目1に記載のキャリブレーションシステムであって、
複数の投影装置から出力される個別画像を合成して前記画像を作成する画像生成部をさらに備えること、
を特徴とするキャリブレーションシステム。
[項目3]
項目2に記載のキャリブレーションシステムであって、
前記画像生成部は、前記個別画像のそれぞれに画像処理を施し、前記画像処理後の前記個別画像を合成すること、
前記個別
を特徴とするキャリブレーションシステム。
[項目4]
項目1ないし3のいずれか1項に記載のキャリブレーションシステムであって、
前記深度情報の座標を前記第1のマッピング情報を用いて前記投影場所の座標に変換し、変換後の前記座標を前記第2のマッピング情報を用いて前記画像の是表に変換する座標変換部をさらに備えること、
を特徴とするキャリブレーションシステム。
以下、本発明の実施形態の係る投影システムについて説明する。本実施形態の投影システムは、ボールプール1に画像を投影(いわゆるプロジェクションマッピング)しようとするものであり、投影に先立ってキャリブレーションを行うキャリブレーションシステムでもある。
図1は、投影先となるボールプール1の構成例を示す図である。図1の例では、矩形のボールプール1の一隅に滑り台2が設置されており、滑り台2を除くL字型の多角形部分に画像が投影される。ボールプール1には多数のボールが入れられており、ボールの位置や重なり具合などは中に入った人の動きなどに応じて常時変化するため、投影面の凹凸を検出するべくデプスカメラ10(深度センサあるいは深度測定装置)を配置する。デプスカメラ10からは測定領域11における深度の分布(深度マップ)を取得することが可能であり、この深度マップに応じて測定領域11内の凹凸を把握することができる。この凹凸に応じて画像処理した画像を投影することにより、ボールの動きに追随したリアルタイムのプロジェクションマッピングを行うことが可能となる。
図1に示すように、デプスカメラ10は、各デプスカメラ10の測定領域11が重ならないよう一定間隔を開けて配置される。しかし、実際にはデプスカメラ10の測定領域11にはズレが生じることが多く、重複領域12を設けながらデプスカメラ10が配置されることになる。図2は重複領域12を設けてデプスカメラ10を配置した場合の測定領域11を表す図である。ボールプール1の図2の図面上の左上隅を原点(0,0)として、右方向に増加するX軸および下方向に増加するY軸により座標が決定されるものとする。以下、測定領域11の配置位置を示す場合には、領域(Y,X)と表記する。たとえば、左上隅の測定領域11(1)は、領域(0,0)と表記され、その右の測定領域11(2)は、領域(0,1)と表記される。
図2の例において、領域(0,1)で表される測定領域11(2)は、左方にズレており、領域(0,0)と領域(0,1)との間には重複領域12(1)が生じている。同様に、領域(0,1)と領域(0,2)との間には重複領域12(2)が生じており、領域(1,0)と領域(0,0)との間には重複領域12(3)が生じている。測定領域11(2)、測定領域11(3)および測定領域11(4)は上方にもズレている。測定領域11の上下方向および左右方向のズレはオフセット(Y,X)として表される。たとえば測定領域11(2)にはオフセット(−3,−5)を設定することができる。オフセットの単位は、たとえば、深度マップを表す画像の画素単位(ピクセル)とすることができる。
また、領域(0,2)が示す測定領域11(3)は、ボールプール1をはみ出して設けられることになる。以下の説明では、測定領域11のうちボールプール1内の部分についてを特に検知領域13ともいい、測定領域11のうちボールプール1外の部分についてを特に除外領域14ともいうものとする。
本実施形態の投影システムでは、プロジェクタ30から投影する画像は、曲げたり変形したりと座標変換を伴う画像処理(映像ブレンディング)を行うことを想定している。プロジェクタ30もキャリブレーションが必要であり、キャリブレーション後の画像には映像ブレンディングが施されて投影する最終画像となるため、最終画像の座標系に合わせてデプスカメラ10のキャリブレーションを行うことは難しい。そこで、本実施形態の投影システムでは、ボールプール1の座標系(ボールプール1の所定の基準点からの実距離で表される。)に対してデプスカメラ10のキャリブレーションを行い、また、ボールプール1の座標系に対してプロジェクタ30のキャリブレーションを行う。このようにボールプール1の座標系を介してデプスカメラ10の座標系とプロジェクタ30の座標系とを変換可能とすることで、容易にキャリブレーションを行うことが可能となる。
図3は、本実施形態に係る投影システムの全体構成例を示す図である。本実施形態の投影システムは、デプスカメラ10から取得した深度マップに応じて画像処理を行い、画像処理した投影画像をプロジェクタ30からボールプール1に投影させる画像処理装置20を含んで構成される。
図4は、画像処理装置20のハードウェア構成例を示す図である。画像処理装置20は、CPU201、メモリ202、記憶装置203、デバイスインタフェース204、入力装置205、出力装置206、出力インタフェース207を備える。記憶装置203は、各種のデータやプログラムを記憶する、例えばハードディスクドライブやソリッドステートドライブ、フラッシュメモリなどである。デバイスインタフェース204は、デプスカメラ10に接続するためのインタフェースであり、たとえばシリアル通信のためのUSB(Universal Serial Bus)コネクタやRS232Cコネクタなどである。なお、デプスカメラ10との間で通信を行って深度マップを取得する場合には、デバイスインタフェース204は通信インタフェースであってよく、この場合、たとえば、イーサネット(登録商標)に接続するためのアダプタ、公衆電話回線網に接続するためのモデム、無線通信を行うための無線通信機などとすることができる。入力装置205は、データを入力する、例えばキーボードやマウス、タッチパネル、ボタン、マイクロフォンなどである。出力装置206は、データを出力する、例えばディスプレイやプリンタ、スピーカなどである。画像処理装置20は複数の出力装置206を備えることができる。出力インタフェース207は、プロジェクタ30を制御するためのインタフェースであり、たとえば、USBコネクタやHDMI(登録商標)(High-Definition Multimedia Interface)端子、アナログディスプレイコネクタなどである。画像処理装置20は、出力インタフェース207を介して画像をプロジェクタ30に送信することで、プロジェクタ30から映像がボールプール1に投影される。
図5は、画像処理装置20のソフトウェア構成例を示す図である。図5に示すように、画像処理装置20は、深度マップ取得部211、マッピング処理部212、画像処理部213、投影処理部214、投影画像記憶部221および設定情報記憶部222を備える。なお、深度マップ取得部211、マッピング処理部212、画像処理部213および投影処理部214は、画像処理装置20が備えるCPU201が記憶装置203に記憶されているプログラムをメモリ202に読み出して実行することにより実現される。また、投影画像記憶部221および設定情報記憶部222は、画像処理装置20が備えるメモリ202および記憶装置203の少なくともいずれかが提供する記憶領域の一部として実現される。
投影画像記憶部221は、プロジェクタ30から投影する投影画像を作成するための情報を記憶する。図6は投影画像記憶部221の構成例を示す図である。図6に示すように、本実施形態の投影画像記憶部221は、説明を簡単にするため、背景画像3211と、この背景画像に重畳表示させるための前景画像3212とを記憶するものとする。投影画像記憶部221は、たとえばファイルとして背景画像3211および前景画像3212を記憶することができる。なお、投影画像記憶部221には、3Dモデルやオブジェクトを作り出すための計算式などを投影画像記憶部221に記憶させるようにしてもよい。
設定情報記憶部222は、デプスカメラ10の設定情報(以下、デプスカメラ設定情報という。)およびプロジェクタ30の設定情報(以下、プロジェクタ設定情報という。)を記憶する。図7は、設定情報記憶部222に記憶されるデプスカメラ設定情報とプロジェクタ設定情報との構成例を示す図である。
デプスカメラ設定情報は、シリアルナンバー、配置、検知エリアおよびオフセットの項目を含む。シリアルナンバーは、デプスカメラ10を識別する情報である。配置は、ボールプール1に対してデプスカメラ10が配置される位置を示す情報であり、Y軸上での配置順と、X軸上での配置順とを含み、上述した領域(Y,X)に対応する。検知エリアは、検知領域13を特定する情報である。本実施形態では、検知エリアは、測定領域11の基準点(左上隅)からの幅(X軸方向の長さ)および高さ(Y軸方向の長さ)で表される。本実施形態において測定領域11は1280×720ピクセルであるものとし、測定領域11外に除外領域14が存在する場合には、除外領域14の幅および高さが1280および720から減算される。なお、ここでは検知領域13は矩形であることを想定するが、多角形や円形であってもよい。オフセットは、測定領域11のズレを示す情報であり、Y軸方向のオフセットおよびX軸方向のオフセットを含む。後述するように、画像処理部213は、当該オフセットおよび検知エリアを用いて、ワールド座標系における深度マップの位置を特定する。
プロジェクタ設定情報は、シリアルナンバー、配置、投影エリア、オフセットおよびマッピングパラメータの項目を含む。シリアルナンバーは、プロジェクタ30を識別する情報である。配置は、ボールプール1に対してプロジェクタ30が配置される位置を示す情報である。本実施形態では、1台のプロジェクタ30が用いられることを想定しており、常に配置には(0,0)が設定されるものとするが、複数のプロジェクタ30を用いてボールプール1に画像を投影する場合には、デプスカメラ10と同様に、Y軸方向の配置順と、X軸方向の配置順とで配置が表現される。投影エリアは、投影される画像の大きさを示す情報である。本実施形態では図7に示すように、1280×720ピクセルの画像がボールプール1に投影されることを想定している。オフセットは、プロジェクタ30による投影領域のズレを示す図であり、Y軸方向のオフセットおよびX軸方向のオフセットを含む。投影処理部214は、オフセットを用いて投影する画像の位置を調整することができる。マッピングパラメータは、投影する画像上の座標をボールプール1の座標系にマッピングするための情報である。マッピングパラメータは、たとえば画像上の座標を引数としてボールプール1上の座標への射影を返す関数として記述することもできる。
深度マップ取得部211は、デプスカメラ10から深度マップを取得する。なお、デプスカメラ10から深度マップを取得する処理については、公知の手法を用いるものとしてここでは詳細な説明を省略する。
マッピング処理部212は、深度マップを合成してボールプール1の全体をカバーする深度マップ(以下、ワールド深度マップという。)を作成する。マッピング処理部212はまた、プロジェクタ30が複数ある場合には、各プロジェクタ30に投影させる投影画像を合成した全体画像を作成することもできる。さらに、マッピング処理部212は、各デプスカメラ10のキャリブレーションを行い、その結果をデプスカメラ設定情報に設定して設定情報記憶部222に登録する。同様にマッピング処理部212は、プロジェクタ30のキャリブレーションを行い、その結果をプロジェクタ設定情報に設定して設定情報記憶部222に登録する。
デプスカメラ10のキャリブレーションは、たとえば、ボールプール1の中の測定領域11内に標定対象となる物体を設置することにより行う。具体的には、上記物体を設置した後、マッピング処理部212は、ボールプール1の基準位置(図1、図2の例では左上隅)からのX軸方向およびY軸方向のそれぞれの距離をユーザから受け付けて、デプスカメラ10の深度マップの座標系をボールプール1の座標系に変換し、深度マップに基づいて物体のボールプール1の座標系における位置(基準位置からX軸方向およびY軸方向のそれぞれの距離)を計算し、計算した位置と受け付けた位置との差をオフセットとしてデプスカメラ設定情報に設定することができる。
マッピング処理部212はまた、プロジェクタ30についてもキャリブレーションを行う。たとえば、マッピング処理部212は、プロジェクタ30から所定の投影画像を出力させ、投影画像の投影後、投影画像の基準位置をボールプール1の座標系に変換した座標と、ボールプール1の基準位置から投影画像の基準位置までの距離により表される座標との差をオフセットとしてプロジェクタ設定情報に設定することができる。
画像処理部213は、投影画像に係る画像処理を行う。画像処理部213は、たとえばUnityなどのエンジンを用いて画像処理を行うことができる。本実施形態では、画像処理部213は、予め準備した画像を曲げたり変形したりして画像の座標系を変換した投影画像を作成するものとする。また、画像処理部213は、複数のプロジェクタ30が存在する場合には、各プロジェクタ30が投影する画像を合成した全体画像について画像処理を行うことができる。また画像処理部213は、デプスカメラ10から取得する深度マップに応じた3次元形状にプロジェクションマッピングを行う。画像処理部213は、上述したオフセットおよび検知領域13の設定に応じて深度マップをオフセットおよび切り抜きしたうえで、深度マップの画像を合成し、ボールプール1の凹凸分布を取得する。画像処理部213は、当該凹凸分布に応じて前景画像3212を表示させる位置を特定する。たとえば、画像処理部213は、ボールが動いたときに、そのボールに追随させるようにボール上に前景画像3212を重畳させるべく、凹凸分布から特徴量を抽出してボールのオブジェクトを特定し、当該オブジェクトの位置を前景画像3212の位置として設定する。画像処理部213は、背景画像3211上の上記設定した位置に前景画像3212を重畳させて全体画像を生成し、生成した全体画像から座標変換により投影画像を作成する。なお、全体画像から投影画像への変換処理については、Unity等のエンジンを用いた公知の手法により実現できるものとして、ここでは詳細な説明を省略する。
投影処理部214は、投影画像をプロジェクタ30に出力して、プロジェクタ30からボールプール1に投影画像が投影されるように制御する。
以下、本実施形態のおける投影システムの処理について説明する。画像処理装置20は、デプスカメラ10およびプロジェクタ30のキャリブレーションに係るキャリブレーション処理と、キャリブレーションの結果を用いて画像をボールプール1に投影する投影処理とを行う。
図8は、画像処理装置20により実行されるキャリブレーション処理の流れを説明する図である。図8に示すキャリブレーション処理は、少なくとも投影システムの運用前に1回実行され、また必要に応じて、あるいは所定の期間(たとえば、2週間、1カ月、3ヶ月など任意の期間とすることができる。)ごとに実行される。
深度マップ取得部211は、デプスカメラ10から深度マップを取得し(S401)、マッピング処理部212は、取得された深度マップから、ボールプール1に設置した物体15を検出して、物体15の測定領域11内における位置を特定する(S402)。マッピング処理部212は、オペレータから物体15がボールプール1に置かれた実際の位置の入力を受け付け(S403)、受け付けた位置と、特定した位置とを比較してデプスカメラ10の測定領域11に係るオフセットを計算する(S404)。
ここで、本実施形態では、各測定領域11のオフセットは、X軸方向に1つ小さい位置に隣接する測定領域11からのX軸方向のオフセットと、Y軸方向に1つ小さい位置に隣接する測定領域11からのY軸方向のオフセットで表現されるものとし、キャリブレ−ション処理において、マッピング処理部212は、2つの隣接する測定領域11に対応するデプスカメラ10のペアについて、2つの測定領域11に跨がるように物体15を設置し、各測定領域11で検出した位置に基づいてオフセットを算出するようにしてもよい。マッピング処理部212は、計算したオフセットを含むデプスカメラ設定情報を作成して設定情報記憶部222に登録する(S405)。
次に画像処理部213は、プロジェクタ30が複数ある場合には、プロジェクタ30に出力する画像を合成した合成画像を生成し(S406)、合成画像を曲げたり変形したりする映像ブレンディング処理を行う(S407)。マッピング処理部212は、映像ブレンディング処理された画像上の座標を、ボールプール1の座標に変換(マッピング)する(S408)。マッピング処理部212は、マッピングに係るパラメータを設定したプロジェクタ設定情報を作成して設定情報記憶部222に登録する(S409)。
以上のようにして、デプスカメラ10の測定領域11の位置をボールプール1の座標系に合わせるとともに、プロジェクタ30の投影画像についてもボールプール1の座標系に合わせるようにキャリブレーションを行うことができる。
図9は、画像処理装置20により実行される投影処理の流れを説明する図である。図9に示す投影処理は、たとえば所定の時間(例えば60ミリ秒や1秒など任意の時間を設定することができる。)ごとに実行することができる。
深度マップ取得部211は、デプスカメラ10から深度マップを取得する(S421)。画像処理部213は、各デプスカメラ10に対応するデプスカメラ設定情報を設定情報記憶部222から読み出し、読み出したデプスカメラ設定情報に含まれる検知エリアが示す検知領域13の部分を深度マップから切り出す(S422)。また、画像処理部213は、ワールド深度マップ上における位置をデプスカメラ設定情報の配置およびオフセットに基づいて計算する(S423)。たとえば、画像処理部213は、算出対象の測定領域11のデプスカメラ設定情報(以下、対象設定情報という。)の配置に含まれるY軸方向の値(図2の測定領域11(1)の場合Y=0)に対応する他のデプスカメラ設定情報のうち、配置に含まれるX軸方向の値が対象設定情報の配置に含まれるX軸方向の値未満であるものについて、オフセットのX軸方向の値と、検知エリアの幅とを合計することで、算出対象の測定領域11の基準座標(左上座標)を算出することができる。
画像処理部213は、全ての深度マップを合成してワールド深度マップを作成し(S424)、特徴量検出などの公知の手法を用いてワールド深度マップからオブジェクトを抽出し(S425)、抽出したオブジェクトに対応する前景画像3212を特定する(S426)。オブジェクトと前景画像3212との対応付けには、任意の公知の手法を用いることができる。画像処理部213は、特定した前景画像3212を、抽出したオブジェクトの位置に合わせて背景画像3211に合成する(S427)。
画像処理部213は、Unity等のエンジンを用いて、ワールド深度マップに応じて全体画像の座標変換を行い投影画像を作成する(S428)。投影処理部214は、プロジェクタ30からボールプール1に全体画像が投影されるよう、作成された投影画像をプロジェクタ30に出力する(S429)。
以上のようにして、本実施形態の投影システムによれば、デプスカメラ10の測定領域11の重複領域12を考慮して複数のデプスカメラ10からの深度マップを合成することができる。これにより、広範囲の投影面であっても深度を検出してリアルタイムのプロジェクションマッピングを行うことが可能となる。たとえば、ボールプール1などの凹凸状態が高頻度に変化するような投影面にもプロジェクションマッピングにより任意の画像を投影することが可能となり、ボールプールで遊ぶ子供に新たな視覚体験を提供することができる。
以上、本実施形態について説明したが、上記実施形態は本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物も含まれる。
たとえば、本実施形態では、画像の投影先はボールプールであるものとしたが、これに限らず、任意の対象物とすることができる。深度センサの検知解像度以上であれば、ボールに限らず任意の物体が移動するものであってよい。
また、本実施形態では、深度マップを得るためにデプスカメラ10を用いるものとしたが、デプスカメラに限らず深度マップを得られるセンサであればよく、たとえばレーザセンサなどであってもよい。
また、本実施形態では、滑り台2についての投影には触れていなかったが、当然ながら、滑り台2の滑り面に対して画像を投影するようにすることもできる。
また、本実施形態では、全てのデプスカメラ10の測定領域11が同じ大きさであることを想定したが、これに限らず、測定範囲の異なるデプスカメラ10を用いるようにしてもよい。
また、本実施形態では、デプスカメラ10による測定領域11は矩形であるものとしたが、楕円形など任意の領域であってよい。この場合も、配置、検知エリアおよびオフセットを用いて検知領域13の位置および大きさを特定することができる。
また、本実施形態では画像処理装置20は1台のコンピュータであるものとしたが、複数のコンピュータにより構成する1台の仮想コンピュータにより実装するようにしてもよいし、機能部を複数のコンピュータに分散させてもよい。
また、本実施形態では、プロジェクタ30は1台であるものとしたが、複数台のプロジェクタ30を用いてもよい。この場合、デプスカメラ10の測定領域11の位置の調整と同様に、プロジェクタ30の投影領域についてのキャリブレーションの結果としての配置、投影エリアおよびオフセットを含むプロジェクタ設定情報を用いて、各プロジェクタ30の投影領域の位置を調整することができる。この場合、デプスカメラ10の場合とは異なり、投影画像から位置調整後の投影領域の画像を抽出してプロジェクタ30に送信することになる。これにより複数のプロジェクタ30と複数のデプスカメラ10との組み合わせを用いて、それぞれのキャリブレーション結果に応じて、プロジェクションマッピングを行うことが可能となる。
1 ボールプール
10 デプスカメラ
11 測定領域
12 重複領域
13 検知領域
14 除外領域
20 画像処理装置
30 プロジェクタ
211 深度マップ取得部
212 マッピング処理部
213 画像処理部
214 投影処理部
221 投影画像記憶部
222 設定情報記憶部

Claims (4)

  1. 像を投影する投影場所の深度を検出する複数の深度測定装置を較正するキャリブレーションシステムであって、
    複数の深度測定装置から深度情報を取得し、取得した前記深度情報を合成した深度マップを作成する深度マップ作成部と、
    前記深度マップの座標を前記投影場所の座標にマッピングするための第1のマッピング情報を作成する第1のマッピング処理部と、
    前記画像の座標を前記投影場所の座標にマッピングするための第2のマッピング情報を作成する第2のマッピング処理部と、
    を備え
    前記第1のマッピング処理部は、
    前記投影場所の基準位置から所定の距離に載置された標定対象となる物体の、前記複数の深度測定装置のうち一の深度測定装置によって得られた前記深度マップに基づく、前記深度マップの座標系の位置から、前記投影場所の座標系に変換して得られる位置を計算し、
    前記投影場所の座標系における前記基準位置からの前記所定の距離の位置と、前記変換して得られる位置との差を、前記一の深度測定装置のオフセットとして算出し、
    前記オフセットに基づいて前記一の深度測定装置の測定領域を調整する
    ことを特徴とするキャリブレーションシステム。
  2. 求項1に記載のキャリブレーションシステムであって、
    複数の投影装置から出力される個別画像を合成して前記画像を作成する画像生成部をさらに備えること、
    を特徴とするキャリブレーションシステム。
  3. 求項2に記載のキャリブレーションシステムであって、
    前記画像生成部は、前記個別画像のそれぞれに画像処理を施し、前記画像処理後の前記個別画像を合成すること、
    特徴とするキャリブレーションシステム。
  4. 求項1ないし3のいずれか1項に記載のキャリブレーションシステムであって、
    前記深度情報の座標を前記第1のマッピング情報を用いて前記投影場所の座標に変換し、変換後の前記座標を前記第2のマッピング情報を用いて前記画像の座標に変換する座標変換部をさらに備えること、
    を特徴とするキャリブレーションシステム。
JP2018146740A 2018-08-03 2018-08-03 キャリブレーションシステム Active JP6930739B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018146740A JP6930739B2 (ja) 2018-08-03 2018-08-03 キャリブレーションシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018146740A JP6930739B2 (ja) 2018-08-03 2018-08-03 キャリブレーションシステム

Publications (2)

Publication Number Publication Date
JP2020021401A JP2020021401A (ja) 2020-02-06
JP6930739B2 true JP6930739B2 (ja) 2021-09-01

Family

ID=69589885

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018146740A Active JP6930739B2 (ja) 2018-08-03 2018-08-03 キャリブレーションシステム

Country Status (1)

Country Link
JP (1) JP6930739B2 (ja)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014101955A1 (en) * 2012-12-28 2014-07-03 Metaio Gmbh Method of and system for projecting digital information on a real object in a real environment
JP2014134611A (ja) * 2013-01-09 2014-07-24 Ricoh Co Ltd 幾何歪み補正装置、プロジェクタ装置、及び幾何歪み補正方法
JP6318576B2 (ja) * 2013-11-22 2018-05-09 株式会社リコー 画像投影システム、画像処理装置、画像投影方法およびプログラム
JP2016099742A (ja) * 2014-11-19 2016-05-30 株式会社東芝 情報処理装置、映像投影装置、情報処理方法及びプログラム
JP6645151B2 (ja) * 2015-12-07 2020-02-12 富士通株式会社 投影装置、投影方法及び投影用コンピュータプログラム

Also Published As

Publication number Publication date
JP2020021401A (ja) 2020-02-06

Similar Documents

Publication Publication Date Title
JP6996594B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6363863B2 (ja) 情報処理装置および情報処理方法
KR101988372B1 (ko) 사진 이미지를 이용한 3차원 건축물 모델 역설계 장치 및 방법
JP6645151B2 (ja) 投影装置、投影方法及び投影用コンピュータプログラム
CN108028900B (zh) 投影设备、投影方法和程序存储介质
US9230330B2 (en) Three dimensional sensing method and three dimensional sensing apparatus
JP7145432B2 (ja) 投影システム、画像処理装置および投影方法
JP2010283674A (ja) 投影システム及び投影方法
JP6846661B2 (ja) 3次元的な投影対象のための投影方法及び装置
CN107147888B (zh) 一种利用图形处理芯片自动校正失真方法和装置
KR101649753B1 (ko) 다시점 카메라가 획득한 영상을 정합하는 방법 및 다시점 카메라 제어 시스템
CN111131801B (zh) 投影仪校正系统、方法及投影仪
JP2023546739A (ja) シーンの3次元モデルを生成するための方法、装置、およびシステム
JP2004228824A (ja) スタックプロジェクション装置及びその調整方法
JP6318576B2 (ja) 画像投影システム、画像処理装置、画像投影方法およびプログラム
JP2011155412A (ja) 投影システムおよび投影システムにおける歪み修正方法
JP2020194998A (ja) 制御装置、投影システム、制御方法、プログラムおよび記憶媒体
CN112785685B (zh) 一种装配引导方法及系统
JP6930739B2 (ja) キャリブレーションシステム
US11118899B2 (en) Work support system and work support method
JP2006109088A (ja) マルチプロジェクションシステムにおける幾何補正方法
KR101439966B1 (ko) 뎁스 정보를 이용한 영상의 재구성을 위한 영상 처리 방법 및 이를 이용한 영상 처리 장치
JP3052926B2 (ja) 三次元座標計測装置
CN115842905B (zh) 投射方法以及投射系统
US20240333896A1 (en) Image adjustment system, image adjustment method, and image adjustment device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210511

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210527

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210628

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210715

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210804

R150 Certificate of patent or registration of utility model

Ref document number: 6930739

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250