JP2022114626A - 情報処理装置、情報処理方法、およびプログラム - Google Patents
情報処理装置、情報処理方法、およびプログラム Download PDFInfo
- Publication number
- JP2022114626A JP2022114626A JP2021010993A JP2021010993A JP2022114626A JP 2022114626 A JP2022114626 A JP 2022114626A JP 2021010993 A JP2021010993 A JP 2021010993A JP 2021010993 A JP2021010993 A JP 2021010993A JP 2022114626 A JP2022114626 A JP 2022114626A
- Authority
- JP
- Japan
- Prior art keywords
- spatial
- image
- point group
- space
- server
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Image Generation (AREA)
- Image Analysis (AREA)
Abstract
【課題】空間の状態を遠隔的に把握するために有用な視覚情報を提供する。【解決手段】本開示の一態様に係る情報処理装置は、空間に関する複数の第1空間画像を取得する手段と、複数の第1空間画像を参照し、第1点群を作成する手段と、空間に関する第2点群を取得する手段と、第1点群と第2点群との位置合わせを行う手段と、第1点群と第2点群との位置合わせの結果を参照し、画像処理を行う手段とを具備する。【選択図】図3
Description
本開示は、情報処理装置、情報処理方法、およびプログラムに関する。
空間の状態を遠隔から把握すること(例えば、不動産のオンライン内覧、工事現場の管理の遠隔化)に関するニーズがある。しかしながら、人工的に作成された空間の3次元モデルは当該空間の実態を反映していないためリアリティに欠ける。監視カメラは視野が限られる。このように、空間の状態を遠隔的に把握するために有用な視覚情報を提供することは容易でない。
特許文献1には、カメラから取得された建築中の建造物内部の映像と、予め用意した建造物内部の3DCG群のうち上記映像に対応する3DCG画像とを重ね合わせることが記載されている。
本開示の目的は、空間の状態を遠隔的に把握するために有用な視覚情報を提供することである。
本開示の一態様に係る情報処理装置は、空間に関する複数の第1空間画像を取得する手段と、複数の第1空間画像を参照し、第1点群を作成する手段と、空間に関する第2点群を取得する手段と、第1点群と第2点群との位置合わせを行う手段と、第1点群と第2点群との位置合わせの結果を参照し、画像処理を行う手段とを具備する。
以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。
(1)第1の実施形態
第1の実施形態について説明する。
第1の実施形態について説明する。
(1-1)情報処理システムの構成
情報処理システムの構成について説明する。図1は、第1の実施形態の情報処理システムの構成を示すブロック図である。
情報処理システムの構成について説明する。図1は、第1の実施形態の情報処理システムの構成を示すブロック図である。
図1に示すように、情報処理システム1は、クライアント装置10と、サーバ30とを備える。
クライアント装置10及びサーバ30は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。
クライアント装置10及びサーバ30は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。
クライアント装置10は、情報処理装置の一例である。クライアント装置10は、例えば、スマートフォン、タブレット端末、又は、パーソナルコンピュータである。
サーバ30は、情報処理装置の一例である。サーバ30は、例えば、ウェブサーバである。サーバ30は、クライアント装置10からのリクエストに応じて、対象となる空間(「対象空間」と称する)を撮影した画像(「空間画像」と称する)に関する画像処理を実行する。
空間画像は、対象空間に設置されたセンサ(図示しない)によって生成される。ここで、画像とは、光学的なセンシング結果を意味する。以降の説明において、画像は、イメージセンサによって生成された2次元画像であることとする。しかしながら、画像は、デプスカメラによって生成された点群(カラー点群を含み得る)であってもよい。
センサは、対象空間に設置される。センサは、センシングを行い、画像を生成する。センサは、画像をサーバ30または図示しない画像サーバに送信する。センサは、任意の種別の光学センサ装置である。センサは、以下のいずれかであってよい。
・カメラ
・デプスカメラ
・LIDAR(Laser Imaging Detection and Ranging)
・ToF(Time of Flight)カメラ
・レーザスキャナ
・カメラ
・デプスカメラ
・LIDAR(Laser Imaging Detection and Ranging)
・ToF(Time of Flight)カメラ
・レーザスキャナ
(1-1-1)クライアント装置の構成
第1の実施形態のクライアント装置の構成について説明する。図2は、第1の実施形態のクライアント装置およびサーバの構成を示すブロック図である。
第1の実施形態のクライアント装置の構成について説明する。図2は、第1の実施形態のクライアント装置およびサーバの構成を示すブロック図である。
図1に示すように、クライアント装置10は、記憶装置11と、プロセッサ12と、入出力インタフェース13と、通信インタフェース14とを備える。
記憶装置11は、プログラム及びデータを記憶するように構成される。記憶装置11は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。
プログラムは、例えば、以下のプログラムを含む。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、ウェブブラウザ)のプログラム
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、ウェブブラウザ)のプログラム
データは、例えば、以下のデータを含む。
・情報処理において参照されるデータ及びデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
・情報処理において参照されるデータ及びデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
プロセッサ12は、記憶装置11に記憶されたプログラムを起動してデータを処理することによって、クライアント装置10の機能を実現するように構成される。プロセッサ12は、コンピュータの一例である。記憶装置11により記憶されるプログラム及びデータは、ネットワークを介して提供されてもよいし、コンピュータにより読み取り可能な記録媒体に記録して提供されてもよい。なお、クライアント装置10の機能の少なくとも一部が、1又は複数の専用のハードウェアにより実現されていてもよい。
入出力インタフェース13は、クライアント装置10に接続される入力デバイスから信号(例えば、ユーザの指示)を取得し、かつ、クライアント装置10に接続される出力デバイスに信号(例えば、画像信号)を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
通信インタフェース14は、クライアント装置10とサーバ30との間の通信を制御するように構成される。
(1-1-2)サーバの構成
第1の実施形態のサーバの構成について説明する。
第1の実施形態のサーバの構成について説明する。
図2に示すように、サーバ30は、記憶装置31と、プロセッサ32と、入出力インタフェース33と、通信インタフェース34とを備える。
記憶装置31は、プログラム及びデータを記憶するように構成される。記憶装置31は、例えば、ROM、RAM、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。
プログラムは、例えば、以下のプログラムを含む。
・OSのプログラム
・情報処理を実行するアプリケーションのプログラム
・OSのプログラム
・情報処理を実行するアプリケーションのプログラム
データは、例えば、以下のデータを含む。
・情報処理において参照されるデータ及びデータベース
・情報処理の実行結果
・情報処理において参照されるデータ及びデータベース
・情報処理の実行結果
プロセッサ32は、記憶装置31に記憶されたプログラムを起動することによって、サーバ30の機能を実現するように構成される。プロセッサ32は、コンピュータの一例である。記憶装置31により記憶されるプログラム及びデータは、ネットワークを介して提供されてもよいし、コンピュータにより読み取り可能な記録媒体に記録して提供されてもよい。なお、サーバ30の機能の少なくとも一部が、1又は複数の専用のハードウェアにより実現されていてもよい。
入出力インタフェース33は、サーバ30に接続される入力デバイスから信号(例えば、ユーザの指示)を取得し、かつ、サーバ30に接続される出力デバイスに信号(例えば、画像信号)を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
通信インタフェース34は、サーバ30とクライアント装置10との間の通信を制御するように構成される。
(1-2)実施形態の概要
第1の実施形態の概要について説明する。図3は、第1の実施形態の概要の説明図である。
第1の実施形態の概要について説明する。図3は、第1の実施形態の概要の説明図である。
図3に示すように、カメラCAM11は、空間SPを複数の異なる視点から撮影し、複数の空間画像SI11を生成する。
第1の例では、カメラCAM11の位置または姿勢の少なくとも1つを変更することにより、カメラCAM11は、複数の位置または姿勢で、空間SPを複数回撮影することで、複数の空間画像SI11を生成する。
第2の例では、カメラCAM11は多眼カメラである。カメラCAM11は、複数の異なる視点から同時に空間SPを撮影することで、複数の空間画像SI11を生成する。
第1の例では、カメラCAM11の位置または姿勢の少なくとも1つを変更することにより、カメラCAM11は、複数の位置または姿勢で、空間SPを複数回撮影することで、複数の空間画像SI11を生成する。
第2の例では、カメラCAM11は多眼カメラである。カメラCAM11は、複数の異なる視点から同時に空間SPを撮影することで、複数の空間画像SI11を生成する。
サーバ30は、カメラCAM11または図示しない画像サーバから送信された複数の空間画像SI11を取得する。サーバ30は、複数の空間画像SI11を参照し、点群PC11を生成する。一例として、サーバ30は、複数の空間画像SI11に対してSfM(Structure from Motion)処理を行うことで、点群PC11を生成する。
デプスカメラDC12は、空間SPに対して3次元計測を行い、点群PC12を生成する。
サーバ30は、デプスカメラDC12または図示しない画像サーバから送信された点群PC12を取得する。
サーバ30は、デプスカメラDC12または図示しない画像サーバから送信された点群PC12を取得する。
サーバ30は、点群PC11と点群PC12との位置合わせを行う。一例として、サーバ30は、点群PC11および点群PC12に対してIPC(Iterative Closest Point)処理を行うことにより、点群PC11および点群PC12の位置合わせを実現してもよい。
サーバ30は、点群PC11、または点群PC12の少なくとも1つを参照し、メッシュMS11を生成する。
サーバ30は、点群PC11と点群PC12との位置合わせの結果を参照し、複数の空間画像SI11に基づくテクスチャをメッシュMS11に貼り付ける。
これにより、サーバ30は、空間SPの状態を反映したテクスチャの貼り付けられたメッシュMS11を、当該空間SPの状態を遠隔的に把握するために有用な視覚情報として提供することができる。
(1-3)情報処理
第1の実施形態の情報処理について説明する。図4は、第1の実施形態の情報処理の全体フローを示す図である。図5は、図4のステップS150の第1の例を示すフローチャートである。図6は、図4のステップS150の第2の例を示すフローチャートである。
第1の実施形態の情報処理について説明する。図4は、第1の実施形態の情報処理の全体フローを示す図である。図5は、図4のステップS150の第1の例を示すフローチャートである。図6は、図4のステップS150の第2の例を示すフローチャートである。
情報処理は、開始条件が成立したことに応じて開始する。開始条件は、例えば以下の少なくとも1つを含むことができる。
・クライアント装置10に対してユーザにより情報処理の開始指示が入力され、サーバ30がクライアント装置10から情報処理の開始リクエストを受信した
・対象空間に関する複数の第1空間画像を取得可能であることが、クライアント装置10、カメラまたは画像サーバ(図示し合い)から通知された。
・クライアント装置10に対してユーザにより情報処理の開始指示が入力され、サーバ30がクライアント装置10から情報処理の開始リクエストを受信した
・対象空間に関する複数の第1空間画像を取得可能であることが、クライアント装置10、カメラまたは画像サーバ(図示し合い)から通知された。
図4に示すように、サーバ30は、第1空間画像の取得(S110)を実行する。
具体的には、プロセッサ32は、カメラまたは画像サーバから送信された、対象空間に関する複数の第1空間画像を取得する。
具体的には、プロセッサ32は、カメラまたは画像サーバから送信された、対象空間に関する複数の第1空間画像を取得する。
複数の第1空間画像は、互いに視点が異なる。複数の第1空間画像は、ステレオカメラまたは3以上の多眼カメラによって対象空間を撮影することで生成されてもよいし、単眼カメラの位置または姿勢の少なくとも1つを変更しながら対象空間を複数回に亘って撮影することで生成されてもよい。
ステップS110の後に、サーバ30は、第1点群の作成(S120)を実行する。
具体的には、プロセッサ32は、ステップS110において取得した複数の第1空間画像を参照し、第1点群を作成する。一例として、プロセッサ32は、複数の第1空間画像に対してSfM処理を行うことにより、第1点群を作成する。
具体的には、プロセッサ32は、ステップS110において取得した複数の第1空間画像を参照し、第1点群を作成する。一例として、プロセッサ32は、複数の第1空間画像に対してSfM処理を行うことにより、第1点群を作成する。
ステップS120の後に、サーバ30は、第2点群の取得(S130)を実行する。
具体的には、プロセッサ32は、デプスカメラまたは画像サーバから送信された、対象空間に関する第2点群を取得する。一例として、第2点群は、デプスカメラが対象空間に対して3次元計測を行うことで生成される。
具体的には、プロセッサ32は、デプスカメラまたは画像サーバから送信された、対象空間に関する第2点群を取得する。一例として、第2点群は、デプスカメラが対象空間に対して3次元計測を行うことで生成される。
ステップS130の後に、サーバ30は、点群の位置合わせ(S140)を実行する。
具体的には、プロセッサ32は、ステップS120において取得した第1点群とステップS130において取得した第2点群との位置合わせを行う。一例として、プロセッサ32は、第1点群および第2点群に対してIPC処理を行う。
具体的には、プロセッサ32は、ステップS120において取得した第1点群とステップS130において取得した第2点群との位置合わせを行う。一例として、プロセッサ32は、第1点群および第2点群に対してIPC処理を行う。
ステップS140の後に、サーバ30は、画像処理(S150)を実行する。
具体的には、プロセッサ32は、ステップS140における位置合わせの結果を参照し、画像処理を行う。
具体的には、プロセッサ32は、ステップS140における位置合わせの結果を参照し、画像処理を行う。
画像処理(S150)の第1の例では、サーバ30は、図5に示す処理を行う
図5に示すように、サーバ30は、メッシュの作成(S1501)を実行する。
具体的には、プロセッサ32は、点群を参照し、メッシュを作成する。一例として、プロセッサ32は、第1点群、第2点群、またはこれらの組み合わせを参照し、メッシュを作成する。
具体的には、プロセッサ32は、点群を参照し、メッシュを作成する。一例として、プロセッサ32は、第1点群、第2点群、またはこれらの組み合わせを参照し、メッシュを作成する。
ステップS1501の後に、サーバ30は、テクスチャの貼り付け(S1502)を実行する。
具体的には、プロセッサ32は、ステップS110において取得した複数の第1空間画像と、ステップS140における位置合わせの結果とを参照し、ステップS1501において作成したメッシュ毎に、第1空間画像に対応するテクスチャを生成する。プロセッサ32は、生成したテクスチャをメッシュに貼り付ける。プロセッサ32は、複数のメッシュに対して同一のテクスチャを貼り付けることもある。
具体的には、プロセッサ32は、ステップS110において取得した複数の第1空間画像と、ステップS140における位置合わせの結果とを参照し、ステップS1501において作成したメッシュ毎に、第1空間画像に対応するテクスチャを生成する。プロセッサ32は、生成したテクスチャをメッシュに貼り付ける。プロセッサ32は、複数のメッシュに対して同一のテクスチャを貼り付けることもある。
ステップS1502を以て、サーバ30は、画像処理(S150)の第1の例を終了する。
画像処理(S150)の第1の例によれば、リアルなテクスチャを貼られたメッシュを得ることできる。
画像処理(S150)の第2の例では、サーバ30は、図5と同様に、メッシュの作成(S1501)を実行する。
ステップS1501の後に、サーバ30は、メッシュとモデルの位置合わせ(S1510)を実行する。
具体的には、プロセッサ32は、ステップS1501において作成したメッシュの基準座標と、対象空間の3次元形状に関する空間モデルの基準座標の位置を合わせる。これにより、プロセッサ32は、基準座標系におけるメッシュの位置を決定する。空間モデルは、記憶装置31に保存されている。空間モデルは、例えばBIM(Building Information Modeling)データである。プロセッサ32は、まず複数の第1空間画像の少なくとも1つ(以下、「対象空間画像」と称する)の基準座標と、空間モデルの基準座標の位置を合わせる。これにより、プロセッサ32は、対象空間画像とメッシュとの位置関係を元に、メッシュと空間モデルとの位置合わせを行うことができる。ここで、対象空間画像と第1点群との位置関係は、第1点群の作成(S120)の処理結果を元に特定可能である。そして、第1点群とメッシュとの位置関係は、点群の位置合わせ(S140)、およびメッシュの作成(S1501)の処理結果を元に特定可能である。故に、対象空間画像とメッシュとの位置関係は、ステップS1510の実行時における既知情報である。
具体的には、プロセッサ32は、ステップS1501において作成したメッシュの基準座標と、対象空間の3次元形状に関する空間モデルの基準座標の位置を合わせる。これにより、プロセッサ32は、基準座標系におけるメッシュの位置を決定する。空間モデルは、記憶装置31に保存されている。空間モデルは、例えばBIM(Building Information Modeling)データである。プロセッサ32は、まず複数の第1空間画像の少なくとも1つ(以下、「対象空間画像」と称する)の基準座標と、空間モデルの基準座標の位置を合わせる。これにより、プロセッサ32は、対象空間画像とメッシュとの位置関係を元に、メッシュと空間モデルとの位置合わせを行うことができる。ここで、対象空間画像と第1点群との位置関係は、第1点群の作成(S120)の処理結果を元に特定可能である。そして、第1点群とメッシュとの位置関係は、点群の位置合わせ(S140)、およびメッシュの作成(S1501)の処理結果を元に特定可能である。故に、対象空間画像とメッシュとの位置関係は、ステップS1510の実行時における既知情報である。
ステップS1510の第1の例として、プロセッサ32は、対象空間画像の撮影条件および空間モデルの座標系(以下、「基準座標系」と称する)を参照して基準座標系における対象空間画像の撮影方向を特定することで、対象空間画像と空間モデルとの位置合わせを行う。ここで、撮影条件は、対象空間画像を撮影したカメラの位置、姿勢、焦点距離、またはそれらの組み合わせである。撮影条件は、対象空間画像とともにカメラによって送信されてもよいし、記憶装置31に予め格納されていてもよい。例えば、プロセッサ32は、対象空間画像を撮影したカメラの現実空間の位置および姿勢に対応する基準座標系における位置および姿勢を特定する。プロセッサ32は、特定した基準座標系における位置および姿勢と、カメラの焦点距離とを参照し、基準座標系における仮想カメラの位置および姿勢と、焦点距離とを決定する。プロセッサ32は、仮想カメラにより空間モデルを撮影したモデル画像と、対象空間画像とを比較する。一例として、プロセッサ32は、モデル画像から抽出した特徴量(例えばエッジ)と、対象空間画像から抽出した特徴量とを比較することにより、対象空間画像の任意の画素の基準座標系における位置を決定する。
ステップS1510の第2の例として、プロセッサ32は、空間モデルを特定の視点から撮影したモデル画像を対象空間画像と比較し、対象空間画像と空間モデルとの位置合わせを行う。例えば、プロセッサ32は、視点(つまり仮想カメラの原点)を所定のアルゴリズムに従って選択することと、選択した視点から仮想カメラで空間モデルを撮影してモデル画像を得ることとを、視点を変更しながら繰り返す。仮想カメラの原点を座標変換することで、視点を変更することができる。プロセッサ32は、撮影された複数のモデル画像のうち対象空間画像との比較対象となるモデル画像(「対象モデル画像」)を決定する。対象モデル画像は、以下のいずれかであってよい。
・ユーザによって選択されたモデル画像
・所定のオブジェクト(例えば、対象空間画像における被写体の1つ)に対応するオブジェクト画像を含むモデル画像
複数のモデル画像がオブジェクト画像を含む場合に、プロセッサ32は、オブジェクト画像の面積が最も大きいモデル画像、またはオブジェクトからの距離が最も近い視点に対応するモデル画像を対象モデル画像として決定してもよい。
プロセッサ32は、対象モデル画像の任意の画素(「対象画素」)の基準座標系における位置を当該対象画素に対応する対象空間画像の画素の基準座標系における位置として決定する。
・ユーザによって選択されたモデル画像
・所定のオブジェクト(例えば、対象空間画像における被写体の1つ)に対応するオブジェクト画像を含むモデル画像
複数のモデル画像がオブジェクト画像を含む場合に、プロセッサ32は、オブジェクト画像の面積が最も大きいモデル画像、またはオブジェクトからの距離が最も近い視点に対応するモデル画像を対象モデル画像として決定してもよい。
プロセッサ32は、対象モデル画像の任意の画素(「対象画素」)の基準座標系における位置を当該対象画素に対応する対象空間画像の画素の基準座標系における位置として決定する。
ステップS1511を以て、サーバ30は、画像処理(S150)の第2の例を終了する。
画像処理(S150)の第2の例によれば、対象空間に存在し、かつ空間モデルに定義されていない3次元構造をメッシュ化することができる。作成したメッシュを空間モデルとともに表示することで、空間モデルの視覚情報を強化することができる。
画像処理(S150)の第3の例では、サーバ30は、ステップS140における位置合わせの結果を参照し、第1点群と第2点群とを合成する。画像処理(S150)の第3の例によれば、第1点群または第2点群の情報量を補強することができる。
画像処理(S150)の第4の例では、サーバ30は、前述の第1の例~第3の例のうち少なくとも2つの組み合わせを実行する。
ステップS150を以て、サーバ30は、情報処理(図4)を終了する。
(1-4)小括
以上説明したように、第1の実施形態のサーバ30は、対象空間を撮影した複数の第1空間画像を参照し、対象空間に関する第1点群を作成する。サーバ30は、第1点群と、対象空間に関する第2点群との位置合わせを行い、位置合わせの結果を参照して画像処理を行う。この画像処理により、座標系の異なる視覚情報が融合される。従って、第1の実施形態のサーバ30によれば、画像処理の結果を、対象空間の状態を遠隔的に把握するために有用な視覚情報として提供することができる。
以上説明したように、第1の実施形態のサーバ30は、対象空間を撮影した複数の第1空間画像を参照し、対象空間に関する第1点群を作成する。サーバ30は、第1点群と、対象空間に関する第2点群との位置合わせを行い、位置合わせの結果を参照して画像処理を行う。この画像処理により、座標系の異なる視覚情報が融合される。従って、第1の実施形態のサーバ30によれば、画像処理の結果を、対象空間の状態を遠隔的に把握するために有用な視覚情報として提供することができる。
例えば、第1の実施形態のサーバ30は、第1点群または第2点群の少なくとも1つを参照してメッシュを作成し、かつ第1点群および第2点群の位置合わせの結果を参照して複数の第1空間画像に基づくテクスチャをメッシュに貼り付けてもよい。これにより、リアルなテクスチャを貼られたメッシュを得ることができる。
例えば、第1の実施形態のサーバ30は、第1点群または第2点群の少なくとも1つを参照してメッシュを作成し、メッシュと対象空間の3次元形状に関する空間モデルとの位置合わせを行うことにより基準座標系におけるメッシュの位置を決定してもよい。これにより、対象空間に存在し、かつ空間モデルに定義されていない3次元構造をメッシュ化することができる。作成したメッシュを空間モデルとともに表示することで、空間モデルの視覚情報を強化することができる。
例えば、第1の実施形態のサーバ30は、第1点群および第2点群の位置合わせの結果を参照し、第1点群と第2点群とを合成してもよい。これにより、第1点群または第2点群の情報量を補強することができる。
(2)第2の実施形態
第2の実施形態について説明する。但し、上述の実施形態と同様の説明は省略する。
第2の実施形態について説明する。但し、上述の実施形態と同様の説明は省略する。
(2-1)実施形態の概要
第2の実施形態の概要について説明する。図7は、第2の実施形態の概要の説明図である。
第2の実施形態の概要について説明する。図7は、第2の実施形態の概要の説明図である。
図7に示すように、カメラCAM21は、空間SPを複数の異なる視点から撮影し、複数の空間画像SI21を生成する。サーバ30は、カメラCAM21または図示しない画像サーバから送信された複数の空間画像SI21を取得する。サーバ30は、複数の空間画像SI21を参照し、点群PC21を生成する。一例として、サーバ30は、複数の空間画像SI21に対してSfM処理を行うことにより、点群PC21を生成する。
カメラCAM22は、空間SPを複数の異なる視点から撮影し、複数の空間画像SI22を生成する。サーバ30は、カメラCAM22または図示しない画像サーバから送信された複数の空間画像SI22を取得する。サーバ30は、複数の空間画像SI22を参照し、点群PC22を生成する。一例として、サーバ30は、複数の空間画像SI22に対してSfM処理を行うことにより、点群PC22を生成する。
カメラCAM21、およびカメラCAM22は、異なるカメラであってもよい。一例として、カメラCAM21は固定式の監視カメラであって、カメラCAM22は空間SP内を移動する人間が装備するウェアラブルカメラであってよい。
サーバ30は、点群PC21と点群PC22との位置合わせを行う。一例として、サーバ30は、点群PC21および点群PC22に対してIPC処理を行うことにより、点群PC21および点群PC22の位置合わせを実現してもよい。
サーバ30は、点群PC21と点群PC22との位置合わせの結果を参照し、複数の空間画像SI21のうち少なくとも1つと複数の空間画像SI22のうち少なくとも1つとを合成する。
これにより、サーバ30は、異なるカメラCAM21およびCAM22が空間SPを撮影することで生成された画像の合成結果を、当該空間SPの状態を遠隔的に把握するために有用な視覚情報として提供することができる。
(2-2)データベース
第2の実施形態のデータベースについて説明する。以下のデータベースは、記憶装置31に記憶される。
第2の実施形態のデータベースについて説明する。以下のデータベースは、記憶装置31に記憶される。
(2-2-1)空間画像データベース
第2の実施形態の空間画像データベースについて説明する。図8は、第2の実施形態の空間画像データベースのデータ構造を示す図である。
第2の実施形態の空間画像データベースについて説明する。図8は、第2の実施形態の空間画像データベースのデータ構造を示す図である。
空間画像データベースには、空間画像情報が格納される。空間画像情報は、空間画像に関する情報である。
図8に示すように、空間画像データベースは、カメラ毎のテーブルを含む。各テーブルは、「画像ID」フィールドと、「撮影時刻」フィールドと、「カメラ位置」フィールドと、「カメラ姿勢」フィールドと、「参照先」フィールドとを含む。各フィールドは、互いに関連付けられている。
「画像ID」フィールドには、画像IDが格納される。画像IDは、空間画像を識別する情報である。
「撮影時刻」フィールドには、撮影時刻情報が格納される。撮影時刻情報は、空間画像の撮影時刻に関する情報である。
「カメラ位置」フィールドは、カメラ位置情報が格納される。カメラ位置情報は、空間画像の撮影時におけるカメラの位置に関する情報である。カメラの位置は、基準座標系における位置であってもよいし、カメラ座標系における位置であってもよい。カメラ座標系は、空間画像を撮影したカメラを基準とする座標系である。カメラの位置がカメラ座標系における位置である場合に、サーバ30は、カメラ座標系と基準座標系との対応関係を参照し、基準座標系におけるカメラの位置を特定する。
「カメラ姿勢」フィールドは、カメラ姿勢情報が格納される。カメラ姿勢情報は、空間画像の撮影時におけるカメラの姿勢に関する情報である。カメラの姿勢は、基準座標系における姿勢であってもよいし、カメラ座標系における姿勢であってもよい。カメラの姿勢がカメラ座標系における姿勢である場合に、サーバ30は、カメラ座標系と基準座標系との対応関係を参照し、基準座標系におけるカメラの姿勢を特定する。
「参照先」フィールドは、参照先情報が格納される。参照先情報は、空間画像の参照先に関する情報である。一例として、参照先情報は、空間画像データの格納場所を特定するファイルパスである。
(2-3)情報処理
第2の実施形態の情報処理について説明する。図9は、第2の実施形態の情報処理の全体フローを示す図である。
第2の実施形態の情報処理について説明する。図9は、第2の実施形態の情報処理の全体フローを示す図である。
情報処理は、サーバ30が、クライアント装置10から情報処理のリクエストを受信したこと、または他の開始条件が成立したことに応じて開始する。
図9に示すように、サーバ30は図4と同様に、第1空間画像の取得(S110)、および第1点群の作成(S120)を実行する。
ステップS120の後に、サーバ30は、第2空間画像の取得(S231)を実行する。
具体的には、プロセッサ32は、カメラまたは画像サーバから送信された、対象空間に関する複数の第2空間画像を取得する。
具体的には、プロセッサ32は、カメラまたは画像サーバから送信された、対象空間に関する複数の第2空間画像を取得する。
複数の第2空間画像は、互いに視点が異なる。複数の第2空間画像は、ステレオカメラまたは3以上の多眼カメラによって対象空間を撮影することで生成されてもよいし、単眼カメラの位置または姿勢の少なくとも1つを変更しながら対象空間を複数回に亘って撮影することで生成されてもよい。第2の空間画像を撮影するカメラは、第1の空間画像を撮影するカメラと異なる。一例として、第1の空間画像は監視カメラによって撮影され、第2の空間画像はウェアラブルカメラによって撮影される。
ステップS231の後に、サーバ30は、第2点群の作成(S232)を実行する。
具体的には、プロセッサ32は、ステップS231において取得した複数の第2空間画像を参照し、第2点群を作成する。一例として、プロセッサ32は、複数の第2空間画像に対してSfM処理を行うことにより、第2点群を作成する。
具体的には、プロセッサ32は、ステップS231において取得した複数の第2空間画像を参照し、第2点群を作成する。一例として、プロセッサ32は、複数の第2空間画像に対してSfM処理を行うことにより、第2点群を作成する。
ステップS232の後に、サーバ30は、点群の位置合わせ(S240)を実行する。
具体的には、プロセッサ32は、ステップS120において取得した第1点群とステップS232において取得した第2点群との位置合わせを行う。一例として、プロセッサ32は、第1点群および第2点群に対してIPC処理を行う。
具体的には、プロセッサ32は、ステップS120において取得した第1点群とステップS232において取得した第2点群との位置合わせを行う。一例として、プロセッサ32は、第1点群および第2点群に対してIPC処理を行う。
ステップS240の後に、サーバ30は、画像処理(S250)を実行する。
具体的には、プロセッサ32は、ステップS240における位置合わせの結果を参照し、画像処理を行う。
具体的には、プロセッサ32は、ステップS240における位置合わせの結果を参照し、画像処理を行う。
画像処理(S250)の第1の例~第3の例では、それぞれ、サーバ30は、画像処理(S150)の第1の例(図5)~第3の例と同様の処理を行う。
画像処理(S250)の第4の例では、サーバ30は、ステップS240における位置合わせの結果を参照し、ステップS110において取得した複数の第1空間画像の少なくとも1つとステップS231において取得した複数の第2空間画像の少なくとも1つとを合成する。一例として、サーバ30は、複数の第1空間画像のうち対象となる撮影時刻(以下、「対象撮影時刻」と称する)に関連付けられる少なくとも1つの第1空間画像と、複数の第2空間画像のうち対象撮影時刻に関連付けられる少なくとも1つの第2空間画像とを合成する。空間画像の撮影時刻と対象撮影時刻との差が閾値以下である場合に、第1空間画像及び第2空間画像は、対象撮影時刻に関連付けられ得る。
画像処理(S250)の第5の例では、サーバ30は、前述の第1の例~第4の例のうち少なくとも2つの組み合わせを実行する。
ステップS250を以て、サーバ30は、情報処理(図9)を終了する。
(2-4)小括
以上説明したように、第2の実施形態のサーバ30は、対象空間を撮影した複数の第1空間画像を参照し、対象空間に関する第1点群を作成する。サーバ30は、対象空間を撮影した複数の第2空間画像を参照し、対象空間に関する第2点群を作成する。サーバ30は、第1点群と第2点群との位置合わせを行い、位置合わせの結果を参照して画像処理を行う。この画像処理により、座標系の異なる視覚情報が融合される。従って、第2の実施形態のサーバによれば、画像処理の結果を、対象空間の状態を遠隔的に把握するために有用な視覚情報として提供することができる。
以上説明したように、第2の実施形態のサーバ30は、対象空間を撮影した複数の第1空間画像を参照し、対象空間に関する第1点群を作成する。サーバ30は、対象空間を撮影した複数の第2空間画像を参照し、対象空間に関する第2点群を作成する。サーバ30は、第1点群と第2点群との位置合わせを行い、位置合わせの結果を参照して画像処理を行う。この画像処理により、座標系の異なる視覚情報が融合される。従って、第2の実施形態のサーバによれば、画像処理の結果を、対象空間の状態を遠隔的に把握するために有用な視覚情報として提供することができる。
例えば、第2の実施形態のサーバ30は、第1点群および第2点群の位置合わせの結果を参照し、第1空間画像と第2空間画像とを合成してもよい。これにより、第1空間画像または第2空間画像の情報量を補強することができる。ここで、サーバ30は、複数の第1空間画像のうち対象撮影時刻に関連付けられる少なくとも1つと第2空間画像のうち対象撮影時刻に関連付けられる少なくとも1つとを合成してもよい。これにより、時間経過に伴う物体の位置や明るさの変化の小さい空間画像同士を合成することができる。
(3)第3の実施形態
第3の実施形態について説明する。但し、上述の実施形態と同様の説明は省略する。
第3の実施形態について説明する。但し、上述の実施形態と同様の説明は省略する。
(3-1)実施形態の概要
第3の実施形態の概要について説明する。図10は、第3の実施形態の概要の説明図である。
第3の実施形態の概要について説明する。図10は、第3の実施形態の概要の説明図である。
図10に示すように、カメラCAM31は、空間SPを撮影し、空間画像SI31を生成する。サーバ30は、カメラCAM31または図示しない画像サーバから送信された空間画像SI31を取得する。
サーバ30は、空間画像SI31と、空間SPの3次元形状に関する空間モデルSM31との位置合わせを行う。空間モデルSM31は、記憶装置31に保存されている。空間モデルSM31は、例えばBIMデータである。
サーバ30は、空間画像SI31と空間モデルSM31との位置合わせの結果を参照し、空間画像SI31に基づくテクスチャを空間モデルSM31に貼り付けることで、空間モデルSM32を作成する。
これにより、サーバ30は、空間SPの状態を反映したテクスチャの貼り付けられた空間モデルSM32を、当該空間SPの状態を遠隔的に把握するために有用な視覚情報として提供することができる。
(3-2)情報処理
第3の実施形態の情報処理について説明する。図11は、第3の実施形態の情報処理の全体フローを示す図である。
第3の実施形態の情報処理について説明する。図11は、第3の実施形態の情報処理の全体フローを示す図である。
情報処理は、サーバ30が、クライアント装置10から情報処理のリクエストを受信したこと、または他の開始条件が成立したことに応じて開始する。
図11に示すように、サーバ30は、空間画像の取得(S310)を実行する。
具体的には、プロセッサ32は、カメラまたは画像サーバから送信された、対象空間に関する空間画像(例えば、「第1の空間画像」又は「第2の空間画像」)を取得する。
具体的には、プロセッサ32は、カメラまたは画像サーバから送信された、対象空間に関する空間画像(例えば、「第1の空間画像」又は「第2の空間画像」)を取得する。
ステップS310の後に、サーバ30は、空間画像と空間モデルとの位置合わせ(S320)を実行する。
具体的には、プロセッサ32は、ステップS310において取得した空間画像と空間モデルとの位置合わせを行う。一例として、プロセッサ32は、空間画像に含まれる各画素の位置を基準座標系における位置へ変換する。
具体的には、プロセッサ32は、ステップS310において取得した空間画像と空間モデルとの位置合わせを行う。一例として、プロセッサ32は、空間画像に含まれる各画素の位置を基準座標系における位置へ変換する。
空間画像と空間モデルとの位置合わせ(S320)の第1例では、プロセッサ32は、空間画像の撮影条件および基準座標系を参照して空間画像の撮影方向を基準座標系で再現することで、空間画像と空間モデルとの位置合わせを行う。ここで、撮影条件は、空間画像を撮影したカメラの位置、姿勢、焦点距離、またはそれらの組み合わせである。撮影条件は、空間画像とともにカメラによって送信されてもよいし、記憶装置31に予め格納されていてもよい。例えば、プロセッサ32は、空間画像を撮影したカメラの現実空間の位置および姿勢に対応する基準座標系における位置および姿勢を特定する。プロセッサ32は、特定した基準座標系における位置および姿勢と、カメラの焦点距離とを参照し、基準座標系における仮想カメラの位置および姿勢と、焦点距離とを決定する。プロセッサ32は、仮想カメラにより空間モデルを撮影したモデル画像と、空間画像とを比較する。一例として、プロセッサ32は、モデル画像から抽出した特徴量(例えばエッジ)と、空間画像から抽出した特徴量とを比較することにより、空間画像の任意の画素の基準座標系における位置を決定する。
空間画像と空間モデルとの位置合わせ(S320)の第2例では、プロセッサ32は、空間モデルを特定の視点から撮影したモデル画像を空間画像と比較し、空間画像と空間モデルとの位置合わせを行う。例えば、プロセッサ32は、視点(つまり仮想カメラの原点)を所定のアルゴリズムに従って選択することと、選択した視点から仮想カメラで空間モデルを撮影してモデル画像を得ることとを、視点を変更しながら繰り返す。仮想カメラの原点を座標変換することで、視点を変更することができる。プロセッサ32は、撮影された複数のモデル画像のうち空間画像との比較対象となるモデル画像(「対象モデル画像」)を決定する。対象モデル画像は、以下のいずれかであってよい。
・ユーザによって選択されたモデル画像
・所定のオブジェクト(例えば、空間画像における被写体の1つ)に対応するオブジェクト画像を含むモデル画像
複数のモデル画像がオブジェクト画像を含む場合に、プロセッサ32は、オブジェクト画像の面積が最も大きいモデル画像、またはオブジェクトからの距離が最も近い視点に対応するモデル画像を対象モデル画像として決定してもよい。
プロセッサ32は、対象モデル画像の任意の画素(「対象画素」)の基準座標系における位置を当該対象画素に対応する空間画像の画素の基準座標系における位置として決定する。
・ユーザによって選択されたモデル画像
・所定のオブジェクト(例えば、空間画像における被写体の1つ)に対応するオブジェクト画像を含むモデル画像
複数のモデル画像がオブジェクト画像を含む場合に、プロセッサ32は、オブジェクト画像の面積が最も大きいモデル画像、またはオブジェクトからの距離が最も近い視点に対応するモデル画像を対象モデル画像として決定してもよい。
プロセッサ32は、対象モデル画像の任意の画素(「対象画素」)の基準座標系における位置を当該対象画素に対応する空間画像の画素の基準座標系における位置として決定する。
ステップS320の後に、サーバ30は、テクスチャの貼り付け(S330)を実行する。
具体的には、プロセッサ32は、ステップS310において取得した空間画像と、ステップS320における位置合わせの結果とを参照し、空間モデルに対応するテクスチャを生成する。プロセッサ32は、生成したテクスチャを空間モデルに貼り付ける。
具体的には、プロセッサ32は、ステップS310において取得した空間画像と、ステップS320における位置合わせの結果とを参照し、空間モデルに対応するテクスチャを生成する。プロセッサ32は、生成したテクスチャを空間モデルに貼り付ける。
ステップS330を以て、サーバ30は、情報処理(図11)を終了する。
(3-3)小括
以上説明したように、第3の実施形態のサーバ30は、対象空間を撮影した空間画像と、対象空間の3次元形状に関する空間モデルとの位置合わせを行う。サーバ30は、空間画像と空間モデルとの位置合わせの結果を参照して空間画像に基づくテクスチャを空間モデルに貼り付ける。従って、第3の実施形態のサーバによれば、リアルなテクスチャの貼られた空間モデルを、対象空間の状態を遠隔的に把握するために有用な視覚情報として提供することができる。
以上説明したように、第3の実施形態のサーバ30は、対象空間を撮影した空間画像と、対象空間の3次元形状に関する空間モデルとの位置合わせを行う。サーバ30は、空間画像と空間モデルとの位置合わせの結果を参照して空間画像に基づくテクスチャを空間モデルに貼り付ける。従って、第3の実施形態のサーバによれば、リアルなテクスチャの貼られた空間モデルを、対象空間の状態を遠隔的に把握するために有用な視覚情報として提供することができる。
(4)その他の変形例
記憶装置11は、ネットワークNWを介して、クライアント装置10と接続されてもよい。記憶装置31は、ネットワークNWを介して、サーバ30と接続されてもよい。
記憶装置11は、ネットワークNWを介して、クライアント装置10と接続されてもよい。記憶装置31は、ネットワークNWを介して、サーバ30と接続されてもよい。
上記の情報処理の各ステップは、クライアント装置10及びサーバ30の何れでも実行可能である。
フローチャートの各ステップの実行順序は、依存関係がない限りは説明した例に制限されない。
以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。
(5)付記
実施形態および変形例で説明した事項を、以下に付記する。
(5)付記
実施形態および変形例で説明した事項を、以下に付記する。
(付記1)
空間に関する複数の第1空間画像を取得する手段(S110)と、
複数の第1空間画像を参照し、第1点群を作成する手段(S120)と、
空間に関する第2点群を取得する手段(S130,S232)と、
第1点群と第2点群との位置合わせを行う手段(S140,S240)と、
第1点群と第2点群との位置合わせの結果を参照し、画像処理を行う手段(S150,S250)と
を具備する、情報処理装置(30)。
空間に関する複数の第1空間画像を取得する手段(S110)と、
複数の第1空間画像を参照し、第1点群を作成する手段(S120)と、
空間に関する第2点群を取得する手段(S130,S232)と、
第1点群と第2点群との位置合わせを行う手段(S140,S240)と、
第1点群と第2点群との位置合わせの結果を参照し、画像処理を行う手段(S150,S250)と
を具備する、情報処理装置(30)。
(付記2)
画像処理を行う手段は、
第1点群または第2点群の少なくとも1つを参照し、メッシュを作成し(S1501)、
第1点群と第2点群との位置合わせの結果を参照し、複数の第1空間画像に基づくテクスチャをメッシュに貼り付ける(S1502)、
付記1に記載の情報処理装置。
画像処理を行う手段は、
第1点群または第2点群の少なくとも1つを参照し、メッシュを作成し(S1501)、
第1点群と第2点群との位置合わせの結果を参照し、複数の第1空間画像に基づくテクスチャをメッシュに貼り付ける(S1502)、
付記1に記載の情報処理装置。
(付記3)
画像処理を行う手段は、
第1点群および第2点群の少なくとも1つを参照し、メッシュを作成し(S1501)、
メッシュと空間の3次元形状に関する空間モデルとの位置合わせを行うことにより、空間モデルの座標系におけるメッシュの位置を決定する(S1510)
付記1または付記2に記載の情報処理装置。
画像処理を行う手段は、
第1点群および第2点群の少なくとも1つを参照し、メッシュを作成し(S1501)、
メッシュと空間の3次元形状に関する空間モデルとの位置合わせを行うことにより、空間モデルの座標系におけるメッシュの位置を決定する(S1510)
付記1または付記2に記載の情報処理装置。
(付記4)
空間に関する複数の第2空間画像を取得する手段(S231)をさらに具備し、
第2点群を取得する手段(S232)は、複数の第2空間画像を参照し、第2点群を取得し、
画像処理を行う手段は、第1点群と第2点群との位置合わせの結果を参照し、複数の第1空間画像の少なくとも1つと複数の第2空間画像の少なくとも1つとを合成する、
付記1に記載の情報処理装置。
空間に関する複数の第2空間画像を取得する手段(S231)をさらに具備し、
第2点群を取得する手段(S232)は、複数の第2空間画像を参照し、第2点群を取得し、
画像処理を行う手段は、第1点群と第2点群との位置合わせの結果を参照し、複数の第1空間画像の少なくとも1つと複数の第2空間画像の少なくとも1つとを合成する、
付記1に記載の情報処理装置。
(付記5)
画像処理を行う手段は、複数の第1空間画像のうち対象撮影時刻に関連付けられる少なくとも1つと複数の第2空間画像のうち対象撮影時刻に関連付けられる少なくとも1つとを合成する、
付記4に記載の情報処理装置。
画像処理を行う手段は、複数の第1空間画像のうち対象撮影時刻に関連付けられる少なくとも1つと複数の第2空間画像のうち対象撮影時刻に関連付けられる少なくとも1つとを合成する、
付記4に記載の情報処理装置。
(付記6)
画像処理を行う手段は、第1点群と第2点群との位置合わせの結果を参照し、第1点群と第2点群とを合成する、
付記1に記載の情報処理装置。
画像処理を行う手段は、第1点群と第2点群との位置合わせの結果を参照し、第1点群と第2点群とを合成する、
付記1に記載の情報処理装置。
(付記7)
空間に関する空間画像を取得する手段(S310)と、
空間画像と、空間の3次元形状に関する空間モデルとの位置合わせを行う手段(S320)と、
位置合わせの結果を参照し、空間画像に基づくテクスチャを空間モデルに貼り付ける手段(S330)と
を具備する、情報処理装置(30)。
空間に関する空間画像を取得する手段(S310)と、
空間画像と、空間の3次元形状に関する空間モデルとの位置合わせを行う手段(S320)と、
位置合わせの結果を参照し、空間画像に基づくテクスチャを空間モデルに貼り付ける手段(S330)と
を具備する、情報処理装置(30)。
(付記8)
コンピュータ(30)が、
空間に関する複数の第1空間画像を取得すること(S110)と、
複数の第1空間画像を参照し、第1点群を作成すること(S120)と、
空間に関する第2点群を取得すること(S130,S232)と、
第1点群と第2点群との位置合わせを行うこと(S140,S240)と、
第1点群と第2点群との位置合わせの結果を参照し、画像処理を行うこと(S150,S250)と
を具備する、情報処理方法。
コンピュータ(30)が、
空間に関する複数の第1空間画像を取得すること(S110)と、
複数の第1空間画像を参照し、第1点群を作成すること(S120)と、
空間に関する第2点群を取得すること(S130,S232)と、
第1点群と第2点群との位置合わせを行うこと(S140,S240)と、
第1点群と第2点群との位置合わせの結果を参照し、画像処理を行うこと(S150,S250)と
を具備する、情報処理方法。
(付記9)
コンピュータ(30)が、
空間に関する空間画像を取得すること(S310)と、
空間画像と、空間の3次元形状に関する空間モデルとの位置合わせを行うこと(S320)と、
位置合わせの結果を参照し、空間画像に基づくテクスチャを空間モデルに貼り付けること(S330)と
を具備する、情報処理方法。
コンピュータ(30)が、
空間に関する空間画像を取得すること(S310)と、
空間画像と、空間の3次元形状に関する空間モデルとの位置合わせを行うこと(S320)と、
位置合わせの結果を参照し、空間画像に基づくテクスチャを空間モデルに貼り付けること(S330)と
を具備する、情報処理方法。
(付記10)
コンピュータ(30)に、付記1~付記9の何れかに記載の各手段を実現させるためのプログラム。
コンピュータ(30)に、付記1~付記9の何れかに記載の各手段を実現させるためのプログラム。
1 :情報処理システム
10 :クライアント装置
11 :記憶装置
12 :プロセッサ
13 :入出力インタフェース
14 :通信インタフェース
30 :サーバ
31 :記憶装置
32 :プロセッサ
33 :入出力インタフェース
34 :通信インタフェース
10 :クライアント装置
11 :記憶装置
12 :プロセッサ
13 :入出力インタフェース
14 :通信インタフェース
30 :サーバ
31 :記憶装置
32 :プロセッサ
33 :入出力インタフェース
34 :通信インタフェース
Claims (10)
- 空間に関する複数の第1空間画像を取得する手段と、
前記複数の第1空間画像を参照し、第1点群を作成する手段と、
前記空間に関する第2点群を取得する手段と、
前記第1点群と前記第2点群との位置合わせを行う手段と、
前記第1点群と前記第2点群との位置合わせの結果を参照し、画像処理を行う手段と
を具備する、情報処理装置。 - 前記画像処理を行う手段は、
前記第1点群または前記第2点群の少なくとも1つを参照し、メッシュを作成し、
前記第1点群と前記第2点群との位置合わせの結果を参照し、前記複数の第1空間画像に基づくテクスチャを前記メッシュに貼り付ける、
請求項1に記載の情報処理装置。 - 前記画像処理を行う手段は、
前記第1点群および前記第2点群の少なくとも1つを参照し、メッシュを作成し、
前記メッシュと前記空間の3次元形状に関する空間モデルとの位置合わせを行うことにより、前記空間モデルの座標系における前記メッシュの位置を決定する、
請求項1または請求項2に記載の情報処理装置。 - 前記空間に関する複数の第2空間画像を取得する手段をさらに具備し、
前記第2点群を取得する手段は、前記複数の第2空間画像を参照し、前記第2点群を取得し、
前記画像処理を行う手段は、前記第1点群と前記第2点群との位置合わせの結果を参照し、前記複数の第1空間画像の少なくとも1つと前記複数の第2空間画像の少なくとも1つとを合成する、
請求項1に記載の情報処理装置。 - 前記画像処理を行う手段は、前記複数の第1空間画像のうち対象撮影時刻に関連付けられる少なくとも1つと前記複数の第2空間画像のうち前記対象撮影時刻に関連付けられる少なくとも1つとを合成する、
請求項4に記載の情報処理装置。 - 前記画像処理を行う手段は、前記第1点群と前記第2点群との位置合わせの結果を参照し、前記第1点群と前記第2点群とを合成する、
請求項1に記載の情報処理装置。 - 空間に関する空間画像を取得する手段と、
前記空間画像と、前記空間の3次元形状に関する空間モデルとの位置合わせを行う手段と、
前記位置合わせの結果を参照し、前記空間画像に基づくテクスチャを前記空間モデルに貼り付ける手段と
を具備する、情報処理装置。 - コンピュータが、
空間に関する複数の第1空間画像を取得することと、
前記複数の第1空間画像を参照し、第1点群を作成することと、
前記空間に関する第2点群を取得することと、
前記第1点群と前記第2点群との位置合わせを行うことと、
前記第1点群と前記第2点群との位置合わせの結果を参照し、画像処理を行うことと
を具備する、情報処理方法。 - コンピュータが、
空間に関する空間画像を取得することと、
前記空間画像と、前記空間の3次元形状に関する空間モデルとの位置合わせを行うことと、
前記位置合わせの結果を参照し、前記空間画像に基づくテクスチャを前記空間モデルに貼り付けることと
を具備する、情報処理方法。 - コンピュータに、請求項1~請求項9の何れかに記載の各手段を実現させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021010993A JP2022114626A (ja) | 2021-01-27 | 2021-01-27 | 情報処理装置、情報処理方法、およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021010993A JP2022114626A (ja) | 2021-01-27 | 2021-01-27 | 情報処理装置、情報処理方法、およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022114626A true JP2022114626A (ja) | 2022-08-08 |
Family
ID=82744371
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021010993A Pending JP2022114626A (ja) | 2021-01-27 | 2021-01-27 | 情報処理装置、情報処理方法、およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022114626A (ja) |
-
2021
- 2021-01-27 JP JP2021010993A patent/JP2022114626A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6425780B1 (ja) | 画像処理システム、画像処理装置、画像処理方法及びプログラム | |
JP5093053B2 (ja) | 電子カメラ | |
KR102214827B1 (ko) | 증강 현실 제공 장치 및 방법 | |
JP5260705B2 (ja) | 3次元拡張現実提供装置 | |
CN104641633B (zh) | 用于组合来自多个深度相机的数据的系统和方法 | |
JP3992629B2 (ja) | 画像生成システム、画像生成装置、画像生成方法 | |
JP6883608B2 (ja) | 深度マップに対して画像位置合せを行って深度データを最適化することができる深度データ処理システム | |
WO2019111817A1 (ja) | 生成装置、生成方法及びプログラム | |
CN112102199B (zh) | 深度图像的空洞区域填充方法、装置和系统 | |
US9697581B2 (en) | Image processing apparatus and image processing method | |
AU2018369622A1 (en) | System and methods for extrinsic calibration of cameras and diffractive optical elements | |
CN113643414A (zh) | 一种三维图像生成方法、装置、电子设备及存储介质 | |
KR20120045269A (ko) | 3d 메쉬 모델링 및 에볼루션에 기반한 홀로그램 생성 방법 및 장치 | |
Lan et al. | Development of a virtual reality teleconference system using distributed depth sensors | |
US10516878B1 (en) | Stereoscopic viewer | |
CN107077719B (zh) | 数码照片中基于深度图的透视校正 | |
WO2016184285A1 (zh) | 物品图像处理方法、装置和系统 | |
WO2022142908A1 (zh) | 三维模型生成方法、xr设备及存储介质 | |
CN111742352A (zh) | 3d对象建模方法以及相关设备和计算机程序产品 | |
JP2022058753A (ja) | 情報処理装置、情報処理方法及びプログラム | |
KR101725166B1 (ko) | 2차원 이미지들을 이용하여 3차원 이미지를 재구성하는 방법 및 이를 위한 장치 | |
JP6719945B2 (ja) | 情報処理装置、情報処理方法、情報処理システム及びプログラム | |
JP6719168B1 (ja) | 教師データとしてのデプス画像にラベルを付与するプログラム、装置及び方法 | |
JP6405539B2 (ja) | 多視点画像に対するラベル情報の処理装置及びそのラベル情報の処理方法 | |
JP2022114626A (ja) | 情報処理装置、情報処理方法、およびプログラム |