JP2014002645A - 合成画像表示システム及びその方法 - Google Patents

合成画像表示システム及びその方法 Download PDF

Info

Publication number
JP2014002645A
JP2014002645A JP2012138747A JP2012138747A JP2014002645A JP 2014002645 A JP2014002645 A JP 2014002645A JP 2012138747 A JP2012138747 A JP 2012138747A JP 2012138747 A JP2012138747 A JP 2012138747A JP 2014002645 A JP2014002645 A JP 2014002645A
Authority
JP
Japan
Prior art keywords
image
display
captured
imaging terminal
building
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012138747A
Other languages
English (en)
Other versions
JP5915996B2 (ja
Inventor
Masahiro Indo
正裕 印藤
Hiroshi Tokuda
浩 徳田
Noboru Kato
登 加藤
Shinji Tanaka
伸二 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimizu Construction Co Ltd
Shimizu Corp
Original Assignee
Shimizu Construction Co Ltd
Shimizu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimizu Construction Co Ltd, Shimizu Corp filed Critical Shimizu Construction Co Ltd
Priority to JP2012138747A priority Critical patent/JP5915996B2/ja
Publication of JP2014002645A publication Critical patent/JP2014002645A/ja
Application granted granted Critical
Publication of JP5915996B2 publication Critical patent/JP5915996B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Abstract

【課題】施工中の建物内において、携帯撮像端末においてARマーカを用いることなく、撮像画像と仮想画像とを合成し、正確な竣工イメージを表示する合成画像表示システムを提供する。
【解決手段】本発明の合成画像表示システムは、携帯撮像端末とデータサーバとから構成され、データサーバには、竣工中の建物の3次元のコンピュータグラフィック画像が予め書き込まれて記憶され、携帯撮像端末が建物内の画像を撮像し、撮像画像として出力する撮像部と、撮像画像を表示する表示部と、撮像画像と、コンピュータグラフィック画像における当該撮像画像を撮像した同一の位置及び撮像方向の仮想画像とにおいて、同一の特徴点の座標位置を比較する位置制御部と、前記特徴点の座標位置の比較結果により、特徴点の座標位置が重なり合う座標変換を行い、撮像画像に仮想画像を重ね合わせて表示部に表示する画像処理部とを備える。
【選択図】図1

Description

本発明は、AR(Augmented Reality)技術を用いたBIM(Building Information Modeling)データと現実画像とを合成して表示する合成画像表示システム及びその方法に関する。
建築物及びその外構をCG画像により静止画又は動画として表示し、実際に前記建築物の内部又は外部を歩き回って観察しているのと同様のウォークスルーを行う画像表示技術がある(例えば、特許文献1参照)。
現在、上述したCG画像データを拡張したBIMデータを用い、施工中の現場の完成後の状態を確認する処理が行われている。この際、ユーザが端末内で自身のいる位置を入力し、施工中の現場の画像に対して、BIMデータの画像とを重ね合わせて表示端末に表示させることが行われている。
特開平9−106463号公報
上述したAR技術は、撮像装置で撮像した現実の画像である撮像画像と、BIMデータにおけるCG画像(以下、仮想画像)とを合成して表示する技術である。
しかしながら、ARマーカなど、仮想画像を重ねる場所に配置し、コンピュータを用いた画像処理システムに、ARマーカの位置を認識させた後、撮像画像に対して仮想画像を合成して表示するため、予めARマーカを配置する手間がかかっていた。
また、ARマーカに重ねた場合、仮想画像と撮像画像との大きさが合わず、仮想画像と撮像画像との重なり誤差が大きく、ずれが合成されることにより、完成後の竣工イメージを正確に観察することができない。
本発明は、このような事情に鑑みてなされたもので、施工中の建物内において、携帯撮像端末においてARマーカを用いることなく、撮像画像と仮想画像とを合成し、正確な竣工イメージを表示する合成画像表示システム及びその方法を提供することを目的とする。
本発明の合成画像表示システムは、携帯撮像端末とデータサーバとから構成される合成画像表示システムであり、前記データサーバには、施工中の建物の3次元のコンピュータグラフィック画像が予め書き込まれて記憶されており、前記携帯撮像端末が、前記建物内の画像を撮像し、撮像画像として出力する撮像部と、前記撮像画像を表示する表示部と、前記撮像画像と、前記コンピュータグラフィック画像における前記撮像画像を撮像した位置及び撮像方向に対応して撮像した仮想画像とにおいて、同一の特徴点の座標位置を比較する位置制御部と、前記特徴点の座標位置の比較結果により、前記特徴点の座標位置が重なり合う座標変換を行うことにより、前記撮像画像に対して前記仮想画像を重ね合わせて前記表示部に表示する画像処理部とを備えることを特徴とする。
本発明の合成画像表示方法は、携帯撮像端末の撮像した画像と、データサーバに記憶されたコンピュータグラフィック画像とを合成する合成画像表示方法であり、前記データサーバには、施工中の建物の3次元のコンピュータグラフィック画像が予め書き込まれて記憶されており、前記携帯撮像端末が、前記建物内の画像を撮像し、撮像画像として出力する撮像過程と、前記撮像画像を表示部に表示する表示過程と、前記撮像画像と、前記コンピュータグラフィック画像における前記撮像画像を撮像した位置及び撮像方向に対応して撮像した仮想画像とにおいて、同一の特徴点の座標位置を比較する位置制御過程と、前記特徴点の座標位置の比較結果により、前記特徴点の座標位置が重なり合う座標変換を行うことにより、前記撮像画像に対して前記仮想画像を重ね合わせて前記表示部に表示する画像処理過程とを含むことを特徴とする。
本発明の合成画像表示システムは、前記建物内に竣工後に配置される什器や設備配管などをオフジェクト画像とし、当該建物のコンピュータグラフィック画像に付加された画像であることを特徴とする。
本発明の合成画像表示システムは、前記位置制御部が、前記建物内の前記携帯撮像端末の位置及び撮像方向を、前記コンピュータグラフィック画像の3次元空間の座標に対応させることを特徴とする。
この発明によれば、施工中の建物内にて、携帯撮像端末により撮像される画像と、仮想画像(BIMデータ)とを、ARマーカなどを用いずに簡易な操作により、精度良く重ね合わせることができる。
この発明の一実施形態による合成画像表示システムの構成例を示すブロック図である。 データセンタ2における3次元モデルデータベース22に予め書き込まれて記憶されているBIMデータテーブルの構成例を示す図である。 位置制御部16が携帯撮像端末1の位置Vpと、携帯撮像端末1の撮像方向Pの補正を行う処理を説明する図である。 位置制御部16が携帯撮像端末1の位置Vpと、携帯撮像端末1の撮像方向Pを補正を行う処理を説明する図である。 本実施形態による合成画像表示システムの処理の動作例を示すフローチャートである。 携帯撮像端末1が自身の撮像する撮像画像に対して、BIMデータの仮想画像のオブジェクトを重ねて表示させる操作を説明する図である。 携帯撮像端末1が自身の撮像する撮像画像に対して、BIMデータの仮想画像のオブジェクトを重ねて表示させる操作を説明する図である。 携帯撮像端末1が自身の撮像する撮像画像に対して、BIMデータの仮想画像のオブジェクトを重ねて表示させる操作を説明する図である。 携帯撮像端末1が自身の撮像する撮像画像に対して、BIMデータの仮想画像のオブジェクトを重ねて表示させる操作を説明する図である。 携帯撮像端末1が自身の撮像する撮像画像に対して、BIMデータの仮想画像のオブジェクトを重ねて表示させる操作を説明する図である。 携帯撮像端末1が自身の撮像する撮像画像に対して、BIMデータの仮想画像のオブジェクトを重ねて表示させる操作を説明する図である。 携帯撮像端末1が自身の撮像する撮像画像に対して、BIMデータの仮想画像のオブジェクトを重ねて表示させる操作を説明する図である。
以下、図面を参照して、本発明の実施の形態について説明する。図1は、この発明の一実施形態による合成画像表示システムの構成例を示す概略ブロック図である。本実施形態の合成画像表示システムは、携帯撮像端末1とデータセンタ2とを備えている。
携帯撮像端末1は、画像の撮像を行い、この撮像された撮像画像とBIMデータにおけるCG(computer graphics:コンピュータグラフィック)画像との合成を行い、合成結果を表示する。
また、携帯撮像端末1は、撮像部11、画像処理部12、変換行列生成部13、記憶部14、送受信部15、位置制御部16及び表示部17が備えられている。
データセンタ2には、データサーバ21と3次元モデルデータベース22とが備えられている。ここで、携帯撮像端末1とデータセンタ2にデータサーバ21とは、インターネットを含む情報通信網Iと無線LAN(Local Area Network)基地局Rとを介して接続され、データの送受信を行う。
次に、図2は、データセンタ2における3次元モデルデータベース22に予め書き込まれて記憶されているBIMデータテーブルの構成例を示す図である。
このBIMデータテーブルは、建物を識別する建物識別情報、各建物における各階を識別するフロア識別情報、各フロアにおける各部屋を識別する識別番号と、部屋毎の2次元画像(天井方向から見た平面画像)及び建物の各部屋の3次元のCG画像の記憶された記憶領域の先頭アドレスを示すインデックスとが対応付けられている。この建物識別情報、フロア識別情報及び部屋識別情報の組合せが、各部屋のCG画像を識別するCG画像識別情報となっている。また、CG画像は、例えば、実際に竣工される建物内の部屋の寸法で形成されており、竣工後に配置される什器や配管設備などが配置された状態の建物内の様子を示す3次元の仮想空間となっている。
本実施形態においては、オブジェクト画像(オブジェクトの画像、竣工後に配置される什器や設備配管などのCGで作成された仮想画像)が配置された室内の3次元の仮想空間の座標系をグローバル座標系としている。また、このグローバル座標系における携帯撮像端末1の位置(座標点)を原点とし、携帯撮像端末1の撮像方向(奥行き方向)をz軸とする3次元の座標空間を撮像座標系とする。また、この撮像座標系において、携帯撮像端末1の位置からの視野に入る領域を携帯撮像端末1の表示部17に表示するために2次元に射影投影した座標系をスクリーン座標系(3次元:撮像座標系からの変換時には奥行きのデータが含まれている)とする。また、表示部17に表示するため、スクリーン座標系の2次元平面を表示部17の画面の大きさに合わせるための座標系を表示座標系(2次元)とする。
ここで、グローバル座標系から撮像座標系への変換をビュー変換とし、撮像座標系からスクリーン座標系への変換を射影変換とし、スクリーン座標系から表示座標系への変換をビューポート変換とする。
図1に戻り、データサーバ21は、携帯撮像端末1から画像要求信号とともに受信されるCG画像識別情報(建物識別情報、フロア識別情報及び部屋識別情報の組み合わせの識別情報)に対応するインデックスを3次元モデルデータベース22のBIMデータテーブルから読み出す。
また、データサーバ21は、BIMデータテーブルから読み出したインデックスの示す記憶領域に記憶されている平面画像とCG画像とを読み出し、読み出した平面画像とCG画像とを携帯撮像端末1へ送信する。
送受信部15は、無線LAN等により、無線LAN基地局R及び情報通信網Iを介して、データセンタ2におけるデータサーバ21との間でデータの送受信を行う。
また、送受信部15は、データサーバ21より受信した平面画像及びCG画像のデータを、記憶部14に書き込んで記憶させる。
撮像部11は、撮像方向の被写体の画像を撮像し、撮像した撮像画像のデータを記憶部14に書き込んで記憶させる。
変換行列生成部13は、各座標系間における変換行列として、グローバル座標系における携帯撮像端末1の座標位置、携帯撮像端末1の撮像方向に基づいて、ビュー変換行列Mb、射影変換行列Wp、ビューポート変換行列Bs、逆ビュー変換行列Mb−1、逆射影変換行列Wp−1、逆ビューポート変換行列Bs−1を生成する。
ここで、ビュー変換行列Mbは、3次元のグローバル座標系のオブジェクトの各々の座標値を、携帯撮像端末1の撮像方向を奥行き方向(z軸方向)とした3次元の撮像座標系の座標値に変換するために用いられる。また、射影変換行列Wpは、撮像座標系の視錘台における同次クリップ空間であるスクリーン座標系の座標値に変換する。ビューポート変換行列Bsは、射影変換されたスクリーン座標系のクリップ平面(XY平面)の各座標値を、表示部17の表示画面の表示座標系における座標値に座標変換するために用いられる。
位置制御部16は、変換行列生成部13の生成した変換行列の各々を用いて、携帯撮像端末1の位置(視点)及びこの携帯撮像端末1の撮像方向(視線方向)を補正する。
画像処理部12は、オブジェクトの各座標点が表示座標系に変換された画像データを、表示部17の表示画面に表示する。
表示部17は、画像の分解能に応じた入力のためのセンサが表面に設けられており、ユーザたタッチペンなどでタップしたポイントの座標値を読み込み、画像処理部12へ出力する。
次に、位置制御部16の行う携帯撮像端末1の位置及び撮像方向の補正処理について説明する。携帯撮像端末1により、これからBIMデータの画像を重ねようとしている方向を撮像する。そして、ユーザは、携帯撮像端末1の表示画面に表示された室内の平面図において、自身の座標位置と、撮像した撮像方向とを、タップして設定する。この時点において、グローバル座標系における暫定的な携帯撮像端末1の位置(Vp)と、携帯撮像端末1の撮像方向(ベクトルP)とが設定される。
変換行列生成部13は、グローバル座標系におけるユーザが設定した自身の座標値と、撮像方向とにより、ビュー変換行列Mb及び射影変換行列Wpを生成する。
また、変換行列生成部13は、予め自身内部の内部記憶部に書き込んで記憶されている表示部17の表示画面のサイズ、すなわち縦(h)×横(ω)のサイズから、ビューポート変換行列Bsを求める。
さらに、変換行列生成部13は、ビュー変換行列Mb、射影変換行列Wp及びビューポート変換行列Bsの各々の逆行列として、それぞれ逆ビュー変換行列Mb−1、逆射影変換行列Wp−1、逆ビューポート変換行列Bs−1を求める。
画像処理部12は、ビュー変換行列Mbにより、グローバル座標系の座標値を、撮像座標系の座標値に変換する。
また、画像処理部12は、射影変換行列Wpにより、撮像座標系の座標値を、スクリーン座標系の座標値に変換する。
そして、画像処理部12は、ビューポート変換行列Bsにより、スクリーン座標系の座標値を、表示座標系の座標値に変換する。
表示座標系に変換した後、画像処理部12は、表示座標系に変換した画像を、表示部17の表示画面に表示させる。
次に、図3は、位置制御部16が携帯撮像端末1の位置Vpと、携帯撮像端末1の撮像方向Pの補正を行う処理を説明する図である。図3(a)は、携帯撮像端末1の表示部17の表示画面において、ユーザが自身のいる位置Vpと、撮像方向Pとを入力した際の表示画面を示す図である。ここで入力されるのはz軸及びx軸の2次元座標における座標値が入力され、方向Pも2次元のベクトルである。高さ方向は、ユーザが携帯撮像端末1に入力しても良いし、予め内部の記憶部14に書き込まれて記憶されているユーザの身長を用いても良い。
また、図3(b)は、携帯撮像端末1の撮像方向にある壁100を示す図である。図3(b)において、壁100には、扉200があり、携帯撮像端末1の表示部17の表示画面に表示されている。扉200のエッジ部分B1、B2及びB3の各々が後述するターゲットマークに用いる。扉200Aはグローバル座標系にあるBIMデータの画像である。ターゲットマークA1、A2、A3の各々は、ぞれぞれターゲットマークB1、B2、B3と対応している。後述するが、このターゲットマークは、表示部17の表示画面においてユーザにより、順次表示画面をタップすることにより設定される。
この扉200Bの撮像画像と、この扉200AのBIMデータのCG画像から座標変換した仮想画像とはずれて表示されている。このずれは、ユーザが図3(a)で入力した携帯撮像端末1の位置Vpと撮像方向Pとが、実際に携帯撮像端末1の存在する位置と撮像方向Pとが異なっていることが起因となっている。このため、グローバル座標系における実際の携帯撮像端末1の位置Vpと撮像方向Pとを求めることが必要となる。
位置制御部16は、逆ビューポート変換行列Bs−1を用いて、撮像画像のターゲットマークB1、B2及びB3の表示座標系の座標位置を、スクリーン座標系の座標値に変換する。
また、位置制御部16は、逆射影変換行列Wp−1を用いて、スクリーン座標系におけるターゲットマークB1、B2及びB3の座標位置を、撮像座標系における座標値に変換する。ここで、スクリーン座標系における奥行き方向(z軸方向)の座標値として任意の2点を与える。例えば、0及び5などを、2次元平面の表示座標系から3次元空間のスクリーン座標系に変換した際に加える。したがって、位置制御部16は、撮像座標系において、ターゲットマークB1、B2及びB3の各々を、それぞれB1_1及びB1_2、B2_1及びB2_2、B3_1及びB3_2の2個の組として求めることになる。
また、位置制御部16は、逆ビュー変換行列Mb−1により、撮像座標系における座標値B1_1及びB1_2、B2_1及びB2_2、B3_1及びB3_2を、グローバル座標系における座標値に変換する。
次に、図4は、位置制御部16が携帯撮像端末1の位置Vpと、携帯撮像端末1の撮像方向Pの補正を行う処理を説明する図である。
この図において、壁100Dは、グローバル座標系におけるBIMデータのCG画像における什器のオブジェクトとしての扉の3次元画像である。ターゲットマークA1’、A2’、A3’の各々は、それぞれ図3(b)におけるターゲットマークA1、A2、A3と対応している。
位置制御部16は、グローバル座標系において、座標値B1_1及び座標値B1_2を結ぶ直線L1、座標値B2_1及び座標値B2_2を結ぶ直線L2、座標値B3_1及び座標値B3_2を結ぶ直線L3の3本の直線を作成する。
次に、位置制御部16は、直線L1、L2及びL3の各々の線上において、ターゲットマークA1’、A2’、A3’の各々の座標点が成す三角形SAと相似となる三角形SQを形成する座標点Q1、Q2、Q3を求める。この座標点Q1、Q2及びQ3の各々は、それぞれターゲットマークA1’、A2’、A3’と対応している。
そして、位置制御部16は、三角形SA及び三角形SQの各々の重心の座標値として、重心座標値CA及びCQを求め、この重心座標値CA及びCQの距離dAQを求める。
また、位置制御部16は、三角形SAの2次元平面の法線ベクトルPAと、三角形SQの2次元平面の法線ベクトルPQとを求め、法線ベクトルPAに対する法線ベクトルPQの角度のずれをX軸、Y軸及びZ軸の各々の角度成分毎に、ずれ角Δθx、Δθy、Δθz求める。
次に、位置制御部16は、上記距離dAQ及びずれ角Δθx、Δθy、Δθzとにより、予めユーザの入力した携帯撮像端末1の位置(Vp)と、携帯撮像端末1の撮像方向(ベクトルP)との補正の計算を行い、グローバル座標系における携帯撮像端末1の位置Vpと、携帯撮像端末1の撮像方向Pとを求める。
ここで行う補正の計算は、例えば、距離dAQ及びずれ角Δθx、Δθy、Δθzとに対応し、現在の位置を及びベクトルを補正する補正式などを予め求めておき、暫定的に入力された携帯撮像端末1の位置Vpと、携帯撮像端末1の撮像方向Pと、距離dAQ及びずれ角Δθx、Δθy、Δθzとを代入して行う。
次に、位置制御部16は、補正した携帯撮像端末1の位置Vpと、携帯撮像端末1の撮像方向Pとを、変換行列生成部13に対し、変換行列の再計算を指示する制御信号とともに送信する。
次に、変換行列生成部13は、位置制御部16から送信された携帯撮像端末1の位置Vpと、携帯撮像端末1の撮像方向Pとにより、ビュー変換行列Mb及び射影変換行列Wpを再度作成する。
そして、変換行列生成部13は、再作成したビュー変換行列Mb及び射影変換行列Wpを、画像処理部12に対して出力する。
この後、画像処理部12は、再作成されたビュー変換行列Mb及び射影変換行列Wpを用いて、ビュー変換及び射影変換を行う。
次に、図により本実施形態による合成画像表示システムの処理を説明する。図5は、本実施形態による合成画像表示システムの処理の動作例を示すフローチャートである。図6から図12の各々は、携帯撮像端末1が自身の撮像する撮像画像に対して、BIMデータのCG画像を表示座標系に座標変換した仮想画像を重ねて、表示部17の表示面に表示させる操作を説明する図である。この図6から図12の各々は、携帯撮像端末1の表示部17の表示画面である。
ステップS1:
ユーザが携帯撮像端末1を起動する。
送受信部15は、データセンタのデータサーバ21に対して、作業所(竣工前の建物)のデータを送付する制御信号を、データサーバ21に対して送信する。
そして、データサーバ21は、携帯撮像端末1から制御信号を受信すると、3次元モデルデータベース22のBIMデータテーブルから、全ての建物識別情報(例えば、名称など)を読み出す。
次に、データサーバ21は、読み出した建物識別情報を携帯撮像端末1へ、応答信号として送信する。
応答信号を受信すると、送受信部15は、この応答信号から建物識別情報を抽出し、この抽出した建物識別情報を記憶部14へ書き込んで記憶する。
そして、画像処理部12は、記憶部14から建物識別情報を読み出し、例えば携帯撮像端末1の表示部17の表示画面に図6に示すように表示する。
次に、ユーザは、図6に示すように、一覧表として表示された作業所(AAA作業所、BBB作業所及びCCC作業所)から、自身の現在いるAAA作業所が表示された表示面17AをユーザUの指によりタップする。
表示部17は、いずれの位置がユーザUの指によりタップされたかを示すタップ情報を画像処理部12へ出力する。
タップ情報が供給されると、画像処理部12は、いずれの作業所が選択されたかを、タップ情報の位置情報から検出し、検出した作業所の建物識別情報を送受信部15へ出力する。
ステップS2:
次に、送受信部15は、データセンタのデータサーバ21に対して、この建物識別情報の示す建物の各階のデータを送付する制御信号を、データサーバ21に対して送信する。
そして、データサーバ21は、携帯撮像端末1から制御信号を受信すると、3次元モデルデータベース22のBIMデータテーブルから、受信した建物識別情報に対応する建物の階の情報を読み出す。このとき、データサーバ21は、この建物識別情報に対応したインデックスにより、この建物識別情報の示す建物の構造の画像データを、3次元モデルデータベース22から読み出す。
次に、データサーバ21は、読み出したフロア識別情報(例えば、階数)を携帯撮像端末1へ、建物の構造を示す画像とともに応答信号として送信する。
応答信号を受信すると、送受信部15は、この応答信号からフロア識別情報を抽出し、この抽出したフロア識別情報を記憶部14へ書き込んで記憶する。
そして、画像処理部12は、記憶部14からフロア識別情報を読み出し、例えば携帯撮像端末1の表示部17の表示画面に図7に示すように表示する。
次に、ユーザは、図7に示すように、一覧表として表示された階(1F、2F、3F及び4F)から、自身の現在いる階、例えば3階(3F)が表示された表示面17BをユーザUの指によりタップする。
表示部17は、いずれの位置がユーザUの指によりタップされたかを示すタップ情報を画像処理部12へ出力する。
タップ情報が供給されると、画像処理部12は、いずれの階が選択されたかを、タップ情報の位置情報から検出し、検出した階のフロア識別情報を送受信部15へ出力する。
次に、送受信部15は、データセンタのデータサーバ21に対して、このフロア識別情報の示す階のBIMデータを送付する制御信号を、データサーバ21に対して送信する。
そして、データサーバ21は、携帯撮像端末1から制御信号を受信すると、3次元モデルデータベース22のBIMデータテーブルから、受信したフロア識別情報に対応するインデックスを読み出す。
次に、データサーバ21は、このインデックスが示す記憶領域に記憶されたBIMデータ(フロアの平面図の画像データ及びフロアのCG画像の画像データ)を、3次元モデルデータベース22から読み出す。
そして、データサーバ21は、読み出したBIMデータを携帯撮像端末1へ応答信号として送信する。
応答信号を受信すると、送受信部15は、この応答信号からフロアの平面図の画像データ及びフロアのCG画像の画像データを抽出し、この抽出したフロアの平面図及びCG画像の画像データを記憶部14へ書き込んで記憶する。
そして、画像処理部12は、記憶部14からフロアの平面図の画像データを読み出し、例えば表示部17の表示画面に図8に示すように表示する。
ステップS3:
次に、ユーザは、図8に示すように、表示部17の表示画面に表示されたフロアの平面図において、自身の現在いる位置が表示された表示面17CをユーザUの指によりタップして入力する。
これにより、表示部17は、いずれの位置がユーザUの指によりタップされたかを示すタップ情報を画像処理部12へ出力する。
このタップ情報により、画像処理部12は、階が表示された表示面をタップする。
表示部17は、いずれの位置がタップされたかを示すタップ情報を画像処理部12へ出力する。
そして、画像処理部12は、携帯撮像端末1の位置を表示部17の表示面に表示する。
次に、ユーザは、図8の表示画面において、携帯撮像端末1の位置に対して、撮像する方向をタップして入力する。
これにより、表示部17は、いずれの位置がタップされたかを示すタップ情報を画像処理部12へ出力する。
そして、画像処理部12は、携帯撮像端末1の位置と、新たに入力されたタップ情報の位置とから撮像方向Pを求め、この撮像方向Pを表示部17の表示面に表示する。
ステップS4:
次に、画像処理部12は、表示部17の表示面に現在表示されている携帯撮像端末1の位置と、この携帯撮像端末1の撮像方向とを確定して良いか否かを選択させる画像、例えば確定ボタンと変更ボタンとを、表示部17の表示面に表示させる。このボタンのいずれかをユーザはタップして選択する。
表示部17は、ユーザのタップした位置を示すタップ情報を画像処理部12に出力する。
これにより、画像処理部12は、タップ情報の示す位置により、確定ボタンあるいは変更ボタンのいすれがタップされたかの判定を行う。
このとき、画像処理部12は、確定ボタンがタップされた場合に、処理をステップS5へ進め、撮像を促す画像を、表示部17の表示面に表示する。
一方、画像処理部12は、変更ボタンがタップされた場合に、処理をステップS3に戻し、新たな携帯撮像端末1の位置と携帯撮像端末1の撮像方向の入力を促す画像(例えば、撮像ボタン)を、表示部17の表示面に表示する。
ステップS5:
次に、ユーザは、現在自身のいる作業所の部屋Rにおける撮像方向Pの画像を、図9に示すように、表示部17の表示面に表示された撮像ボタンの表示領域17DをユーザUの指によりタップすることにより撮像する。
これにより、表示部17は、いずれの位置がタップされたかを示すタップ情報を画像処理部12へ出力する。
画像処理部12は、入力されたタップ情報の位置から、撮像ボタンがタップされたことを検出し、撮像処理を示す制御信号を撮像部11に対して出力する。
このとき、撮像部11は、撮像ボタンがタップされたことを示す制御情報が供給されることにより、画像の撮像処理をおこない、撮像した撮像画像のデータを記憶部14に書き込んで記憶させる。また、撮像部11は、この撮像した時点において、携帯撮像端末1に登載されている図示しない方位センサ及び傾きセンサの検出値(方位及び傾き)を、記憶部14に書き込んで記憶させる。
そして、画像処理部12は、記憶部14から撮像画像のデータを読み出し、表示部17の表示面に表示する。
ここで、変換行列生成部13は、上記携帯撮像端末1の位置及び携帯撮像端末1の撮像方向から、ビュー変換行列Mb、射影変換行列Wp及びビューポート変換行列Bsの各々の逆行列として、それぞれ逆ビュー変換行列Mb−1、逆射影変換行列Wp−1、逆ビューポート変換行列Bs−1を求める。
ステップS6:
次に、画像処理部12は、表示部17の表示面に現在表示されている撮像画像を確定して良いか否かを選択させる画像、例えば確定ボタンと変更ボタンとを、表示部17の表示面に表示させる。このボタンのいずれかをユーザはタップして選択する。
表示部17は、ユーザのタップした位置を示すタップ情報を画像処理部12に出力する。
これにより、画像処理部12は、タップ情報の示す位置により、確定ボタンあるいは変更ボタンのいすれがタップされたかの判定を行う。
このとき、画像処理部12は、確定ボタンがタップされた場合に、処理をステップS7へ進め、撮像を促す画像を、表示部17の表示面に表示する。
一方、画像処理部12は、変更ボタンがタップされた場合に、処理をステップS5に戻し、新たな撮像画像の撮像処理を促す画像を、表示部17の表示面に表示する。
ステップS7:
次に、画像処理部12は、記憶部14からBIMデータの3次元のCG画像のデータを読み出し、ビュー変換行列Mbにより、グローバル座標系におけるBIMデータのCG画像の各オブジェクトの座標値を、撮像画像座標系の仮想画像の座標値に変換する。ここでオブジェクトの座標値とは、ターゲットマークとして選択される画像の特徴点の座標値を示している。例えば、扉の四隅(四角形の頂点の座標)、窓の4隅(四角形の頂点)、天井の四隅などである。
そして、画像処理部12は、射影変換行列Wpにより、撮像画像座標系における仮想画像のにおけるオブジェクトの座標値を、スクリーン座標系の座標値に変換する。
また、画像処理部12は、ビューポート変換行列Bsにより、スクリーン座標系におけるオブジェクトの座標値を、表示座標系の座標値に変換する。
画像処理部12は、表示座標系に変換されたBIMデータを、表示部17の表示面において、撮像画像に重ねて半透明の状態で表示する。
ステップS8:
次に、画像処理部12は、撮像画像に対するターゲットマークを設定することを促す画像を、表示部17の表示面に表示する。
この画像により、ユーザは、図10において図3(b)に示すように、表示部17の表示面に表示された撮像画像のターゲットマークB1、B2及びB3を順番にユーザUの指によりタップし、ターゲットマークとして設定する。
これにより、表示部17は、いずれの位置がタップされたかを示すタップ情報を、タップされる毎に画像処理部12へ出力する。
そして、画像処理部12は、連続で入力されるタップ情報から順次、ターゲットマークB1、B2及びB3の表示座標系における座標値を抽出し、ターゲットマークB1、B2及びB3として、記憶部14に書き込んで記憶させる。
次に、画像処理部12は、CG画像が表示座標系に変換された仮想画像(BIMデータ)に対するターゲットマークを設定することを促す画像を、表示部17の表示面に表示する。
この画像により、ユーザは、図11において図3(b)に示すように、表示部17の表示面に表示されたBIMデータの画像のターゲットマークA1、A2及びAを順番にユーザUの指によりタップし、ターゲットマークとして設定する。
これにより、表示部17は、いずれの位置がタップされたかを示すタップ情報を、タップされる毎に画像処理部12へ出力する。
そして、画像処理部12は、連続で入力されるタップ情報から順次、ターゲットマークA1、A2及びA3の表示座標系における座標値を抽出し、ターゲットマークA1、A2及びA3として、記憶部14に書き込んで記憶させる。
ここで、ターゲットマークは、オブジェクトの頂点を選択するようにし、各オブジェクトの頂点毎に頂点識別情報が付加され、座標値が変換されても、この頂点識別情報がかならず対応するようにする必要がある。したがって、画像処理部12は、ターゲットマークA1、A2及びA3として、記憶部14に書き込んで記憶させる際、それぞれ頂点識別情報を対応させて書き込んで記憶させる。
ステップS9:
次に、位置制御部16は、ターゲットマークB1、B2及びB3の各々の座標値を、記憶部14から読み出す。
そして、位置制御部16は、ターゲットマークB1、B2及びB3の各々の座標値を、逆ビューポート変換行列Bs−1、逆射影変換行列Wp−1、逆ビュー変換行列Mb−1の各々を順次用い、表示座標系からスクリーン座標系、スクリーン座標系から撮像座標系、撮像座標系からグローバル座標系へと座標値を変換する。
そして、位置制御部16は、図4に示すように、直線L1、L2及びL3の各々を生成する。
次に、位置制御部16は、記憶部14からターゲットマークA1、A2及びA3の各々の頂点識別情報を読み出す。
そして、位置制御部16は、直線L1、L2及びL3の各々の直線上の1個ずつの座標点を選択し、グローバル座標系におけるターゲットマークA1’、A2’及びA3’の3個の頂点識別情報に対応する座標値の成す三角形SAに対して相似となる三角形SQを形成する座標点Q1、Q2及びQ3の各々を求める。
位置制御部16は、このこの三角形SAと三角形SQとの重心距離dAQと、法線ベクトルのずれ角Δθx、Δθy、Δθzとから、携帯撮像端末1の位置及び携帯撮像端末1の撮像方向の補正を行う。
ステップS10:
次に、変換行列生成部13は、補正された携帯撮像端末1の位置及び携帯撮像端末1の撮像方向により、再度、ビューポート変換行列Bs及び射影変換行列Wpの生成を行う。
ステップS11:
次に、画像処理部12は、記憶部14からBIMデータの3次元のCG画像のデータを読み出し、補正されたビュー変換行列Mbにより、グローバル座標系におけるBIMデータの各オブジェクトの座標値を、撮像画像座標系の座標値に変換する。
そして、画像処理部12は、補正された射影変換行列Wpにより、撮像画像座標系におけるオブジェクトの座標値を、スクリーン座標系の座標値に変換する。
また、画像処理部12は、補正されたビューポート変換行列Bsにより、スクリーン座標系におけるオブジェクトの座標値を、表示座標系の座標値に変換する。
画像処理部12は、表示座標系に変換されたBIMデータを、表示部17の表示面において、撮像画像に重ねて半透明の状態で表示する。この時点で、撮像画像に対してCG画像から変換された仮想画像が精度良く重なり合った状態となる。
そして、ユーザが携帯撮像端末1の撮像方向を、ターゲットマークB1、B2及びB3を設定した方向に向け、表示部17の表示面における図示しない撮像モードのボタンをタップする。
これにより、表示部17は、いずれの位置がタップされたかを示すタップ情報を画像処理部12へ出力する。
次に、画像処理部12は、入力されたタップ情報の位置から、撮像モードのボタンがタップされたことを検出し、撮像画像に対して仮想画像の重なった画像に対し、現在撮像している画像を重ねて表示する。
そして、ユーザが表示部17の表示面における撮像画像のターゲットマークB1、B2及びB3と、現在撮像している撮像画像における座標点が重ならせて、図示しない決定ボタンをタップする。
これにより、表示部17は、表示面のいずれの位置がタップされたかを示すタップ情報を画像処理部12へ出力する。
次に、画像処理部12は、入力されたタップ情報の位置から、撮像モードのボタンがタップされたことを検出し、補正用の撮像画像を消去し、現在撮像している撮像画像と、仮想画像とを重ねて表示する。
ステップS12:
次に、画像処理部12は、表示部17の表示面に対し、撮像の処理を終了するか否かの判定を行うための表示を行う。
例えば、画像処理部12は、終了ボタンを表示部17の表示面に表示し、この終了ボタンがタップされた場合に処理を終了し、タップされない場合に処理をステップS13へ進める。
ステップS13:
そして、撮像部11は、ユーザが図12に示すように、ユーザが携帯撮像端末1を左右方向あるいは上下方向に撮像方向を変更したりした場合、携帯撮像端末1に登載されている図示しない方位センサ及び傾きセンサの検出値が変化したか否かの判定を行う。
すなわち、撮像部11は、記憶部に記憶されている撮像画像を撮像した際に書き込んで記憶させた方位及び傾きに対し、現在検出されている方位及び傾きが予め設定した閾値(方位及び傾きの各々に対して設定)を越えた場合、方位及び傾きのいずれかあるいは双方が変化したと検出する。
ここで、撮像部11は、方位あるいは傾きのいずれかでも変化した場合、処理をステップS9へ進め、一方、方位及び傾きのいずれも変化しない場合、処理をステップS11へ進める。ステップS9へ進んだ場合、位置制御部16は、方位及び傾きの変化分により、撮像方向の補正を行う。そして、変換行列生成部13は、携帯撮像端末1の位置及び補正された携帯撮像端末1の撮像方向により、再度、ビューポート変換行列Bs及び射影変換行列Wpの生成を行う。
上述したように、本実施形態によれば、施工中の建物内にて、携帯撮像端末1により撮像される撮像画像と、仮想画像(BIMデータ)とを、ARマーカなどを用いずに簡易な操作により、精度良く重ね合わせることができる。
また、図1における携帯撮像端末1の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより実際に撮像した画像に対し、BIMデータの仮想空間のオフジェクトを重ねて表示する処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
以上、この発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
1…携帯撮像端末
2…データセンタ
11…撮像部
12…画像処理部
13…変換行列生成部
14…記憶部
15…送受信部
16…位置制御部
17…表示部
21…データサーバ
22…3次元モデルデータベース

Claims (4)

  1. 携帯撮像端末とデータサーバとから構成される合成画像表示システムであり、
    前記データサーバには、施工中の建物の3次元のコンピュータグラフィック画像が予め書き込まれて記憶されており、
    前記携帯撮像端末が、
    前記建物内の画像を撮像し、撮像画像として出力する撮像部と、
    前記撮像画像を表示する表示部と、
    前記撮像画像と、前記コンピュータグラフィック画像における前記撮像画像を撮像した位置及び撮像方向に対応して撮像した仮想画像とにおいて、同一の特徴点の座標位置を比較する位置制御部と、
    前記特徴点の座標位置の比較結果により、前記特徴点の座標位置が重なり合う座標変換を行うことにより、前記撮像画像に対して前記仮想画像を重ね合わせて前記表示部に表示する画像処理部と
    を備えることを特徴とする合成画像表示システム。
  2. 前記コンピュータグラフィック画像が、
    前記建物内に竣工後に配置される什器や設備配管などをオフジェクト画像とし、当該建物のコンピュータグラフィック画像に付加された画像である
    ことを特徴とする請求項1に記載の前記合成画像表示システム。
  3. 前記位置制御部が、
    前記建物内の前記携帯撮像端末の位置及び撮像方向を、前記コンピュータグラフィック画像の3次元空間の座標に対応させる
    ことを特徴とする請求項1または請求項2に記載の前記合成画像表示システム。
  4. 携帯撮像端末の撮像した画像と、データサーバに記憶されたコンピュータグラフィック画像とを合成する合成画像表示方法であり、
    前記データサーバには、施工中の建物の3次元のコンピュータグラフィック画像が予め書き込まれて記憶されており、
    前記携帯撮像端末が、
    前記建物内の画像を撮像し、撮像画像として出力する撮像過程と、前記撮像画像を表示部に表示する表示過程と、
    前記撮像画像と、前記コンピュータグラフィック画像における前記撮像画像を撮像した位置及び撮像方向に対応して撮像した仮想画像とにおいて、同一の特徴点の座標位置を比較する位置制御過程と、
    前記特徴点の座標位置の比較結果により、前記特徴点の座標位置が重なり合う座標変換を行うことにより、前記撮像画像に対して前記仮想画像を重ね合わせて前記表示部に表示する画像処理過程と
    を含むことを特徴とする合成画像表示方法。
JP2012138747A 2012-06-20 2012-06-20 合成画像表示システム及びその方法 Active JP5915996B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012138747A JP5915996B2 (ja) 2012-06-20 2012-06-20 合成画像表示システム及びその方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012138747A JP5915996B2 (ja) 2012-06-20 2012-06-20 合成画像表示システム及びその方法

Publications (2)

Publication Number Publication Date
JP2014002645A true JP2014002645A (ja) 2014-01-09
JP5915996B2 JP5915996B2 (ja) 2016-05-11

Family

ID=50035743

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012138747A Active JP5915996B2 (ja) 2012-06-20 2012-06-20 合成画像表示システム及びその方法

Country Status (1)

Country Link
JP (1) JP5915996B2 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016038867A (ja) * 2014-08-11 2016-03-22 株式会社大林組 配置計画支援システム、配置計画支援方法及び配置計画支援プログラム
JP2019027855A (ja) * 2017-07-27 2019-02-21 株式会社大林組 検査処理システム、検査処理方法及び検査処理プログラム
JP2019045962A (ja) * 2017-08-30 2019-03-22 中国電力株式会社 鉄筋位置確認システム
CN109656362A (zh) * 2018-12-14 2019-04-19 歌尔科技有限公司 虚拟增强现实设备及其控制方法、系统、计算机存储介质
JP2020052616A (ja) * 2018-09-26 2020-04-02 株式会社不動テトラ 地盤改良工事の合成画像表示方法
JP6961157B1 (ja) * 2021-05-25 2021-11-05 株式会社x garden 情報処理システム、情報処理方法及びプログラム
KR20220161855A (ko) * 2021-05-31 2022-12-07 주식회사 쓰리아이 가상 실내공간 컨텐츠 생성을 위한 모바일 단말 및 그 모바일 단말의 제어 방법
KR20220161856A (ko) * 2021-05-31 2022-12-07 주식회사 쓰리아이 가상 실내공간 컨텐츠 제공 방법 및 그를 위한 서버
WO2022255546A1 (ko) * 2021-05-31 2022-12-08 주식회사 쓰리아이 가상 실내공간 컨텐츠 제공 방법 및 그를 위한 서버
WO2023248619A1 (ja) * 2022-06-21 2023-12-28 株式会社Nttドコモ 端末装置及びオブジェクト管理サーバ

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000036061A (ja) * 1998-07-17 2000-02-02 Toshiba Corp 画像処理システム
JP2002092647A (ja) * 2000-09-19 2002-03-29 Olympus Optical Co Ltd 情報呈示システム及びモデル誤差検出システム
JP2003132374A (ja) * 2001-10-26 2003-05-09 Canon Inc 画像表示装置及びその方法並びに記憶媒体
JP2003141569A (ja) * 2001-10-31 2003-05-16 Canon Inc 情報処理方法および映像合成装置
JP2004302756A (ja) * 2003-03-31 2004-10-28 Hitachi Plant Eng & Constr Co Ltd Cad施工図検図方法及びその装置
JP2005227876A (ja) * 2004-02-10 2005-08-25 Canon Inc 画像処理方法、画像処理装置
JP2007228315A (ja) * 2006-02-24 2007-09-06 Mitsubishi Heavy Ind Ltd 建屋内における構造物の建設工事及び点検支援装置
US20080071559A1 (en) * 2006-09-19 2008-03-20 Juha Arrasvuori Augmented reality assisted shopping

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000036061A (ja) * 1998-07-17 2000-02-02 Toshiba Corp 画像処理システム
JP2002092647A (ja) * 2000-09-19 2002-03-29 Olympus Optical Co Ltd 情報呈示システム及びモデル誤差検出システム
JP2003132374A (ja) * 2001-10-26 2003-05-09 Canon Inc 画像表示装置及びその方法並びに記憶媒体
JP2003141569A (ja) * 2001-10-31 2003-05-16 Canon Inc 情報処理方法および映像合成装置
JP2004302756A (ja) * 2003-03-31 2004-10-28 Hitachi Plant Eng & Constr Co Ltd Cad施工図検図方法及びその装置
JP2005227876A (ja) * 2004-02-10 2005-08-25 Canon Inc 画像処理方法、画像処理装置
JP2007228315A (ja) * 2006-02-24 2007-09-06 Mitsubishi Heavy Ind Ltd 建屋内における構造物の建設工事及び点検支援装置
US20080071559A1 (en) * 2006-09-19 2008-03-20 Juha Arrasvuori Augmented reality assisted shopping

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016038867A (ja) * 2014-08-11 2016-03-22 株式会社大林組 配置計画支援システム、配置計画支援方法及び配置計画支援プログラム
JP2019027855A (ja) * 2017-07-27 2019-02-21 株式会社大林組 検査処理システム、検査処理方法及び検査処理プログラム
US11094120B2 (en) 2017-07-27 2021-08-17 Obayashi Corporation Inspection processing system, inspection processing method, and inspection processing program
JP6992329B2 (ja) 2017-08-30 2022-01-13 中国電力株式会社 鉄筋位置確認システム
JP2019045962A (ja) * 2017-08-30 2019-03-22 中国電力株式会社 鉄筋位置確認システム
JP2020052616A (ja) * 2018-09-26 2020-04-02 株式会社不動テトラ 地盤改良工事の合成画像表示方法
CN109656362B (zh) * 2018-12-14 2022-02-18 歌尔光学科技有限公司 虚拟增强现实设备及其控制方法、系统、计算机存储介质
CN109656362A (zh) * 2018-12-14 2019-04-19 歌尔科技有限公司 虚拟增强现实设备及其控制方法、系统、计算机存储介质
JP6961157B1 (ja) * 2021-05-25 2021-11-05 株式会社x garden 情報処理システム、情報処理方法及びプログラム
JP2022181131A (ja) * 2021-05-25 2022-12-07 株式会社x garden 情報処理システム、情報処理方法及びプログラム
KR20220161855A (ko) * 2021-05-31 2022-12-07 주식회사 쓰리아이 가상 실내공간 컨텐츠 생성을 위한 모바일 단말 및 그 모바일 단말의 제어 방법
KR20220161856A (ko) * 2021-05-31 2022-12-07 주식회사 쓰리아이 가상 실내공간 컨텐츠 제공 방법 및 그를 위한 서버
WO2022255546A1 (ko) * 2021-05-31 2022-12-08 주식회사 쓰리아이 가상 실내공간 컨텐츠 제공 방법 및 그를 위한 서버
KR102575503B1 (ko) * 2021-05-31 2023-09-06 주식회사 쓰리아이 가상 실내공간 컨텐츠 생성을 위한 모바일 단말 및 그 모바일 단말의 제어 방법
KR102600421B1 (ko) * 2021-05-31 2023-11-09 주식회사 쓰리아이 가상 실내공간 컨텐츠 제공 방법 및 그를 위한 서버
WO2023248619A1 (ja) * 2022-06-21 2023-12-28 株式会社Nttドコモ 端末装置及びオブジェクト管理サーバ

Also Published As

Publication number Publication date
JP5915996B2 (ja) 2016-05-11

Similar Documents

Publication Publication Date Title
JP5915996B2 (ja) 合成画像表示システム及びその方法
JP5211120B2 (ja) 情報表示装置及び情報表示方法
JP6348741B2 (ja) 情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法
CN107330978B (zh) 基于位置映射的增强现实建模体验系统及方法
WO2011010533A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム
US20140267234A1 (en) Generation and Sharing Coordinate System Between Users on Mobile
JP4926826B2 (ja) 情報処理方法および情報処理装置
JP6230113B2 (ja) 撮影動画像に指示画像を同期して重畳する映像指示同期方法、システム、端末、及びプログラム
CN104899920A (zh) 图像处理方法、图像处理装置及电子设备
WO2017043145A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP7428843B2 (ja) 情報端末装置および位置認識方法
JP2019153274A (ja) 位置算出装置、位置算出プログラム、位置算出方法、及びコンテンツ付加システム
WO2021138940A1 (zh) 面向增强和混合现实的远程虚实高精度匹配定位的方法
JP6730577B2 (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP7366618B2 (ja) 現場連携システムおよび管理装置
CN110599432A (zh) 影像处理系统及影像处理方法
CN108090212B (zh) 兴趣点的展示方法、装置、设备及存储介质
JP7334460B2 (ja) 作業支援装置及び作業支援方法
JP6146869B2 (ja) 撮影動画像に指示画像を同期して重畳する映像指示表示方法、システム、端末、及びプログラム
CN115731349A (zh) 户型图的展示方法、装置、电子设备及存储介质
TW202001805A (zh) 影像處理系統及影像處理方法
JP7398227B2 (ja) 作業支援システム及びプログラム
KR102512560B1 (ko) 3d 투어 비교 표시 시스템 및 방법
JP6737945B2 (ja) 決定装置、画像処理装置及び決定プログラム
WO2021156977A1 (ja) 空間認識システム、空間認識方法、情報端末、およびサーバ装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160329

R150 Certificate of patent or registration of utility model

Ref document number: 5915996

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150