JP2014002645A - 合成画像表示システム及びその方法 - Google Patents
合成画像表示システム及びその方法 Download PDFInfo
- Publication number
- JP2014002645A JP2014002645A JP2012138747A JP2012138747A JP2014002645A JP 2014002645 A JP2014002645 A JP 2014002645A JP 2012138747 A JP2012138747 A JP 2012138747A JP 2012138747 A JP2012138747 A JP 2012138747A JP 2014002645 A JP2014002645 A JP 2014002645A
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- captured
- imaging terminal
- building
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Processing Or Creating Images (AREA)
- Studio Devices (AREA)
Abstract
【解決手段】本発明の合成画像表示システムは、携帯撮像端末とデータサーバとから構成され、データサーバには、竣工中の建物の3次元のコンピュータグラフィック画像が予め書き込まれて記憶され、携帯撮像端末が建物内の画像を撮像し、撮像画像として出力する撮像部と、撮像画像を表示する表示部と、撮像画像と、コンピュータグラフィック画像における当該撮像画像を撮像した同一の位置及び撮像方向の仮想画像とにおいて、同一の特徴点の座標位置を比較する位置制御部と、前記特徴点の座標位置の比較結果により、特徴点の座標位置が重なり合う座標変換を行い、撮像画像に仮想画像を重ね合わせて表示部に表示する画像処理部とを備える。
【選択図】図1
Description
現在、上述したCG画像データを拡張したBIMデータを用い、施工中の現場の完成後の状態を確認する処理が行われている。この際、ユーザが端末内で自身のいる位置を入力し、施工中の現場の画像に対して、BIMデータの画像とを重ね合わせて表示端末に表示させることが行われている。
しかしながら、ARマーカなど、仮想画像を重ねる場所に配置し、コンピュータを用いた画像処理システムに、ARマーカの位置を認識させた後、撮像画像に対して仮想画像を合成して表示するため、予めARマーカを配置する手間がかかっていた。
また、ARマーカに重ねた場合、仮想画像と撮像画像との大きさが合わず、仮想画像と撮像画像との重なり誤差が大きく、ずれが合成されることにより、完成後の竣工イメージを正確に観察することができない。
本発明の合成画像表示方法は、携帯撮像端末の撮像した画像と、データサーバに記憶されたコンピュータグラフィック画像とを合成する合成画像表示方法であり、前記データサーバには、施工中の建物の3次元のコンピュータグラフィック画像が予め書き込まれて記憶されており、前記携帯撮像端末が、前記建物内の画像を撮像し、撮像画像として出力する撮像過程と、前記撮像画像を表示部に表示する表示過程と、前記撮像画像と、前記コンピュータグラフィック画像における前記撮像画像を撮像した位置及び撮像方向に対応して撮像した仮想画像とにおいて、同一の特徴点の座標位置を比較する位置制御過程と、前記特徴点の座標位置の比較結果により、前記特徴点の座標位置が重なり合う座標変換を行うことにより、前記撮像画像に対して前記仮想画像を重ね合わせて前記表示部に表示する画像処理過程とを含むことを特徴とする。
携帯撮像端末1は、画像の撮像を行い、この撮像された撮像画像とBIMデータにおけるCG(computer graphics:コンピュータグラフィック)画像との合成を行い、合成結果を表示する。
また、携帯撮像端末1は、撮像部11、画像処理部12、変換行列生成部13、記憶部14、送受信部15、位置制御部16及び表示部17が備えられている。
データセンタ2には、データサーバ21と3次元モデルデータベース22とが備えられている。ここで、携帯撮像端末1とデータセンタ2にデータサーバ21とは、インターネットを含む情報通信網Iと無線LAN(Local Area Network)基地局Rとを介して接続され、データの送受信を行う。
このBIMデータテーブルは、建物を識別する建物識別情報、各建物における各階を識別するフロア識別情報、各フロアにおける各部屋を識別する識別番号と、部屋毎の2次元画像(天井方向から見た平面画像)及び建物の各部屋の3次元のCG画像の記憶された記憶領域の先頭アドレスを示すインデックスとが対応付けられている。この建物識別情報、フロア識別情報及び部屋識別情報の組合せが、各部屋のCG画像を識別するCG画像識別情報となっている。また、CG画像は、例えば、実際に竣工される建物内の部屋の寸法で形成されており、竣工後に配置される什器や配管設備などが配置された状態の建物内の様子を示す3次元の仮想空間となっている。
ここで、グローバル座標系から撮像座標系への変換をビュー変換とし、撮像座標系からスクリーン座標系への変換を射影変換とし、スクリーン座標系から表示座標系への変換をビューポート変換とする。
また、データサーバ21は、BIMデータテーブルから読み出したインデックスの示す記憶領域に記憶されている平面画像とCG画像とを読み出し、読み出した平面画像とCG画像とを携帯撮像端末1へ送信する。
また、送受信部15は、データサーバ21より受信した平面画像及びCG画像のデータを、記憶部14に書き込んで記憶させる。
撮像部11は、撮像方向の被写体の画像を撮像し、撮像した撮像画像のデータを記憶部14に書き込んで記憶させる。
ここで、ビュー変換行列Mbは、3次元のグローバル座標系のオブジェクトの各々の座標値を、携帯撮像端末1の撮像方向を奥行き方向(z軸方向)とした3次元の撮像座標系の座標値に変換するために用いられる。また、射影変換行列Wpは、撮像座標系の視錘台における同次クリップ空間であるスクリーン座標系の座標値に変換する。ビューポート変換行列Bsは、射影変換されたスクリーン座標系のクリップ平面(XY平面)の各座標値を、表示部17の表示画面の表示座標系における座標値に座標変換するために用いられる。
画像処理部12は、オブジェクトの各座標点が表示座標系に変換された画像データを、表示部17の表示画面に表示する。
表示部17は、画像の分解能に応じた入力のためのセンサが表面に設けられており、ユーザたタッチペンなどでタップしたポイントの座標値を読み込み、画像処理部12へ出力する。
また、変換行列生成部13は、予め自身内部の内部記憶部に書き込んで記憶されている表示部17の表示画面のサイズ、すなわち縦(h)×横(ω)のサイズから、ビューポート変換行列Bsを求める。
さらに、変換行列生成部13は、ビュー変換行列Mb、射影変換行列Wp及びビューポート変換行列Bsの各々の逆行列として、それぞれ逆ビュー変換行列Mb−1、逆射影変換行列Wp−1、逆ビューポート変換行列Bs−1を求める。
また、画像処理部12は、射影変換行列Wpにより、撮像座標系の座標値を、スクリーン座標系の座標値に変換する。
そして、画像処理部12は、ビューポート変換行列Bsにより、スクリーン座標系の座標値を、表示座標系の座標値に変換する。
表示座標系に変換した後、画像処理部12は、表示座標系に変換した画像を、表示部17の表示画面に表示させる。
位置制御部16は、逆ビューポート変換行列Bs−1を用いて、撮像画像のターゲットマークB1、B2及びB3の表示座標系の座標位置を、スクリーン座標系の座標値に変換する。
また、位置制御部16は、逆ビュー変換行列Mb−1により、撮像座標系における座標値B1_1及びB1_2、B2_1及びB2_2、B3_1及びB3_2を、グローバル座標系における座標値に変換する。
この図において、壁100Dは、グローバル座標系におけるBIMデータのCG画像における什器のオブジェクトとしての扉の3次元画像である。ターゲットマークA1’、A2’、A3’の各々は、それぞれ図3(b)におけるターゲットマークA1、A2、A3と対応している。
次に、位置制御部16は、直線L1、L2及びL3の各々の線上において、ターゲットマークA1’、A2’、A3’の各々の座標点が成す三角形SAと相似となる三角形SQを形成する座標点Q1、Q2、Q3を求める。この座標点Q1、Q2及びQ3の各々は、それぞれターゲットマークA1’、A2’、A3’と対応している。
また、位置制御部16は、三角形SAの2次元平面の法線ベクトルPAと、三角形SQの2次元平面の法線ベクトルPQとを求め、法線ベクトルPAに対する法線ベクトルPQの角度のずれをX軸、Y軸及びZ軸の各々の角度成分毎に、ずれ角Δθx、Δθy、Δθz求める。
ここで行う補正の計算は、例えば、距離dAQ及びずれ角Δθx、Δθy、Δθzとに対応し、現在の位置を及びベクトルを補正する補正式などを予め求めておき、暫定的に入力された携帯撮像端末1の位置Vpと、携帯撮像端末1の撮像方向Pと、距離dAQ及びずれ角Δθx、Δθy、Δθzとを代入して行う。
次に、変換行列生成部13は、位置制御部16から送信された携帯撮像端末1の位置Vpと、携帯撮像端末1の撮像方向Pとにより、ビュー変換行列Mb及び射影変換行列Wpを再度作成する。
そして、変換行列生成部13は、再作成したビュー変換行列Mb及び射影変換行列Wpを、画像処理部12に対して出力する。
この後、画像処理部12は、再作成されたビュー変換行列Mb及び射影変換行列Wpを用いて、ビュー変換及び射影変換を行う。
ユーザが携帯撮像端末1を起動する。
送受信部15は、データセンタのデータサーバ21に対して、作業所(竣工前の建物)のデータを送付する制御信号を、データサーバ21に対して送信する。
そして、データサーバ21は、携帯撮像端末1から制御信号を受信すると、3次元モデルデータベース22のBIMデータテーブルから、全ての建物識別情報(例えば、名称など)を読み出す。
応答信号を受信すると、送受信部15は、この応答信号から建物識別情報を抽出し、この抽出した建物識別情報を記憶部14へ書き込んで記憶する。
そして、画像処理部12は、記憶部14から建物識別情報を読み出し、例えば携帯撮像端末1の表示部17の表示画面に図6に示すように表示する。
表示部17は、いずれの位置がユーザUの指によりタップされたかを示すタップ情報を画像処理部12へ出力する。
タップ情報が供給されると、画像処理部12は、いずれの作業所が選択されたかを、タップ情報の位置情報から検出し、検出した作業所の建物識別情報を送受信部15へ出力する。
次に、送受信部15は、データセンタのデータサーバ21に対して、この建物識別情報の示す建物の各階のデータを送付する制御信号を、データサーバ21に対して送信する。
そして、データサーバ21は、携帯撮像端末1から制御信号を受信すると、3次元モデルデータベース22のBIMデータテーブルから、受信した建物識別情報に対応する建物の階の情報を読み出す。このとき、データサーバ21は、この建物識別情報に対応したインデックスにより、この建物識別情報の示す建物の構造の画像データを、3次元モデルデータベース22から読み出す。
応答信号を受信すると、送受信部15は、この応答信号からフロア識別情報を抽出し、この抽出したフロア識別情報を記憶部14へ書き込んで記憶する。
そして、画像処理部12は、記憶部14からフロア識別情報を読み出し、例えば携帯撮像端末1の表示部17の表示画面に図7に示すように表示する。
表示部17は、いずれの位置がユーザUの指によりタップされたかを示すタップ情報を画像処理部12へ出力する。
タップ情報が供給されると、画像処理部12は、いずれの階が選択されたかを、タップ情報の位置情報から検出し、検出した階のフロア識別情報を送受信部15へ出力する。
そして、データサーバ21は、携帯撮像端末1から制御信号を受信すると、3次元モデルデータベース22のBIMデータテーブルから、受信したフロア識別情報に対応するインデックスを読み出す。
そして、データサーバ21は、読み出したBIMデータを携帯撮像端末1へ応答信号として送信する。
応答信号を受信すると、送受信部15は、この応答信号からフロアの平面図の画像データ及びフロアのCG画像の画像データを抽出し、この抽出したフロアの平面図及びCG画像の画像データを記憶部14へ書き込んで記憶する。
そして、画像処理部12は、記憶部14からフロアの平面図の画像データを読み出し、例えば表示部17の表示画面に図8に示すように表示する。
次に、ユーザは、図8に示すように、表示部17の表示画面に表示されたフロアの平面図において、自身の現在いる位置が表示された表示面17CをユーザUの指によりタップして入力する。
これにより、表示部17は、いずれの位置がユーザUの指によりタップされたかを示すタップ情報を画像処理部12へ出力する。
このタップ情報により、画像処理部12は、階が表示された表示面をタップする。
表示部17は、いずれの位置がタップされたかを示すタップ情報を画像処理部12へ出力する。
そして、画像処理部12は、携帯撮像端末1の位置を表示部17の表示面に表示する。
これにより、表示部17は、いずれの位置がタップされたかを示すタップ情報を画像処理部12へ出力する。
そして、画像処理部12は、携帯撮像端末1の位置と、新たに入力されたタップ情報の位置とから撮像方向Pを求め、この撮像方向Pを表示部17の表示面に表示する。
次に、画像処理部12は、表示部17の表示面に現在表示されている携帯撮像端末1の位置と、この携帯撮像端末1の撮像方向とを確定して良いか否かを選択させる画像、例えば確定ボタンと変更ボタンとを、表示部17の表示面に表示させる。このボタンのいずれかをユーザはタップして選択する。
表示部17は、ユーザのタップした位置を示すタップ情報を画像処理部12に出力する。
これにより、画像処理部12は、タップ情報の示す位置により、確定ボタンあるいは変更ボタンのいすれがタップされたかの判定を行う。
一方、画像処理部12は、変更ボタンがタップされた場合に、処理をステップS3に戻し、新たな携帯撮像端末1の位置と携帯撮像端末1の撮像方向の入力を促す画像(例えば、撮像ボタン)を、表示部17の表示面に表示する。
次に、ユーザは、現在自身のいる作業所の部屋Rにおける撮像方向Pの画像を、図9に示すように、表示部17の表示面に表示された撮像ボタンの表示領域17DをユーザUの指によりタップすることにより撮像する。
これにより、表示部17は、いずれの位置がタップされたかを示すタップ情報を画像処理部12へ出力する。
画像処理部12は、入力されたタップ情報の位置から、撮像ボタンがタップされたことを検出し、撮像処理を示す制御信号を撮像部11に対して出力する。
そして、画像処理部12は、記憶部14から撮像画像のデータを読み出し、表示部17の表示面に表示する。
ここで、変換行列生成部13は、上記携帯撮像端末1の位置及び携帯撮像端末1の撮像方向から、ビュー変換行列Mb、射影変換行列Wp及びビューポート変換行列Bsの各々の逆行列として、それぞれ逆ビュー変換行列Mb−1、逆射影変換行列Wp−1、逆ビューポート変換行列Bs−1を求める。
次に、画像処理部12は、表示部17の表示面に現在表示されている撮像画像を確定して良いか否かを選択させる画像、例えば確定ボタンと変更ボタンとを、表示部17の表示面に表示させる。このボタンのいずれかをユーザはタップして選択する。
表示部17は、ユーザのタップした位置を示すタップ情報を画像処理部12に出力する。
これにより、画像処理部12は、タップ情報の示す位置により、確定ボタンあるいは変更ボタンのいすれがタップされたかの判定を行う。
一方、画像処理部12は、変更ボタンがタップされた場合に、処理をステップS5に戻し、新たな撮像画像の撮像処理を促す画像を、表示部17の表示面に表示する。
次に、画像処理部12は、記憶部14からBIMデータの3次元のCG画像のデータを読み出し、ビュー変換行列Mbにより、グローバル座標系におけるBIMデータのCG画像の各オブジェクトの座標値を、撮像画像座標系の仮想画像の座標値に変換する。ここでオブジェクトの座標値とは、ターゲットマークとして選択される画像の特徴点の座標値を示している。例えば、扉の四隅(四角形の頂点の座標)、窓の4隅(四角形の頂点)、天井の四隅などである。
そして、画像処理部12は、射影変換行列Wpにより、撮像画像座標系における仮想画像のにおけるオブジェクトの座標値を、スクリーン座標系の座標値に変換する。
また、画像処理部12は、ビューポート変換行列Bsにより、スクリーン座標系におけるオブジェクトの座標値を、表示座標系の座標値に変換する。
画像処理部12は、表示座標系に変換されたBIMデータを、表示部17の表示面において、撮像画像に重ねて半透明の状態で表示する。
次に、画像処理部12は、撮像画像に対するターゲットマークを設定することを促す画像を、表示部17の表示面に表示する。
この画像により、ユーザは、図10において図3(b)に示すように、表示部17の表示面に表示された撮像画像のターゲットマークB1、B2及びB3を順番にユーザUの指によりタップし、ターゲットマークとして設定する。
これにより、表示部17は、いずれの位置がタップされたかを示すタップ情報を、タップされる毎に画像処理部12へ出力する。
そして、画像処理部12は、連続で入力されるタップ情報から順次、ターゲットマークB1、B2及びB3の表示座標系における座標値を抽出し、ターゲットマークB1、B2及びB3として、記憶部14に書き込んで記憶させる。
この画像により、ユーザは、図11において図3(b)に示すように、表示部17の表示面に表示されたBIMデータの画像のターゲットマークA1、A2及びAを順番にユーザUの指によりタップし、ターゲットマークとして設定する。
これにより、表示部17は、いずれの位置がタップされたかを示すタップ情報を、タップされる毎に画像処理部12へ出力する。
ここで、ターゲットマークは、オブジェクトの頂点を選択するようにし、各オブジェクトの頂点毎に頂点識別情報が付加され、座標値が変換されても、この頂点識別情報がかならず対応するようにする必要がある。したがって、画像処理部12は、ターゲットマークA1、A2及びA3として、記憶部14に書き込んで記憶させる際、それぞれ頂点識別情報を対応させて書き込んで記憶させる。
次に、位置制御部16は、ターゲットマークB1、B2及びB3の各々の座標値を、記憶部14から読み出す。
そして、位置制御部16は、ターゲットマークB1、B2及びB3の各々の座標値を、逆ビューポート変換行列Bs−1、逆射影変換行列Wp−1、逆ビュー変換行列Mb−1の各々を順次用い、表示座標系からスクリーン座標系、スクリーン座標系から撮像座標系、撮像座標系からグローバル座標系へと座標値を変換する。
そして、位置制御部16は、図4に示すように、直線L1、L2及びL3の各々を生成する。
そして、位置制御部16は、直線L1、L2及びL3の各々の直線上の1個ずつの座標点を選択し、グローバル座標系におけるターゲットマークA1’、A2’及びA3’の3個の頂点識別情報に対応する座標値の成す三角形SAに対して相似となる三角形SQを形成する座標点Q1、Q2及びQ3の各々を求める。
位置制御部16は、このこの三角形SAと三角形SQとの重心距離dAQと、法線ベクトルのずれ角Δθx、Δθy、Δθzとから、携帯撮像端末1の位置及び携帯撮像端末1の撮像方向の補正を行う。
次に、変換行列生成部13は、補正された携帯撮像端末1の位置及び携帯撮像端末1の撮像方向により、再度、ビューポート変換行列Bs及び射影変換行列Wpの生成を行う。
次に、画像処理部12は、記憶部14からBIMデータの3次元のCG画像のデータを読み出し、補正されたビュー変換行列Mbにより、グローバル座標系におけるBIMデータの各オブジェクトの座標値を、撮像画像座標系の座標値に変換する。
そして、画像処理部12は、補正された射影変換行列Wpにより、撮像画像座標系におけるオブジェクトの座標値を、スクリーン座標系の座標値に変換する。
画像処理部12は、表示座標系に変換されたBIMデータを、表示部17の表示面において、撮像画像に重ねて半透明の状態で表示する。この時点で、撮像画像に対してCG画像から変換された仮想画像が精度良く重なり合った状態となる。
そして、ユーザが携帯撮像端末1の撮像方向を、ターゲットマークB1、B2及びB3を設定した方向に向け、表示部17の表示面における図示しない撮像モードのボタンをタップする。
これにより、表示部17は、いずれの位置がタップされたかを示すタップ情報を画像処理部12へ出力する。
そして、ユーザが表示部17の表示面における撮像画像のターゲットマークB1、B2及びB3と、現在撮像している撮像画像における座標点が重ならせて、図示しない決定ボタンをタップする。
次に、画像処理部12は、入力されたタップ情報の位置から、撮像モードのボタンがタップされたことを検出し、補正用の撮像画像を消去し、現在撮像している撮像画像と、仮想画像とを重ねて表示する。
次に、画像処理部12は、表示部17の表示面に対し、撮像の処理を終了するか否かの判定を行うための表示を行う。
例えば、画像処理部12は、終了ボタンを表示部17の表示面に表示し、この終了ボタンがタップされた場合に処理を終了し、タップされない場合に処理をステップS13へ進める。
そして、撮像部11は、ユーザが図12に示すように、ユーザが携帯撮像端末1を左右方向あるいは上下方向に撮像方向を変更したりした場合、携帯撮像端末1に登載されている図示しない方位センサ及び傾きセンサの検出値が変化したか否かの判定を行う。
すなわち、撮像部11は、記憶部に記憶されている撮像画像を撮像した際に書き込んで記憶させた方位及び傾きに対し、現在検出されている方位及び傾きが予め設定した閾値(方位及び傾きの各々に対して設定)を越えた場合、方位及び傾きのいずれかあるいは双方が変化したと検出する。
ここで、撮像部11は、方位あるいは傾きのいずれかでも変化した場合、処理をステップS9へ進め、一方、方位及び傾きのいずれも変化しない場合、処理をステップS11へ進める。ステップS9へ進んだ場合、位置制御部16は、方位及び傾きの変化分により、撮像方向の補正を行う。そして、変換行列生成部13は、携帯撮像端末1の位置及び補正された携帯撮像端末1の撮像方向により、再度、ビューポート変換行列Bs及び射影変換行列Wpの生成を行う。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
2…データセンタ
11…撮像部
12…画像処理部
13…変換行列生成部
14…記憶部
15…送受信部
16…位置制御部
17…表示部
21…データサーバ
22…3次元モデルデータベース
Claims (4)
- 携帯撮像端末とデータサーバとから構成される合成画像表示システムであり、
前記データサーバには、施工中の建物の3次元のコンピュータグラフィック画像が予め書き込まれて記憶されており、
前記携帯撮像端末が、
前記建物内の画像を撮像し、撮像画像として出力する撮像部と、
前記撮像画像を表示する表示部と、
前記撮像画像と、前記コンピュータグラフィック画像における前記撮像画像を撮像した位置及び撮像方向に対応して撮像した仮想画像とにおいて、同一の特徴点の座標位置を比較する位置制御部と、
前記特徴点の座標位置の比較結果により、前記特徴点の座標位置が重なり合う座標変換を行うことにより、前記撮像画像に対して前記仮想画像を重ね合わせて前記表示部に表示する画像処理部と
を備えることを特徴とする合成画像表示システム。 - 前記コンピュータグラフィック画像が、
前記建物内に竣工後に配置される什器や設備配管などをオフジェクト画像とし、当該建物のコンピュータグラフィック画像に付加された画像である
ことを特徴とする請求項1に記載の前記合成画像表示システム。 - 前記位置制御部が、
前記建物内の前記携帯撮像端末の位置及び撮像方向を、前記コンピュータグラフィック画像の3次元空間の座標に対応させる
ことを特徴とする請求項1または請求項2に記載の前記合成画像表示システム。 - 携帯撮像端末の撮像した画像と、データサーバに記憶されたコンピュータグラフィック画像とを合成する合成画像表示方法であり、
前記データサーバには、施工中の建物の3次元のコンピュータグラフィック画像が予め書き込まれて記憶されており、
前記携帯撮像端末が、
前記建物内の画像を撮像し、撮像画像として出力する撮像過程と、前記撮像画像を表示部に表示する表示過程と、
前記撮像画像と、前記コンピュータグラフィック画像における前記撮像画像を撮像した位置及び撮像方向に対応して撮像した仮想画像とにおいて、同一の特徴点の座標位置を比較する位置制御過程と、
前記特徴点の座標位置の比較結果により、前記特徴点の座標位置が重なり合う座標変換を行うことにより、前記撮像画像に対して前記仮想画像を重ね合わせて前記表示部に表示する画像処理過程と
を含むことを特徴とする合成画像表示方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012138747A JP5915996B2 (ja) | 2012-06-20 | 2012-06-20 | 合成画像表示システム及びその方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012138747A JP5915996B2 (ja) | 2012-06-20 | 2012-06-20 | 合成画像表示システム及びその方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014002645A true JP2014002645A (ja) | 2014-01-09 |
JP5915996B2 JP5915996B2 (ja) | 2016-05-11 |
Family
ID=50035743
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012138747A Active JP5915996B2 (ja) | 2012-06-20 | 2012-06-20 | 合成画像表示システム及びその方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5915996B2 (ja) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016038867A (ja) * | 2014-08-11 | 2016-03-22 | 株式会社大林組 | 配置計画支援システム、配置計画支援方法及び配置計画支援プログラム |
JP2019027855A (ja) * | 2017-07-27 | 2019-02-21 | 株式会社大林組 | 検査処理システム、検査処理方法及び検査処理プログラム |
JP2019045962A (ja) * | 2017-08-30 | 2019-03-22 | 中国電力株式会社 | 鉄筋位置確認システム |
CN109656362A (zh) * | 2018-12-14 | 2019-04-19 | 歌尔科技有限公司 | 虚拟增强现实设备及其控制方法、系统、计算机存储介质 |
JP2020052616A (ja) * | 2018-09-26 | 2020-04-02 | 株式会社不動テトラ | 地盤改良工事の合成画像表示方法 |
JP6961157B1 (ja) * | 2021-05-25 | 2021-11-05 | 株式会社x garden | 情報処理システム、情報処理方法及びプログラム |
KR20220161855A (ko) * | 2021-05-31 | 2022-12-07 | 주식회사 쓰리아이 | 가상 실내공간 컨텐츠 생성을 위한 모바일 단말 및 그 모바일 단말의 제어 방법 |
KR20220161856A (ko) * | 2021-05-31 | 2022-12-07 | 주식회사 쓰리아이 | 가상 실내공간 컨텐츠 제공 방법 및 그를 위한 서버 |
WO2022255546A1 (ko) * | 2021-05-31 | 2022-12-08 | 주식회사 쓰리아이 | 가상 실내공간 컨텐츠 제공 방법 및 그를 위한 서버 |
WO2023248619A1 (ja) * | 2022-06-21 | 2023-12-28 | 株式会社Nttドコモ | 端末装置及びオブジェクト管理サーバ |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000036061A (ja) * | 1998-07-17 | 2000-02-02 | Toshiba Corp | 画像処理システム |
JP2002092647A (ja) * | 2000-09-19 | 2002-03-29 | Olympus Optical Co Ltd | 情報呈示システム及びモデル誤差検出システム |
JP2003132374A (ja) * | 2001-10-26 | 2003-05-09 | Canon Inc | 画像表示装置及びその方法並びに記憶媒体 |
JP2003141569A (ja) * | 2001-10-31 | 2003-05-16 | Canon Inc | 情報処理方法および映像合成装置 |
JP2004302756A (ja) * | 2003-03-31 | 2004-10-28 | Hitachi Plant Eng & Constr Co Ltd | Cad施工図検図方法及びその装置 |
JP2005227876A (ja) * | 2004-02-10 | 2005-08-25 | Canon Inc | 画像処理方法、画像処理装置 |
JP2007228315A (ja) * | 2006-02-24 | 2007-09-06 | Mitsubishi Heavy Ind Ltd | 建屋内における構造物の建設工事及び点検支援装置 |
US20080071559A1 (en) * | 2006-09-19 | 2008-03-20 | Juha Arrasvuori | Augmented reality assisted shopping |
-
2012
- 2012-06-20 JP JP2012138747A patent/JP5915996B2/ja active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000036061A (ja) * | 1998-07-17 | 2000-02-02 | Toshiba Corp | 画像処理システム |
JP2002092647A (ja) * | 2000-09-19 | 2002-03-29 | Olympus Optical Co Ltd | 情報呈示システム及びモデル誤差検出システム |
JP2003132374A (ja) * | 2001-10-26 | 2003-05-09 | Canon Inc | 画像表示装置及びその方法並びに記憶媒体 |
JP2003141569A (ja) * | 2001-10-31 | 2003-05-16 | Canon Inc | 情報処理方法および映像合成装置 |
JP2004302756A (ja) * | 2003-03-31 | 2004-10-28 | Hitachi Plant Eng & Constr Co Ltd | Cad施工図検図方法及びその装置 |
JP2005227876A (ja) * | 2004-02-10 | 2005-08-25 | Canon Inc | 画像処理方法、画像処理装置 |
JP2007228315A (ja) * | 2006-02-24 | 2007-09-06 | Mitsubishi Heavy Ind Ltd | 建屋内における構造物の建設工事及び点検支援装置 |
US20080071559A1 (en) * | 2006-09-19 | 2008-03-20 | Juha Arrasvuori | Augmented reality assisted shopping |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016038867A (ja) * | 2014-08-11 | 2016-03-22 | 株式会社大林組 | 配置計画支援システム、配置計画支援方法及び配置計画支援プログラム |
JP2019027855A (ja) * | 2017-07-27 | 2019-02-21 | 株式会社大林組 | 検査処理システム、検査処理方法及び検査処理プログラム |
US11094120B2 (en) | 2017-07-27 | 2021-08-17 | Obayashi Corporation | Inspection processing system, inspection processing method, and inspection processing program |
JP6992329B2 (ja) | 2017-08-30 | 2022-01-13 | 中国電力株式会社 | 鉄筋位置確認システム |
JP2019045962A (ja) * | 2017-08-30 | 2019-03-22 | 中国電力株式会社 | 鉄筋位置確認システム |
JP2020052616A (ja) * | 2018-09-26 | 2020-04-02 | 株式会社不動テトラ | 地盤改良工事の合成画像表示方法 |
CN109656362B (zh) * | 2018-12-14 | 2022-02-18 | 歌尔光学科技有限公司 | 虚拟增强现实设备及其控制方法、系统、计算机存储介质 |
CN109656362A (zh) * | 2018-12-14 | 2019-04-19 | 歌尔科技有限公司 | 虚拟增强现实设备及其控制方法、系统、计算机存储介质 |
JP6961157B1 (ja) * | 2021-05-25 | 2021-11-05 | 株式会社x garden | 情報処理システム、情報処理方法及びプログラム |
JP2022181131A (ja) * | 2021-05-25 | 2022-12-07 | 株式会社x garden | 情報処理システム、情報処理方法及びプログラム |
KR20220161855A (ko) * | 2021-05-31 | 2022-12-07 | 주식회사 쓰리아이 | 가상 실내공간 컨텐츠 생성을 위한 모바일 단말 및 그 모바일 단말의 제어 방법 |
KR20220161856A (ko) * | 2021-05-31 | 2022-12-07 | 주식회사 쓰리아이 | 가상 실내공간 컨텐츠 제공 방법 및 그를 위한 서버 |
WO2022255546A1 (ko) * | 2021-05-31 | 2022-12-08 | 주식회사 쓰리아이 | 가상 실내공간 컨텐츠 제공 방법 및 그를 위한 서버 |
KR102575503B1 (ko) * | 2021-05-31 | 2023-09-06 | 주식회사 쓰리아이 | 가상 실내공간 컨텐츠 생성을 위한 모바일 단말 및 그 모바일 단말의 제어 방법 |
KR102600421B1 (ko) * | 2021-05-31 | 2023-11-09 | 주식회사 쓰리아이 | 가상 실내공간 컨텐츠 제공 방법 및 그를 위한 서버 |
WO2023248619A1 (ja) * | 2022-06-21 | 2023-12-28 | 株式会社Nttドコモ | 端末装置及びオブジェクト管理サーバ |
Also Published As
Publication number | Publication date |
---|---|
JP5915996B2 (ja) | 2016-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5915996B2 (ja) | 合成画像表示システム及びその方法 | |
JP5211120B2 (ja) | 情報表示装置及び情報表示方法 | |
JP6348741B2 (ja) | 情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法 | |
CN107330978B (zh) | 基于位置映射的增强现实建模体验系统及方法 | |
WO2011010533A1 (ja) | 情報処理装置、および情報処理方法、並びにプログラム | |
US20140267234A1 (en) | Generation and Sharing Coordinate System Between Users on Mobile | |
JP4926826B2 (ja) | 情報処理方法および情報処理装置 | |
JP6230113B2 (ja) | 撮影動画像に指示画像を同期して重畳する映像指示同期方法、システム、端末、及びプログラム | |
CN104899920A (zh) | 图像处理方法、图像处理装置及电子设备 | |
WO2017043145A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP7428843B2 (ja) | 情報端末装置および位置認識方法 | |
JP2019153274A (ja) | 位置算出装置、位置算出プログラム、位置算出方法、及びコンテンツ付加システム | |
WO2021138940A1 (zh) | 面向增强和混合现实的远程虚实高精度匹配定位的方法 | |
JP6730577B2 (ja) | 情報処理装置、情報処理システム、その制御方法及びプログラム | |
JP7366618B2 (ja) | 現場連携システムおよび管理装置 | |
CN110599432A (zh) | 影像处理系统及影像处理方法 | |
CN108090212B (zh) | 兴趣点的展示方法、装置、设备及存储介质 | |
JP7334460B2 (ja) | 作業支援装置及び作業支援方法 | |
JP6146869B2 (ja) | 撮影動画像に指示画像を同期して重畳する映像指示表示方法、システム、端末、及びプログラム | |
CN115731349A (zh) | 户型图的展示方法、装置、电子设备及存储介质 | |
TW202001805A (zh) | 影像處理系統及影像處理方法 | |
JP7398227B2 (ja) | 作業支援システム及びプログラム | |
KR102512560B1 (ko) | 3d 투어 비교 표시 시스템 및 방법 | |
JP6737945B2 (ja) | 決定装置、画像処理装置及び決定プログラム | |
WO2021156977A1 (ja) | 空間認識システム、空間認識方法、情報端末、およびサーバ装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150128 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150918 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150929 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151215 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160209 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160301 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160329 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5915996 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |