JP6849634B2 - 端末装置および端末装置の制御方法 - Google Patents

端末装置および端末装置の制御方法 Download PDF

Info

Publication number
JP6849634B2
JP6849634B2 JP2018110476A JP2018110476A JP6849634B2 JP 6849634 B2 JP6849634 B2 JP 6849634B2 JP 2018110476 A JP2018110476 A JP 2018110476A JP 2018110476 A JP2018110476 A JP 2018110476A JP 6849634 B2 JP6849634 B2 JP 6849634B2
Authority
JP
Japan
Prior art keywords
terminal device
position information
captured image
orientation
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018110476A
Other languages
English (en)
Other versions
JP2019212225A (ja
Inventor
正孝 白井
正孝 白井
篤司 織田
篤司 織田
圭一 勝部
圭一 勝部
潤一 高貫
潤一 高貫
孝彦 縄田
孝彦 縄田
秀作 三王
秀作 三王
Original Assignee
朝日航洋株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 朝日航洋株式会社 filed Critical 朝日航洋株式会社
Priority to JP2018110476A priority Critical patent/JP6849634B2/ja
Publication of JP2019212225A publication Critical patent/JP2019212225A/ja
Application granted granted Critical
Publication of JP6849634B2 publication Critical patent/JP6849634B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本開示は、端末装置に関し、例えば道路に配置される不可視物の設備情報の表示に関する。
近年、実空間に付加的な情報を重畳してユーザに提示する拡張現実(AR:Augmented Reality)と呼ばれる技術が注目されている。AR技術においてユーザに提示される情報は、テキストや、アイコン、アニメーション等の様々な形態の仮想オブジェクトとして可視化される(特許文献1参照)。
また、仮想オブジェクトは、例えば、道路下の不可視物である地下埋設物を直観的に確認する方式としても利用されている(特許文献2,3)。
特開2015−228050号公報 特開2015−114823号公報 特開2017−73139号公報
一方で、仮想オブジェクトを現実空間の画像と重畳表示する場合において、その位置合わせの精度が低ければ、適切な情報をユーザに提示することができない。
本開示は、上記の問題点を解決するためになされたものであり、簡易な方式で仮想オブジェクトを適切な位置に配置して精度の高い情報をユーザに提示することが可能な端末装置および端末装置の制御方法を提供することを目的とする。
ある局面に従う端末装置であって、撮像部と、撮像部で撮影された撮影画像を表示することが可能な表示部と、端末装置の位置情報を取得する位置情報取得部と、位置情報取得部で取得した位置情報に基づいて3次元点群データを撮影画像に重畳して表示する第1合成部と、3次元点群データと撮影画像とに基づいて端末装置の方位を設定する方位設定部と、位置情報取得部で取得した位置情報および方位設定部で設定された方位に基づいて不可視物の設備情報である仮想オブジェクトを撮影画像に重畳して表示する第2合成部とを備える。
好ましくは、位置情報取得部は、2次元マップに対する指示に従って端末装置の緯度、経度および高さ情報を含む位置情報を取得する。
好ましくは、高さ情報を調整する調整手段をさらに備える。
好ましくは、方位設定部は、ユーザの操作指示に従って端末装置の方位を設定する。
ある局面に従う端末装置の制御方法であって、撮影画像を撮像するステップと、撮像部で撮影された撮影画像を表示するステップと、端末装置の位置情報を取得するステップと、取得した位置情報に基づいて3次元点群データを撮影画像に重畳して第1合成画像を表示するステップと、3次元点群データと撮影画像とに基づいて端末装置の方位を設定するステップと、取得した位置情報および設定した方位に基づいて不可視物の設備情報である仮想オブジェクトを撮影画像に重畳して第2合成画像を表示するステップとを備える。
本開示の端末装置および端末装置の制御方法は、簡易な方式で仮想オブジェクトを適切な位置に配置して精度の高い情報をユーザに提示することが可能である。
実施形態に従う端末装置100の外観構成を説明する図である。 実施形態に従う端末装置100のハードウェアの構成を説明する機能ブロック図である。 実施形態に従う端末装置100の機能ブロックを説明する図である。 実施形態に従う端末装置100のディスプレイ4に表示された画面200を説明する図である。 実施形態に従う端末装置100のディスプレイ4に表示された画面210を説明する図である。 実施形態に従う端末装置100のディスプレイ4に表示された画面220を説明する図である。 実施形態に従う端末装置100のディスプレイ4に表示された画面230を説明する図である。 実施形態に従う端末装置100のディスプレイ4に表示された画面240を説明する図である。 実施形態に従う端末装置100の処理を説明するフロー図である。 実施形態の変形例に従う端末装置100のディスプレイ4に表示された画面250を説明する図である。 実施形態の変形例2に従う端末装置100のディスプレイ4に表示された画面260を説明する図である。
実施形態について図面を参照しながら詳細に説明する。なお、図中同一または相当部分には同一符号を付し、その説明は繰り返さない。
図1は、実施形態に従う端末装置100の外観構成を説明する図である。
図1を参照して、端末装置100は、ディスプレイ4が表面に設けられている。ディスプレイ4の表面にはユーザの操作手段としてタッチパネルが設けられている。
端末装置100は、ディスプレイ4の背面にカメラ14が設けられている。
ディスプレイ4は、カメラ14により撮影した実空間の撮影画像を表示することが可能である。
図2は、実施形態に従う端末装置100のハードウェアの構成を説明する機能ブロック図である。
図2を参照して、端末装置100は、CPU(Central Processing Unit)2と、ディスプレイ(表示部)4と、GNSS(Global Navigation Satellite System)6と、通信I/F8と、メモリ10と、方位センサ12と、カメラ14と、操作部16と、内部バス5とを含む。各部は内部バス5と接続され、互いにデータの授受が可能なように構成されている。
CPU2は、端末装置100全体を制御する。
CPU2は、メモリ10に格納されているプログラムを実行することにより種々の機能ブロックを実現する。
ディスプレイ4は、カメラ14により撮影した撮影画像や他の情報等を表示する。
GNSS6は、GPS衛星から発せられるGPS信号を受信し、緯度、経度、高度等に関する位置情報をCPU2に出力する。
通信I/F8は、外部の装置(例えばサーバ)との間で通信ネットワークを介して情報の授受を実行する。
メモリ10は、コンピュータに内蔵されるROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスクなどの記憶装置である。
方位センサ12は、端末装置100の方位を計測するセンサである。例えば、方位センサとして地磁気センサあるいは加速度センサを用いることが可能である。
操作部16は、たとえばディスプレイ4の表面に載置されたタッチパネルである。なお、キーボードやマウス等で構成されても良い。
図3は、実施形態に従う端末装置100の機能ブロックを説明する図である。
図3を参照して、端末装置100は、CPU2および他のハードウェアと協働して種々の機能ブロックを実現する。
具体的には、端末装置100は、位置情報取得部22と、設備情報取得部23と、仮想オブジェクト合成部25と、方位設定部26と、点群データ合成部27と、撮影画像取得部28とを含む。
位置情報取得部22は、端末装置100の位置情報(緯度、経度、高度)を取得する。
設備情報取得部23は、不可視物の設備情報を取得する。例えば、設備情報は、位置情報と関連付けられた道路上に設置予定のポール情報を含む。当該情報は、メモリ10に予め格納されている情報であり、仮想オブジェクトとしてディスプレイ4に表示するためのデータである。
仮想オブジェクト合成部25は、撮影画像に対して設備情報の仮想オブジェクトを合成する。具体的には、設備情報取得部23で取得した設備情報に対して位置情報および方位情報に基づいて設備情報の仮想オブジェクトを撮影画像に対して合成する。
方位設定部26は、端末装置100の方位を設定する。
点群データ合成部27は、撮影画像に対して点群データを合成する。具体的には、位置情報および方位情報に基づいて点群データを撮影画像に対して合成する。点群データは、メモリ10に予め格納されている情報である。点群データは、レーザスキャナ等を用いて端末装置100の周辺対象物に対して予め計測された3次元データである。
撮影画像取得部28は、カメラ14を用いて撮影画像を取得する。
図4は、実施形態に従う端末装置100のディスプレイ4に表示された画面200を説明する図である。
図4を参照して、一例として、画面200には、2次元マップ画像が表示されている場合が示されている。
ユーザは、所定の操作指示(方向指示、拡大指示、縮小指示)を実行することにより画面200の2次元マップ画像の地図情報を変更することが可能である。
ユーザは、地図情報を変更して所持している端末装置100の位置(ユーザ位置)が「+」記号202の位置と重なるように調整する。
ユーザは、位置調整した後、画面200に設けられた「位置取得」ボタン204を操作する。位置情報取得部22は、画面200に設けられた「位置取得」ボタン204の選択指示に従って、当該2次元マップ画像に対する端末装置100の位置情報(緯度、経度、高度)を取得する。なお、高度に関しては、2次元マップ画像の緯度および経度で特定される地点に対して地表面の高度データが関連付けられているものとする。なお、高度として、地表面の高度データに限られず地表面の高度データに対して所定値(例えば1m)を加算した値を高度データとして関連付けておいても良い。
また、画面200に設けられた「3Dビューへ」206ボタンを操作した場合には、ディスプレイ4に2次元マップ画像を表示するのではなく、3次元のマップ画像の表示に切り替えることが可能である。
図5は、実施形態に従う端末装置100のディスプレイ4に表示された画面210を説明する図である。
図5を参照して、一例として、画面210には、カメラ14で撮影した撮影画像が表示されている。当該撮影画像は、画面200の「+」記号202の位置に対応する場所においてカメラ14で撮影した画像である。
画面210には、「地図を見る」ボタン212と、「点群データ表示」ボタン214とが設けられている。
ユーザが、画面210に設けられた「地図を見る」ボタン212を操作した場合には、図4で説明した画面200に切り替わり、2次元マップ画像を表示することが可能である。そして、図4で説明したようにユーザは、地図情報を変更して所持している端末装置100の位置(ユーザ位置)が「+」記号202の位置と重なるように再調整することが可能である。
また、ユーザが、画面210に設けられた「点群データ表示」ボタン214を操作した場合には、点群データが合成表示される。一方、再度、画面210に設けられた「点群データ表示」ボタン214を操作した場合には、点群データの合成表示が解除される。すなわち、撮影画像のみが表示される。
図6は、実施形態に従う端末装置100のディスプレイ4に表示された画面220を説明する図である。
図6を参照して、一例として、画面220には、カメラ14で撮影した撮影画像に対して点群データが合成表示されている。
具体的には、点群データ合成部27は、位置情報取得部22で取得した位置情報および方位センサ12で取得された方位情報に基づいて点群データを撮影画像に対して合成表示する。
また、画面220には、「センサーロック」ボタン218および「オブジェクトデータ表示」ボタン216が設けられている。
ここで、ユーザが「センサーロック」ボタン218を操作した場合には、当該方位の値が固定(設定)される。
ユーザは、点群データと撮影画像とのマッチングが取れる方位で「センサーロック」ボタン218を操作する。これにより、方位設定部26は、操作指示されたマッチングが取れた方位を固定(設定)する。
当該操作により、方位センサ12の値の揺れによる点群データの表示の揺れを抑制することが可能である。
また、「センサーロック」ボタン218を再び操作した場合には、方位センサ12の値の固定が解除される。したがって、ユーザが別の位置に移動して再び方位を固定したい場合には、「センサーロック」ボタン218を再び操作して方位の固定を解除することが可能である。
そして、ユーザは、「オブジェクトデータ表示」ボタン216を操作する。ユーザが「オブジェクトデータ表示」ボタン216を操作した場合には、仮想オブジェクト画像が合成表示される。仮想オブジェクト画像を合成表示する際において設定された方位情報が参照される。
図7は、実施形態に従う端末装置100のディスプレイ4に表示された画面230を説明する図である。
図7を参照して、一例として画面230には、撮影画像に対して点群データとともに仮想オブジェクトが合成されて表示されている場合が示されている。
具体的には、仮想オブジェクト合成部25は、位置情報取得部22で取得した位置情報および方位設定部26で設定された方位情報に基づいて仮想オブジェクトを撮影画像に対して合成表示する。
ここでは、仮想オブジェクトとして、道路上に設置予定のポールが表示されている場合が示されている。
当該表示により、撮影画像に対して点群データとともに、仮想オブジェクトが表示される。
図8は、実施形態に従う端末装置100のディスプレイ4に表示された画面240を説明する図である。
図8を参照して、一例として、画面240には、撮影画像に対して仮想オブジェクトが合成されて表示されている場合が示されている。
ここで、ユーザは、画面230に設けられた「点群データ表示」ボタン214を再操作した場合が示されている。当該操作に従い、撮影画像に対する点群データの合成表示が解除される。
したがって、撮影画像に対して仮想オブジェクトのみが合成表示された状態となる。
当該表示により、撮影画像に対する仮想オブジェクトのみを適切な位置に配置した状態をユーザは容易に確認することが可能である。
一般的に方位センサは、地磁気あるいは加速度等を検知して方位を検出する。しかしながら、外乱の影響により地磁気や加速度の検知結果に基づく方位情報にばらつきが生じる。
実施形態に従う方式は、撮影画像と点群データとを合成表示させて、マッチングが取れる位置で方位情報を固定することにより精度の高い方位情報を取得する。そして、取得した方位情報に基づいて仮想オブジェクトを合成表示することにより仮想オブジェクトを適切な位置に配置することが可能である。これにより、ユーザに対して精度の高い情報を提示することが可能である。
また、点群データは、端末装置100の周辺対象物に対して計測された3次元データである。したがって、撮影画像とのマッチングを容易に取ることが可能である。
したがって、ユーザは、「センサーロック」ボタン218を選択することにより簡易な方式で精度の高い方位情報を設定することが可能である。
図9は、実施形態に従う端末装置100の処理を説明するフロー図である。
図9を参照して、端末装置100は、位置情報を取得する(ステップS2)。具体的には、位置情報取得部22は、ユーザの操作指示に従って端末装置100の位置情報を取得する。ユーザは、図4で説明したように画面200において、端末装置100の位置(ユーザ位置)が「+」記号202の位置と重なるように調整する。そして、ユーザが「位置取得」ボタン204を操作することにより位置情報が取得される。なお、本例においては、ユーザが、2次元マップ画像から直接位置を調整して位置情報を取得する方式について説明したが、特に当該方式に限られずGNSS6を利用して位置情報を自動的に取得することも可能である。
次に、端末装置100は撮影画像を取得する(ステップS4)。端末装置100は、撮影画像取得部28は、カメラ14により撮影画像を取得する。
次に、端末装置100は、点群データを撮影画像に対して合成表示する(ステップS8)。具体的には、点群データ合成部27は、メモリに予め格納されている点群データを位置情報および方位情報に基づいて撮影画像に対して合成表示する。
次に、端末装置100は、方位を設定する(ステップS10)。具体的には、方位設定部26は、ユーザの操作指示に従って端末装置100の方位を設定する。ユーザは、図6で説明したように画面220において、撮影画像と点群データとのマッチングが取れる方位に調整する。そして、ユーザが「センサーロック」ボタン218を操作することにより方位が固定される。
次に、端末装置100は、仮想オブジェクトを取得する(ステップS12)。具体的には、設備情報取得部23は、位置情報に基づいて不可視物の設備情報を取得する。
次に、端末装置100は、取得した仮想オブジェクトを撮影画像に対して合成表示する(ステップS14)。具体的には、仮想オブジェクト合成部25は、撮影画像に対して設備情報の仮想オブジェクトを合成する。すなわち、仮想オブジェクト合成部25は、設備情報取得部23で取得した設備情報に対して位置情報および方位情報に基づいて設備情報の仮想オブジェクトを撮影画像に対して合成する。
そして、処理を終了する(エンド)。
当該処理により、簡易な方式で方位情報を設定することが可能であり、設定した方位情報に基づいて仮想オブジェクトを合成表示することにより仮想オブジェクトを適切な位置に配置することが可能である。これにより、ユーザに対して精度の高い情報を提示することが可能である。
(変形例)
図10は、実施形態の変形例に従う端末装置100のディスプレイ4に表示された画面250を説明する図である。
図10を参照して、一例として、画面250には、撮影画像に対して仮想オブジェクトが合成されて表示されている場合が示されている。
また、画面250には、高度の値を調整可能な入力ボックス252と、入力ボックス252に入力された高度の値に再設定するための高度再設定ボタン254とが設けられている。
ユーザは、入力ボックス252に任意の高度の値を入力可能であるものとする。
ユーザは、高度再設定ボタン254を操作することにより当該高度の値に基づいて仮想オブジェクトの配置を微調整することが可能である。
ユーザの身長や利用の仕方により端末装置100の高度は変化する。
したがって、高度を固定値に設定するのではなく、調整可能とすることにより、仮想オブジェクトを適切な位置に配置することが可能である。これにより、ユーザに対して精度の高い情報を提示することが可能である。
また、本例においては、2次元マップ画像の緯度および経度で特定される地点に対して地表面の高度データが予め関連付けられている場合について説明したが、点群データは、高度データを有する。したがって、複数の点群データを用いて地表面の高度データを算出するようにしても良い。
また、上記において、方位設定部26は、ユーザが点群データと、撮影画像とを比較してマッチングが取れる位置で「センサーロック」ボタン218を操作することにより方位を設定する方式について説明した。しかしながら、当該方式によらず自動で方位を設定するようにしても良い。具体的には、点群データと、撮影画像とを画像処理により比較してマッチングが取れる位置の方位を設定するようにしても良い。
(変形例2)
図11は、実施形態の変形例2に従う端末装置100のディスプレイ4に表示された画面260を説明する図である。
図11を参照して、一例として、画面260には、設定画面274が表示されている場合が示されている。
設定画面274は、設定ボタン270の操作に従って表示される。
ここで、設定画面274は、fov(Field of View)値と、カメラの透過度、オブジェクトの透過度の3つのパラメータの調整が可能である。
fov値を調整することによりカメラの画角を調整することが可能である。本例においては、51.2°の画角に設定されている場合が示されている。カメラのレンズの種類に応じて撮影画像に対する画角が異なるため当該画角を調整することにより撮影画像と仮想オブジェクトとの位置ずれを調整することが可能である。
また、カメラあるいはオブジェクトの透過度を調整することにより輝度値を変化させることが可能である。これにより撮影画像あるいは仮想オブジェクトの輝度値を調整して仮想オブジェクトと撮影画像との間のコントラストを変化させることが可能である。すなわち、仮想オブジェクトあるいは撮影画像を強調表示してユーザの視認性を良くすることが可能である。
また、画面260には、方位補正ボタン272が設けられている。方位情報を調整するボタンである。ユーザは、端末装置100を固定している場合であっても方位補正ボタン272を操作することにより方位センサ12の値に対してオフセット値を加減算して微調整することが可能である。端末装置100を動かさずに微調整することが可能であり、ユーザの利便性が向上する。
なお、本例においては、不可視物の設備情報として、位置情報と関連付けられた道路上に設置予定のポール情報を例として説明した。一方、当該構成に限られずガス配管等の地下埋設物を仮想オブジェクトとして表示するようにすることも可能である。
また、本例においては、端末装置100のメモリ10に2次元マップ画像の情報が格納されている場合について説明したが、特にこれに限られず通信I/F8を介してアクセス可能なサーバに2次元マップ画像が格納されており、当該情報を用いて上記の処理を実行するようにしても良い。
また、設備情報および点群データについても端末装置100のメモリ10に格納されている場合について説明したが、特にこれに限られず通信I/F8を介してアクセス可能なサーバに設備情報および点群データが格納されており、当該情報を用いて上記の処理を実行するようにしても良い。
また、本実施形態におけるプログラムとして、パーソナルコンピュータで実行可能なアプリケーションを提供してもよい。このとき、本実施の形態に係るプログラムは、パーソナルコンピュータ上で実行される各種アプリケーションの一部の機能として組み込まれてもよい。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本開示の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
2 CPU、4 ディスプレイ、6 GNSS、8 通信I/F、10 メモリ、12 方位センサ、14 カメラ、16 操作部、22 位置情報取得部、23 設備情報取得部、25 仮想オブジェクト合成部、26 方位設定部、27 点群データ合成部、28 撮影画像取得部、100 端末装置。

Claims (5)

  1. 端末装置であって、
    撮像部と、
    前記撮像部で撮影された撮影画像を表示することが可能な表示部と、
    前記端末装置の位置情報を取得する位置情報取得部と、
    前記位置情報取得部で取得した位置情報に基づいて3次元点群データを前記撮影画像に重畳して表示する第1合成部と、
    前記3次元点群データと前記撮影画像とに基づいて前記端末装置の方位を設定する方位設定部と、
    前記位置情報取得部で取得した位置情報および前記方位設定部で設定された方位に基づいて不可視物の設備情報である仮想オブジェクトを前記撮影画像に重畳して表示する第2合成部とを備える、端末装置。
  2. 前記位置情報取得部は、2次元マップに対する指示に従って前記端末装置の緯度、経度および高さ情報を含む位置情報を取得する、請求項1記載の端末装置。
  3. 前記高さ情報を調整する調整手段をさらに備える、請求項2記載の端末装置。
  4. 前記方位設定部は、ユーザの操作指示に従って前記端末装置の方位を設定する、請求項1記載の端末装置。
  5. 端末装置の制御方法であって、
    撮影画像を撮像するステップと、
    前記端末装置の位置情報を取得するステップと、
    取得した位置情報に基づいて3次元点群データを前記撮影画像に重畳して第1合成画像を表示するステップと、
    前記3次元点群データと前記撮影画像とに基づいて前記端末装置の方位を設定するステップと、
    取得した位置情報および設定した方位に基づいて不可視物の設備情報である仮想オブジェクトを前記撮影画像に重畳して第2合成画像を表示するステップとを備える、端末装置の制御方法。
JP2018110476A 2018-06-08 2018-06-08 端末装置および端末装置の制御方法 Active JP6849634B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018110476A JP6849634B2 (ja) 2018-06-08 2018-06-08 端末装置および端末装置の制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018110476A JP6849634B2 (ja) 2018-06-08 2018-06-08 端末装置および端末装置の制御方法

Publications (2)

Publication Number Publication Date
JP2019212225A JP2019212225A (ja) 2019-12-12
JP6849634B2 true JP6849634B2 (ja) 2021-03-24

Family

ID=68846768

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018110476A Active JP6849634B2 (ja) 2018-06-08 2018-06-08 端末装置および端末装置の制御方法

Country Status (1)

Country Link
JP (1) JP6849634B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6884018B6 (ja) * 2017-03-30 2021-06-30 株式会社パスコ 道路施設管理支援装置及び道路施設管理支援プログラム
JP7277410B2 (ja) * 2020-03-30 2023-05-18 東邦ガスネットワーク株式会社 拡張現実表示装置
CN111767490B (zh) * 2020-06-30 2024-04-23 北京百度网讯科技有限公司 用于展示图像的方法、装置、设备以及存储介质
JP7492160B2 (ja) * 2020-10-27 2024-05-29 日本電信電話株式会社 表示装置、表示方法及びプログラム
EP4310787A1 (en) * 2021-03-16 2024-01-24 Pioneer Corporation Information processing device, information processing method, and program
JP6967816B1 (ja) * 2021-05-07 2021-11-17 シンメトリー・ディメンションズ・インク 情報処理装置、及び、情報処理方法
JP2023109072A (ja) * 2022-01-26 2023-08-07 パナソニックホールディングス株式会社 交通流計測システムおよび交通流計測方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8483442B2 (en) * 2007-02-16 2013-07-09 Mitsubishi Electric Corporation Measurement apparatus, measurement method, and feature identification apparatus
JP6033209B2 (ja) * 2013-12-11 2016-11-30 三菱電機株式会社 携帯用端末装置
WO2017163384A1 (ja) * 2016-03-24 2017-09-28 三菱電機株式会社 データ処理装置、データ処理方法及びデータ処理プログラム
JP6230678B2 (ja) * 2016-10-25 2017-11-15 三菱電機株式会社 端末装置、端末装置用プログラム、および不可視物の変位状態可視化方法
US10546427B2 (en) * 2017-02-15 2020-01-28 Faro Technologies, Inc System and method of generating virtual reality data from a three-dimensional point cloud
JP6884018B6 (ja) * 2017-03-30 2021-06-30 株式会社パスコ 道路施設管理支援装置及び道路施設管理支援プログラム
JP2019021034A (ja) * 2017-07-18 2019-02-07 パイオニア株式会社 表示装置
JP7003594B2 (ja) * 2017-11-20 2022-01-20 三菱電機株式会社 3次元点群表示装置、3次元点群表示システム、3次元点群表示方法および3次元点群表示プログラム、記録媒体

Also Published As

Publication number Publication date
JP2019212225A (ja) 2019-12-12

Similar Documents

Publication Publication Date Title
JP6849634B2 (ja) 端末装置および端末装置の制御方法
US10366511B2 (en) Method and system for image georegistration
EP3149698B1 (en) Method and system for image georegistration
CN107402000B (zh) 用于将显示装置相对于测量仪器相互关联的方法和系统
KR101285360B1 (ko) 증강현실을 이용한 관심 지점 표시 장치 및 방법
JP6077068B1 (ja) 拡張現実システム、および拡張現実方法
US9124867B2 (en) Apparatus and method for displaying images
EP2904544B1 (en) Enhanced bundle adjustment techniques
CN105339758B (zh) 使用重叠区域优化光束法平差的系统、方法和设备
KR100941749B1 (ko) 증강 현실 장치 및 가상 이미지 합성 방법
US11272153B2 (en) Information processing apparatus, method for controlling the same, and recording medium
US20130088514A1 (en) Mobile electronic device, method and webpage for visualizing location-based augmented reality content
JP2006105640A (ja) ナビゲーション装置
KR101011813B1 (ko) 인접된 항공사진들 간의 중첩지역 표시장치
US20210217210A1 (en) Augmented reality system and method of displaying an augmented reality image
JP2019526182A (ja) 陸上車両用光電子視認装置
KR20110070210A (ko) 위치 감지 센서와 방향 감지 센서를 이용하여 증강현실 서비스를 제공하기 위한 이동단말기 및 방법
JP4922436B2 (ja) オブジェクト表示装置及びオブジェクト表示方法
KR101902131B1 (ko) 시뮬레이션 파노라마 실내영상 제작 시스템
KR101877901B1 (ko) Vr영상을 제공하는 방법 및 그 전자 장치
KR20150094338A (ko) 단말장치의 위치 및 자세정보를 이용한 증강현실 서비스 시스템 및 방법
JP4135934B2 (ja) 電子機器
US20190304151A1 (en) Control device, electronic device, control method, and control program
JP5279083B2 (ja) 情報端末装置
JP2023062983A (ja) 仮想鉄塔表示システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210304

R150 Certificate of patent or registration of utility model

Ref document number: 6849634

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250