JP2016170060A - Facility information display system, mobile terminal, server and facility information display method - Google Patents
Facility information display system, mobile terminal, server and facility information display method Download PDFInfo
- Publication number
- JP2016170060A JP2016170060A JP2015050219A JP2015050219A JP2016170060A JP 2016170060 A JP2016170060 A JP 2016170060A JP 2015050219 A JP2015050219 A JP 2015050219A JP 2015050219 A JP2015050219 A JP 2015050219A JP 2016170060 A JP2016170060 A JP 2016170060A
- Authority
- JP
- Japan
- Prior art keywords
- mobile terminal
- self
- image
- server
- facility information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Navigation (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
この発明は、モバイル端末での拡張現実による表示を用いて、プラント設備や公共施設における設備・装置の維持管理を行う設備情報表示システム、モバイル端末、サーバおよび設備情報表示方法に関するものである。 The present invention relates to an equipment information display system, a mobile terminal, a server, and an equipment information display method for performing maintenance management of equipment and devices in plant facilities and public facilities using display based on augmented reality on a mobile terminal.
拡張現実AR(Augmented Reality)の技術を用いて、現実空間の動画像上に仮想画像をずれなく重畳表示するためには、自己位置と画角を高精度に推定する必要があるが、GPS単独では最大10メートル程度の誤差があり、必要な自己位置精度を確保できない。
このため、移動体に搭載したカメラの実画像から抽出した特徴部(特徴情報)と、付近で撮影された複数の実画像の中から抽出した特徴部(特徴情報)とをマッチングする手法が開示されている。(たとえば、特許文献1)
In order to superimpose and display the virtual image on the moving image in the real space using the augmented reality AR (Augmented Reality) technique, it is necessary to estimate the self-position and the angle of view with high accuracy. However, there is an error of about 10 meters at the maximum, and the required self-position accuracy cannot be ensured.
For this reason, a technique for matching a feature portion (feature information) extracted from a real image of a camera mounted on a moving body and a feature portion (feature information) extracted from a plurality of real images photographed in the vicinity is disclosed. Has been. (For example, Patent Document 1)
従来の自己位置推定方式は、以上のように構成されているので、近辺で撮影された実画像は特徴点を抽出するために十分な光量のもとで撮影したものでなければならず、特徴点抽出に適さない画像を用いた場合に、特徴点不足や誤った特徴点抽出を行い、自己位置を正しく推定できない問題点があった。 Since the conventional self-position estimation method is configured as described above, the actual image taken in the vicinity must be taken with a sufficient amount of light to extract feature points. When an image that is not suitable for point extraction is used, there is a problem that feature points are insufficient or incorrect feature points are extracted, and the self-position cannot be estimated correctly.
この発明は、上述のような課題を解決するためになされたものであり、モバイル端末での拡張現実を用いて、現実空間の映像に設備情報を重畳表示するための自己位置の推定を高精度に行う設備情報表示システム、モバイル端末、サーバおよび設備情報表示方法を得ることを目的とする。 The present invention has been made to solve the above-described problems, and uses the augmented reality on a mobile terminal to accurately estimate the self-position for superimposing and displaying the facility information on the video in the real space. The object is to obtain an equipment information display system, a mobile terminal, a server, and an equipment information display method.
この発明に係わる設備情報表示システムにおいては、設備情報を記憶した設備情報データベースと、MMS(Moble Mapping System)で計測された所定範囲の3次元座標データを記憶した3次元座標データベースとを有するサーバ、およびこのサーバからの情報を用いて、設備の実画像上に設備情報の3次元画像を重畳表示するモバイル端末を備え、モバイル端末は、モバイル端末周辺の実画像を撮影するカメラと、カメラによって撮影された現在の実画像をオルソ補正したものと、サーバから取得した3次元座標データとについて、それぞれ特徴点を抽出し、この抽出した特徴点同士をマッチングすることによりモバイル端末の自己位置を推定する自己位置推定部と、加速度および角速度を含む各種センサ情報に基づき、モバイル端末の移動量を推定する移動量推定部と、推定された移動量により更新された自己位置に基づき、カメラによって撮影された設備の実画像上に、サーバから取得した当該設備情報の3次元画像を重畳表示するAR表示部とを有するものである。 In the facility information display system according to the present invention, a server having a facility information database storing facility information, and a 3D coordinate database storing 3D coordinate data of a predetermined range measured by MMS (Mobile Mapping System), And a mobile terminal that superimposes and displays a three-dimensional image of the equipment information on the real image of the equipment using information from the server, and the mobile terminal takes a picture of the real image around the mobile terminal and the camera. A feature point is extracted for each of the orthorectified current actual image and the three-dimensional coordinate data acquired from the server, and the self-position of the mobile terminal is estimated by matching the extracted feature points. Based on self-position estimation unit and various sensor information including acceleration and angular velocity Based on the movement amount estimation unit for estimating the movement amount of the mobile terminal and the self-position updated by the estimated movement amount, 3 of the facility information acquired from the server on the actual image of the facility photographed by the camera And an AR display unit that superimposes and displays a three-dimensional image.
この発明によれば、設備情報を記憶した設備情報データベースと、MMSで計測された所定範囲の3次元座標データを記憶した3次元座標データベースとを有するサーバ、およびこのサーバからの情報を用いて、設備の実画像上に設備情報の3次元画像を重畳表示するモバイル端末を備え、モバイル端末は、モバイル端末周辺の実画像を撮影するカメラと、カメラによって撮影された現在の実画像をオルソ補正したものと、サーバから取得した3次元座標データとについて、それぞれ特徴点を抽出し、この抽出した特徴点同士をマッチングすることによりモバイル端末の自己位置を推定する自己位置推定部と、加速度および角速度を含む各種センサ情報に基づき、モバイル端末の移動量を推定する移動量推定部と、推定された移動量により更新された自己位置に基づき、カメラによって撮影された設備の実画像上に、サーバから取得した当該設備情報の3次元画像を重畳表示するAR表示部とを有するので、重畳表示のための自己位置の推定に当たり、MMSで取得した3次元座標データから特徴点を抽出するため、処理がし易く、かつ抽出精度が上がり、高精度に自己位置を推定することができる。 According to this invention, using a server having a facility information database storing facility information, a 3D coordinate database storing 3D coordinate data of a predetermined range measured by MMS, and information from this server, A mobile terminal that superimposes and displays a three-dimensional image of equipment information on the real image of the equipment is provided. The mobile terminal orthorectifies the current real image captured by the camera and a camera that captures the real image around the mobile terminal. And a three-dimensional coordinate data acquired from the server, respectively, extracting a feature point, and matching the extracted feature points with each other, a self-position estimation unit that estimates the self-position of the mobile terminal, and an acceleration and an angular velocity Based on the various sensor information included, the movement amount estimation unit that estimates the movement amount of the mobile terminal and the estimated movement amount Since it has an AR display unit that superimposes and displays a three-dimensional image of the equipment information acquired from the server on the actual image of the equipment photographed by the camera based on the self position, In the estimation, feature points are extracted from the three-dimensional coordinate data acquired by MMS. Therefore, the processing is easy, the extraction accuracy is improved, and the self-position can be estimated with high accuracy.
実施の形態1.
以下、この発明の実施の形態1を図に基づいて説明する。
図1は、この発明の実施の形態1による設備情報表示システムを示すブロック図である。
図1において、設備情報表示システムは、モバイル端末100とサーバ200により構成される。
モバイル端末100は、次のように構成されている。
ジャイロ(角速度)センサ110は、モバイル端末100の姿勢変化を計測する。加速度センサ120は、モバイル端末100の加速度を計測する。電子コンパス130は、モバイル端末100の方位を計測する。カメラ140は、モバイル端末100の周辺の実画像(動画像)を撮影する。GPS150は、誤差10メートル程度の精度のモバイル端末100の位置情報を取得する。
AR表示部160は、拡張現実の技術を用いて、カメラ140により撮影された設備の動画像上に設備情報の3次元画像(コンピュータグラフィックス画像データ)を重畳表示する。自己位置情報170は、モバイル端末100の現在の自己位置・姿勢情報を保持する。移動量推定部180は、各種センサからの情報をもとにモバイル端末100の移動量を推定する。自己位置推定部190は、GPS150の情報、カメラ140の静止画像および後述する3次元地図情報を用いて、モバイル端末100の現在位置を推定する初期位置合わせを行う。
Embodiment 1 FIG.
Embodiment 1 of the present invention will be described below with reference to the drawings.
FIG. 1 is a block diagram showing an equipment information display system according to Embodiment 1 of the present invention.
In FIG. 1, the facility information display system includes a
The
The gyro (angular velocity)
The
この初期位置合わせの結果の現在の位置情報、姿勢情報は、自己位置情報170に保持され、この現在の位置情報、姿勢情報は、移動量推定部180の移動量に基づき、更新されるようになっている。
更新された自己位置情報170の現在の位置情報、姿勢情報は、AR表示部160における重畳表示に用いられる。すなわち、重畳表示に当たっては、どの画角で、どの範囲の映像かの情報が必要で、モバイル端末100側からの見え方も考慮して実行される。
The current position information and posture information as a result of the initial alignment are held in the self-
The current position information and posture information of the updated self-
サーバ200は、次のように構成されている。
設備情報DB(データベース)210は、AR表示対象の設備情報を保持する。
3次元地図情報DB220(3次元座標データベース)は、MMS(Moble Mapping System)で計測された、対象設備の周辺を含む所定範囲の(x、y、z)座標値を有する3次元座標データ(3次元点群データ)である3次元地図情報を保持する。
設備情報送信部230は、モバイル端末100からの要求に応じて、設備情報を返す。3次元地図情報送信部240は、モバイル端末100からの要求に応じて、3次元地図情報を返す。
The
The equipment information DB (database) 210 holds equipment information for AR display.
The three-dimensional map information DB 220 (three-dimensional coordinate database) is a three-dimensional coordinate data (3) having (x, y, z) coordinate values in a predetermined range including the periphery of the target equipment, measured by MMS (Mobile Mapping System). 3D map information (dimensional point cloud data) is held.
The equipment
図3は、この発明の実施の形態1による設備情報表示システムの特徴点マッチングを示すイメージ図である。
図3(a)はモバイル端末100の撮影した実画像(静止画像)を示す図、図3(b)は図3(a)をオルソ補正したオルソ画像を示す図、図3(c)はオルソ画像から特徴点を抽出したときのイメージ図、図3(d)は3次元地図情報DB220に記憶された3次元座標データのイメージ図、図3(e)は3次元座標データから特徴点を抽出したときのイメージ図である。
FIG. 3 is an image diagram showing feature point matching of the facility information display system according to Embodiment 1 of the present invention.
3A is a diagram showing an actual image (still image) taken by the
次に、動作について図2を用いて説明する。
図2は、初期位置合わせを開始してから自己位置情報の定期更新処理までの流れを示している。
モバイル端末100の自己位置推定部190は、GPS150から現在の概略位置を取得する(ST1001、第一のステップ)。
自己位置推定部190は、現在の概略位置を中心に半径20メートルの領域を含む3次元地図情報の要求を、サーバ200の3次元地図情報送信部240に送信する(ST1002)。
3次元地図情報送信部240は、要求された領域の3次元地図情報を3次元地図情報DB220から抽出してモバイル端末100に送信する(ST1003、第二のステップ)。
この3次元地図情報は、3次元座標データであり、細かいメッシュ、高精度であるから、特徴点の抽出精度が上がり、マッチングの成功率が上がる。
Next, the operation will be described with reference to FIG.
FIG. 2 shows a flow from the start of the initial alignment to the periodic update process of the self-position information.
The self-
Self-
The 3D map
This three-dimensional map information is three-dimensional coordinate data and has a fine mesh and high accuracy, so that the feature point extraction accuracy is increased and the matching success rate is increased.
モバイル端末100の自己位置推定部190は、カメラ140から現在の実画像(静止画像)を取得する(ST1004)。
自己位置推定部190は、現在の実画像(静止画像)に対してオルソ補正(中心投影の歪んだ形状の画像を、正射投影によりその歪みを補正すること)を行った上で、特徴点を抽出する(ST1005)。
自己位置推定部190は、ST1003で取得した3次元地図情報の特徴点を抽出し、この抽出した特徴点と、ST1005で抽出した特徴点のマッチングを行い、モバイル端末100の自己位置を推定する(ST1006、第三のステップ)。
自己位置推定部190は、初期位置合わせを終了する(ST1007)。
Self-
The self-
Self-
Self-
次いで、移動量推定部180は、ジャイロセンサ110および電子コンパス130から5ミリ秒周期でモバイル端末100の角速度および方位を取得する(ST1008)。
移動量推定部180は、加速度センサ120から5ミリ秒周期で加速度を取得する(ST1009)。
移動量推定部180は、角速度、方位、加速度の変化量から移動速度を算出し、移動量を推定して、自己位置情報170に格納されたモバイル端末100の現在の位置情報、姿勢情報を更新する(ST1010、第四のステップ)。
以降の動作は、ST1008〜ST1010を5ミリ秒周期で繰り返す。
更新された自己位置情報170の現在の位置情報、姿勢情報を基にして、AR表示部160は、カメラ140により撮影された設備の動画像上に、設備情報の3次元画像を重畳表示する(第五のステップ)。
Next, movement
Movement
The movement
In subsequent operations, ST1008 to ST1010 are repeated at a cycle of 5 milliseconds.
Based on the current position information and posture information of the updated self-
実施の形態1によれば、MMSで取得した3次元座標データから特徴点を抽出するので、処理がし易く、かつ抽出精度が上がり、従来手法のような付近の実画像から特徴点を抽出する方式に比べ、高精度に自己位置を推定できるという効果がある。 According to the first embodiment, since feature points are extracted from the three-dimensional coordinate data acquired by MMS, it is easy to process and the extraction accuracy is improved, and feature points are extracted from a nearby real image as in the conventional method. Compared to the method, there is an effect that the self-position can be estimated with high accuracy.
実施の形態2.
図4は、この発明の実施の形態2による設備情報表示システムを示すブロック図である。
図4において、100〜170、190、200〜240は図1におけるものと同一のものである。図4では、モバイル端末100に、各種センサからの情報に加えて、カメラ140の静止画像の差分をもとに、移動量を推定する移動量推定部181を設けている。
FIG. 4 is a block diagram showing an equipment information display system according to
In FIG. 4,
実施の形態2は、実施の形態1に対し、モーションステレオによる移動量の推定を追加したものである。 The second embodiment is obtained by adding an estimation of the movement amount by motion stereo to the first embodiment.
以下、実施の形態2の動作について図5を用いて説明する。
図5は、初期位置合わせを開始してから自己位置情報の定期更新処理までの流れを示している。
図5において、初期位置合わせの流れは、実施の形態1のST1001〜ST1007と同様である。
また、移動量推定のうち、角速度、加速度、方位の情報をもとに自己位置情報170を更新する流れは、実施の形態1のST1008〜ST1010と同様である。
Hereinafter, the operation of the second embodiment will be described with reference to FIG.
FIG. 5 shows a flow from the start of the initial alignment to the periodic update process of the self-position information.
In FIG. 5, the flow of initial alignment is the same as ST1001 to ST1007 of the first embodiment.
Further, in the movement amount estimation, the flow of updating the self-
ST1007の後、移動量推定部181は、500ミリ秒周期で、カメラ140から現在の実画像(静止画像)を取得する(ST1100)。
次いで、移動量推定部181は、前回取得した実画像(静止画像)と現在の実画像(静止画像)から画像特徴ペアを生成し、5点比較モーション推定で移動量を推定した結果をもとに、自己位置情報170の現在の位置情報、姿勢情報を更新する(ST1101)。
以降の動作は、ST1008〜ST1010を5ミリ秒周期、ST1100〜ST1101を500ミリ秒周期で繰り返す。
After ST1007, the movement
Next, the movement
In subsequent operations, ST1008 to ST1010 are repeated at a cycle of 5 milliseconds, and ST1100 to ST1101 are repeated at a cycle of 500 milliseconds.
実施の形態2によれば、モーションステレオによる移動量の推定を行うことにより、加速度センサ、ジャイロセンサ、電子コンパスの精度への依存度を下げ、一定の精度での移動量推定を可能にするという効果がある。 According to the second embodiment, by estimating the movement amount by motion stereo, the dependency on the accuracy of the acceleration sensor, the gyro sensor, and the electronic compass is reduced, and the movement amount can be estimated with a certain accuracy. effective.
実施の形態3.
図6は、この発明の実施の形態3による設備情報表示システムを示すブロック図である。
図6において、100〜170、181、190、200〜240は図4におけるものと同一のものである。図6では、モバイル端末100に、AR表示位置のずれをモバイル端末使用者が手動で補正できるAR操作部161を設け、実画像(静止画像)や3次元座標データに特徴がないときなどで、ずれの大きい場合に対処するようにしている。
Embodiment 3 FIG.
FIG. 6 is a block diagram showing an equipment information display system according to Embodiment 3 of the present invention.
In FIG. 6,
実施の形態3は、実施の形態2に対し、AR表示位置のずれをモバイル端末使用者が手動で補正できるAR操作部161を設けたものである。
The third embodiment is different from the second embodiment in that an
以下、実施の形態3の動作について図7を用いて説明する。
図7は、初期位置合わせを開始してから自己位置情報の定期更新処理までの流れを示している。
図7において、初期位置合わせのうち、周辺の3次元地図情報と現在の実画像(静止画像)の特徴点マッチングで自己位置を推定するまでの流れは、実施の形態1のST1001〜ST1006と同様である。
また、ST1008〜ST1010、ST1100〜ST1101は図5における処理と同じ処理である。
Hereinafter, the operation of the third embodiment will be described with reference to FIG.
FIG. 7 shows a flow from the start of the initial alignment to the periodic update process of the self-position information.
In FIG. 7, the flow from the initial alignment until the self-position is estimated by the feature point matching between the surrounding 3D map information and the current real image (still image) is the same as ST1001 to ST1006 of the first embodiment. It is.
ST1008 to ST1010 and ST1100 to ST1101 are the same processes as those in FIG.
モバイル端末100のAR表示部160は、自己位置推定結果をもとに設備の3D図形(3次元画像)を実画像(動画像)上に重畳表示する(ST1200)。
モバイル端末100のAR操作部161は、モバイル端末使用者に設備の3D図形の表示位置調整を促す。例えば、表示対象の設備にマンホールが含まれる場合、マンホールの3D図形の表示位置を実画像(動画像)上のマンホールの位置と一致するように位置調整を促す。このとき、3D図形は、前後・左右・高さ方向の移動に加え、回転も可能なユーザインタフェースを提供する(ST1201)。
AR操作部161は、モバイル端末使用者による表示位置調整の結果をもとに自己位置情報170の自己位置・姿勢情報を更新する(ST1202)。
AR操作部161は、初期位置合わせを終了する(ST1203)。
以降の動作は、実施の形態2と同様、ST1008〜ST1010を5ミリ秒周期、ST1100〜ST1101を500ミリ秒周期で繰り返す。
The
The
The
The
In the subsequent operations, ST1008 to ST1010 are repeated at a cycle of 5 milliseconds, and ST1100 to ST1101 are repeated at a cycle of 500 milliseconds, as in the second embodiment.
実施の形態3によれば、モバイル端末の使用者が表示上のずれをもとに補正が可能なため、初期位置を高精度に補正できるという効果がある。 According to the third embodiment, since the user of the mobile terminal can perform correction based on the display deviation, the initial position can be corrected with high accuracy.
実施の形態4.
図8は、この発明の実施の形態4による設備情報表示システムを示すブロック図である。
図8において、100〜160、161、170、181、200〜240は図6におけるものと同一のものである。図8では、モバイル端末100に、オルソ画像との比較による自己位置推定を可能とする自己位置推定部191を設けている。また、サーバ200に、MMSであらかじめ計測された実画像(静止画像)をオルソ補正して記憶したオルソ画像DB221と、このオルソ画像DB221に記憶されたオルソ画像をモバイル端末100からの要求に応じて送信するオルソ画像送信部241とを設けている。
MMSの計測では、レーザ照射による3次元座標データの取得とともに、カメラによる実画像(動画像)の撮影が行われる。
Embodiment 4 FIG.
FIG. 8 is a block diagram showing an equipment information display system according to Embodiment 4 of the present invention.
In FIG. 8,
In the MMS measurement, a real image (moving image) is captured by a camera as well as acquisition of three-dimensional coordinate data by laser irradiation.
実施の形態4は、実施の形態3に対し、モバイル端末100にオルソ画像との比較による自己位置推定を可能とする自己位置推定部191を設け、サーバ200にオルソ画像DB221とオルソ画像送信部241を設けたものである。
The fourth embodiment is different from the third embodiment in that the
以下、実施の形態4の動作について図9を用いて説明する。
図9は、初期位置合わせを開始してから自己位置情報の定期更新処理までの流れを示している。
図9において、初期位置合わせの流れのうち、周辺の3次元地図情報と現在の実画像(静止画像)の特徴点マッチングで自己位置推定するまでの流れは、実施の形態1のST1001〜ST1006と同様である。
また、ST1008〜ST1010、ST1100〜ST1101は図5における処理と同じ処理である。
Hereinafter, the operation of the fourth embodiment will be described with reference to FIG.
FIG. 9 shows the flow from the start of the initial alignment to the self-position information periodic update process.
In FIG. 9, among the initial alignment flows, the flow until the self-position is estimated by the feature point matching between the surrounding 3D map information and the current real image (still image) is the same as ST1001 to ST1006 of the first embodiment. It is the same.
ST1008 to ST1010 and ST1100 to ST1101 are the same processes as those in FIG.
ST1006の処理に次いで、モバイル端末100の自己位置推定部191は、現在の自己位置を中心に半径20メートルの領域を含むオルソ画像の要求を、サーバ200のオルソ画像送信部241に対して送信する(ST1300)。
オルソ画像送信部241は、要求されたオルソ画像をオルソ画像DB221から取り出して、モバイル端末100に送信する(ST1301)。
Subsequent to the processing of ST1006, self-
The ortho
モバイル端末100の自己位置推定部191は、カメラ140から現在の実画像(静止画像)を取得する(ST1302)。
自己位置推定部191は、現在の実画像(静止画像)に対してオルソ補正を行い、特徴点を抽出する(ST1303)。
自己位置推定部191は、ST1301で取得したオルソ画像の特徴点と、ST1303で抽出した特徴点のマッチングを行い、自己位置を推定する(ST1304)。
以降の動作は、実施の形態3と同様に、ST1200〜ST1203を行って初期位置合わせを終了し、ST1008〜ST1010を5ミリ秒周期、ST1100〜ST1101を500ミリ秒周期で繰り返す。
Self-
Self-
Self-
In the subsequent operation, as in the third embodiment, ST1200 to ST1203 are performed to complete the initial alignment, and ST1008 to ST1010 are repeated in a cycle of 5 milliseconds, and ST1100 to ST1101 are repeated in a cycle of 500 milliseconds.
実施の形態4によれば、MMSで取得した3次元点群データに加えてオルソ画像との特徴点マッチングを実施するため、河川敷のような3次元点群データ上では特徴の少ない環境でも、オルソ画像で特徴点として抽出可能な道路上の白線やマンホールなどがあれば特徴点マッチングが可能となり、自己位置推定に失敗するケースを軽減する効果がある。 According to the fourth embodiment, since the feature point matching with the ortho image is performed in addition to the 3D point cloud data acquired by the MMS, even in an environment having few features on the 3D point cloud data such as a river bed, the ortho If there is a white line or a manhole on the road that can be extracted as a feature point in the image, feature point matching is possible, which has the effect of reducing the case where self-position estimation fails.
実施の形態5.
図10は、この発明の実施の形態5による設備情報表示システムを示すブロック図である。
図10において、100〜160、161、170、181、200〜240は図6におけるものと同一のものである。図10では、モバイル端末100に、現在の概略位置と実画像(静止画像)の特徴点情報を取得する自己位置推定部192を設け、サーバ200に、指定された特徴点と3次元地図情報の特徴点マッチングを行い、モバイル端末100の位置推定を行う位置推定部250を設けている。
Embodiment 5 FIG.
FIG. 10 is a block diagram showing an equipment information display system according to Embodiment 5 of the present invention.
10,
実施の形態5は、実施の形態3に対し、自己位置を推定する機能をサーバ200に移したものである。
In the fifth embodiment, the function of estimating the self-position is transferred to the
以下、実施の形態5の動作について図11を用いて説明する。
図11は、初期位置合わせを開始してから自己位置情報の定期更新処理までの流れを示している。
図11において、ST1008〜ST1010、ST1100〜ST1101、ST1200〜ST1203は図7における処理と同じ処理である。
図11で、モバイル端末100の自己位置推定部192は、GPS150から現在の概略位置を取得する(ST1400)。
自己位置推定部192は、カメラ140から現在の実画像(静止画像)を取得する(ST1401)。
自己位置推定部192は、現在の実画像(静止画像)に対してオルソ補正を行い、特徴点を抽出する(ST1402)。
自己位置推定部192は、現在の概略位置と特徴点情報をサーバ200の位置推定部250に送信する(ST1403)。
Hereinafter, the operation of the fifth embodiment will be described with reference to FIG.
FIG. 11 shows a flow from the start of the initial alignment to the periodic update process of the self-position information.
11, ST1008 to ST1010, ST1100 to ST1101, and ST1200 to ST1203 are the same processes as those in FIG.
In FIG. 11, self-
Self-
Self-
Self-
位置推定部250は、指定された特徴点と3次元地図情報の特徴点マッチングを行い、位置推定を行う(ST1404)。
位置推定部250は、位置推定結果をモバイル端末100に送信する(ST1405)。
モバイル端末100の自己位置推定部192は、受信した位置推定結果で自己位置情報170を更新する(ST1406)。
以降の動作は、実施の形態3と同様、ST1200〜ST1203を行って初期位置合わせを終了し、ST1008〜ST1010を5ミリ秒周期、ST1100〜ST1101を500ミリ秒周期で繰り返す。
The
Self-
In the subsequent operation, ST1200 to ST1203 are performed to finish the initial alignment, and ST1008 to ST1010 are repeated in a cycle of 5 milliseconds, and ST1100 to ST1101 are repeated in a cycle of 500 milliseconds, as in the third embodiment.
実施の形態5によれば、演算負荷の高い特徴点マッチングを演算処理能力の高いサーバで行うため、自己位置推定時間を短縮するという効果がある。 According to the fifth embodiment, since feature point matching with a high calculation load is performed by a server with high calculation processing capability, there is an effect of shortening the self-position estimation time.
なお、本発明は、その発明の範囲内において、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略することが可能である。 It should be noted that the present invention can be freely combined with each other within the scope of the invention, and each embodiment can be appropriately modified or omitted.
100 モバイル端末、110 ジャイロセンサ、120 加速度センサ、
130 電子コンパス、140 カメラ、150 GPS、160 AR表示部、
161 AR操作部、170 自己位置情報、180 移動量推定部、
181 移動量推定部、190 自己位置推定部、191 自己位置推定部、
192 自己位置推定部、200 サーバ、210 設備情報DB、
220 3次元地図情報DB、221 オルソ画像DB、230 設備情報送信部、
240 3次元地図情報送信部、241 オルソ画像送信部、250 位置推定部
100 mobile terminal, 110 gyro sensor, 120 acceleration sensor,
130 electronic compass, 140 camera, 150 GPS, 160 AR display,
161 AR operation unit, 170 self-location information, 180 movement amount estimation unit,
181 movement amount estimation unit, 190 self-position estimation unit, 191 self-position estimation unit,
192 Self-position estimation unit, 200 server, 210 facility information DB,
220 3D map information DB, 221 ortho image DB, 230 equipment information transmission unit,
240 3D map information transmission unit, 241 ortho image transmission unit, 250 position estimation unit
Claims (8)
MMS(Moble Mapping System)で計測された所定範囲の3次元座標データを記憶した3次元座標データベースとを有するサーバ、
およびこのサーバからの情報を用いて、設備の実画像上に上記設備情報の3次元画像を重畳表示するモバイル端末を備え、
上記モバイル端末は、
上記モバイル端末周辺の実画像を撮影するカメラと、
上記カメラによって撮影された現在の実画像をオルソ補正したものと、上記サーバから取得した上記3次元座標データとについて、それぞれ特徴点を抽出し、この抽出した特徴点同士をマッチングすることにより上記モバイル端末の自己位置を推定する自己位置推定部と、
加速度および角速度を含む各種センサ情報に基づき、上記モバイル端末の移動量を推定する移動量推定部と、
上記推定された移動量により更新された自己位置に基づき、上記カメラによって撮影された上記設備の実画像上に、上記サーバから取得した当該設備情報の3次元画像を重畳表示するAR表示部とを有することを特徴とする設備情報表示システム。 A facility information database storing facility information;
A server having a three-dimensional coordinate database storing three-dimensional coordinate data of a predetermined range measured by MMS (Mobile Mapping System);
And using the information from this server, a mobile terminal that superimposes and displays the three-dimensional image of the facility information on the actual image of the facility,
The above mobile devices
A camera that captures real images around the mobile device,
A feature point is extracted for each of the current image captured by the camera and orthorectified, and the three-dimensional coordinate data acquired from the server, and the extracted feature points are matched to each other, thereby the mobile A self-position estimation unit that estimates the self-position of the terminal;
Based on various sensor information including acceleration and angular velocity, a movement amount estimation unit that estimates the movement amount of the mobile terminal,
An AR display unit that superimposes and displays a three-dimensional image of the facility information acquired from the server on an actual image of the facility captured by the camera based on the self-position updated by the estimated movement amount; A facility information display system comprising:
上記自己位置推定部は、上記3次元座標データに基づく自己位置の推定に加えて、上記オルソ画像データベースに記憶されたオルソ画像と、現在の実画像をオルソ補正したものとの特徴点のマッチングを行い、上記モバイル端末の自己位置を推定することを特徴とする請求項1から請求項3のいずれか一項記載の設備情報表示システム。 The server has an ortho image database storing an ortho image obtained by ortho-correcting a real image taken in advance over a predetermined range,
In addition to the self-position estimation based on the three-dimensional coordinate data, the self-position estimation unit performs matching of feature points between an ortho image stored in the ortho image database and an ortho correction of the current actual image. 4. The facility information display system according to claim 1, wherein the facility information display system estimates the self-position of the mobile terminal. 5.
MMSで計測された所定範囲の3次元座標データを記憶した3次元座標データベースと、
モバイル端末の位置を推定する位置推定部とを有するサーバ、
およびこのサーバからの情報を用いて、設備の実画像上に当該設備情報の3次元画像を重畳表示するモバイル端末を備え、
上記サーバの位置推定部は、上記モバイル端末のカメラによって撮影された現在の実画像の特徴点を上記モバイル端末から取得するとともに、この取得した現在の実画像の特徴点と上記3次元座標データの特徴点をマッチングすることにより、上記モバイル端末の位置を推定し、
上記モバイル端末は、
上記モバイル端末周辺の実画像を撮影するカメラと、
上記カメラによって撮影された現在の実画像をオルソ補正したのち特徴点を抽出するとともに、上記サーバから上記モバイル端末の自己位置を取得する自己位置推定部と、
加速度および角速度を含む各種センサ情報に基づき、上記モバイル端末の移動量を推定する移動量推定部と、
上記推定された移動量により更新された自己位置に基づき、上記カメラによって撮影された上記設備の実画像上に、上記サーバから取得した当該設備情報の3次元画像を重畳表示するAR表示部とを有することを特徴とする設備情報表示システム。 A facility information database storing facility information;
A three-dimensional coordinate database storing a predetermined range of three-dimensional coordinate data measured by MMS;
A server having a position estimation unit for estimating the position of the mobile terminal;
And using the information from this server, a mobile terminal that superimposes and displays a three-dimensional image of the facility information on the actual image of the facility,
The position estimation unit of the server acquires the feature point of the current real image taken by the camera of the mobile terminal from the mobile terminal, and also acquires the feature point of the acquired current image and the three-dimensional coordinate data. By matching feature points, the position of the mobile device is estimated,
The above mobile devices
A camera that captures real images around the mobile device,
A self-position estimation unit that extracts a feature point after ortho-correcting the current real image captured by the camera and acquires the self-position of the mobile terminal from the server;
Based on various sensor information including acceleration and angular velocity, a movement amount estimation unit that estimates the movement amount of the mobile terminal,
An AR display unit that superimposes and displays a three-dimensional image of the facility information acquired from the server on an actual image of the facility captured by the camera based on the self-position updated by the estimated movement amount; A facility information display system comprising:
GPS装置から取得したモバイル端末の概略位置の周辺の3次元座標データをサーバから取得し、この取得した3次元座標データと、上記カメラによって撮影された現在の実画像をオルソ補正したものとについて、それぞれ特徴点を抽出し、この抽出した特徴点同士をマッチングすることにより自己位置を推定する自己位置推定部、
加速度および角速度を含む各種センサ情報に基づき、移動量を推定する移動量推定部、
および上記推定された移動量により更新された自己位置に基づき、上記カメラによって撮影された設備の実画像上に、上記サーバから別途取得した当該設備情報の3次元画像を重畳表示するAR表示部を備えたことを特徴とするモバイル端末。 A camera that captures real images of the surrounding area,
The three-dimensional coordinate data around the approximate position of the mobile terminal acquired from the GPS device is acquired from the server, and the acquired three-dimensional coordinate data and the current real image captured by the camera are orthocorrected. A self-position estimation unit that extracts each feature point and estimates the self-position by matching the extracted feature points;
A movement amount estimation unit that estimates a movement amount based on various sensor information including acceleration and angular velocity,
And an AR display unit that superimposes and displays a three-dimensional image of the facility information separately acquired from the server on the actual image of the facility photographed by the camera based on the self-position updated by the estimated movement amount. A mobile terminal characterized by comprising.
およびモバイル端末のカメラによって撮影された現在の実画像をオルソ補正したものの特徴点を上記モバイル端末から取得するとともに、この取得した現在の実画像の特徴点と上記3次元座標データの特徴点をマッチングすることにより、上記モバイル端末の位置を推定する位置推定部を備えたことを特徴とするサーバ。 A three-dimensional coordinate database storing a predetermined range of three-dimensional coordinate data measured by MMS;
In addition, the feature point of the orthorectified current actual image taken by the camera of the mobile terminal is acquired from the mobile terminal, and the acquired feature point of the current actual image is matched with the feature point of the three-dimensional coordinate data. A server comprising a position estimation unit that estimates the position of the mobile terminal.
上記モバイル端末の概略位置の周辺の3次元座標データをサーバから取得する第二のステップ、
上記モバイル端末の自己位置推定部が、上記モバイル端末のカメラによって撮影された実画像をオルソ補正したものと、第二のステップにより取得された3次元座標データとについて、それぞれ特徴点を抽出し、この抽出した特徴点同士をマッチングすることにより、上記モバイル端末の自己位置を推定する第三のステップ、
上記モバイル端末の移動量推定部が、加速度および角速度を含む各種センサ情報に基づき、上記モバイル端末の移動量を推定し、上記自己位置を更新する第四のステップ、
および上記モバイル端末のAR表示部が、上記更新された自己位置に基づき、上記カメラによって撮影された設備の実画像上に、上記サーバから取得した当該設備情報の3次元画像を重畳表示する第五のステップを含むことを特徴とする設備情報表示方法。 A first step of obtaining the approximate position of the mobile terminal from the GPS device of the mobile terminal;
A second step of acquiring three-dimensional coordinate data around the approximate position of the mobile terminal from a server;
The self-position estimation unit of the mobile terminal extracts feature points for the orthorectified real image captured by the camera of the mobile terminal and the three-dimensional coordinate data acquired in the second step, A third step of estimating the self-position of the mobile terminal by matching the extracted feature points;
A fourth step in which the movement amount estimation unit of the mobile terminal estimates the movement amount of the mobile terminal based on various sensor information including acceleration and angular velocity, and updates the self-position;
And the AR display unit of the mobile terminal displays the three-dimensional image of the facility information acquired from the server in a superimposed manner on the actual image of the facility photographed by the camera based on the updated self-position. The facility information display method characterized by including these steps.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015050219A JP6440539B2 (en) | 2015-03-13 | 2015-03-13 | Equipment information display system, mobile terminal, server, and equipment information display method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015050219A JP6440539B2 (en) | 2015-03-13 | 2015-03-13 | Equipment information display system, mobile terminal, server, and equipment information display method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016170060A true JP2016170060A (en) | 2016-09-23 |
JP6440539B2 JP6440539B2 (en) | 2018-12-19 |
Family
ID=56983520
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015050219A Active JP6440539B2 (en) | 2015-03-13 | 2015-03-13 | Equipment information display system, mobile terminal, server, and equipment information display method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6440539B2 (en) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018105742A (en) * | 2016-12-27 | 2018-07-05 | トヨタ自動車株式会社 | Position calculation device |
JP2018124925A (en) * | 2017-02-03 | 2018-08-09 | Kddi株式会社 | Terminal device and program |
JP2018124926A (en) * | 2017-02-03 | 2018-08-09 | Kddi株式会社 | Terminal device, method for controlling terminal device, and computer program |
WO2018193880A1 (en) * | 2017-04-21 | 2018-10-25 | 日立Geニュークリア・エナジー株式会社 | Plant equipment recognition system and plant equipment recognition method |
JP2018181292A (en) * | 2017-04-21 | 2018-11-15 | 日立Geニュークリア・エナジー株式会社 | Plant equipment recognition system and plant equipment recognition method |
WO2019065546A1 (en) * | 2017-09-29 | 2019-04-04 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | Three-dimensional data creation method, client device and server |
JP2019095876A (en) * | 2017-11-20 | 2019-06-20 | 三菱電機株式会社 | Three-dimensional point group display device, three-dimensional point group display system, method for displaying three-dimensional point group, three-dimensional point group display program, and recording medium |
WO2019138834A1 (en) * | 2018-01-12 | 2019-07-18 | キヤノン株式会社 | Information processing device, information processing method, program, and system |
CN110132129A (en) * | 2018-02-08 | 2019-08-16 | 莱卡地球系统公开股份有限公司 | The system based on augmented reality with circumference attributive function |
JP2020077363A (en) * | 2018-09-26 | 2020-05-21 | アップル インコーポレイテッドApple Inc. | Localization for mobile devices |
WO2020115945A1 (en) * | 2018-12-03 | 2020-06-11 | 株式会社Nttドコモ | Positioning system |
JP2020122697A (en) * | 2019-01-30 | 2020-08-13 | 三菱電機株式会社 | Three-dimensional measurement apparatus and three-dimensional measurement program |
JPWO2022153910A1 (en) * | 2021-01-12 | 2022-07-21 | ||
JP2023514724A (en) * | 2020-11-30 | 2023-04-07 | 浙江商▲湯▼科技▲開▼▲発▼有限公司 | Positioning method and its device, electronic device, storage medium, computer program product, computer program |
JP7442278B2 (en) | 2018-08-20 | 2024-03-04 | フィッシャー-ローズマウント システムズ,インコーポレイテッド | Drift correction for industrial augmented reality applications |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110153215A1 (en) * | 2009-12-18 | 2011-06-23 | Electronics and Telecommunications Research Insti tute | Apparatus and method of providing facility information |
JP2012127896A (en) * | 2010-12-17 | 2012-07-05 | Kumamoto Univ | Mobile object position measurement device |
JP2013024686A (en) * | 2011-07-20 | 2013-02-04 | Kokusai Kogyo Co Ltd | Mobile mapping system, method for measuring route object using the same, and position specification program |
JP2013141049A (en) * | 2010-03-24 | 2013-07-18 | Hitachi Ltd | Server and terminal utilizing world coordinate system database |
JP2013182523A (en) * | 2012-03-02 | 2013-09-12 | Hitachi Plant Technologies Ltd | Image processing device, image processing system, and image processing method |
JP2014153967A (en) * | 2013-02-12 | 2014-08-25 | Mitsubishi Electric Corp | Portable terminal device and invisible facility location identification method employing the same |
WO2014176054A1 (en) * | 2013-04-22 | 2014-10-30 | Alcatel Lucent | Localization systems and methods |
-
2015
- 2015-03-13 JP JP2015050219A patent/JP6440539B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110153215A1 (en) * | 2009-12-18 | 2011-06-23 | Electronics and Telecommunications Research Insti tute | Apparatus and method of providing facility information |
JP2013141049A (en) * | 2010-03-24 | 2013-07-18 | Hitachi Ltd | Server and terminal utilizing world coordinate system database |
JP2012127896A (en) * | 2010-12-17 | 2012-07-05 | Kumamoto Univ | Mobile object position measurement device |
JP2013024686A (en) * | 2011-07-20 | 2013-02-04 | Kokusai Kogyo Co Ltd | Mobile mapping system, method for measuring route object using the same, and position specification program |
JP2013182523A (en) * | 2012-03-02 | 2013-09-12 | Hitachi Plant Technologies Ltd | Image processing device, image processing system, and image processing method |
JP2014153967A (en) * | 2013-02-12 | 2014-08-25 | Mitsubishi Electric Corp | Portable terminal device and invisible facility location identification method employing the same |
WO2014176054A1 (en) * | 2013-04-22 | 2014-10-30 | Alcatel Lucent | Localization systems and methods |
Cited By (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11519738B2 (en) | 2016-12-27 | 2022-12-06 | Toyota Jidosha Kabushiki Kaisha | Position calculating apparatus |
DE102017125356B4 (en) | 2016-12-27 | 2024-09-12 | Toyota Jidosha Kabushiki Kaisha | POSITION CALCULATION DEVICE |
JP2018105742A (en) * | 2016-12-27 | 2018-07-05 | トヨタ自動車株式会社 | Position calculation device |
US10731996B2 (en) | 2016-12-27 | 2020-08-04 | Toyota Jidosha Kabushiki Kaisha | Position calculating apparatus |
JP2018124926A (en) * | 2017-02-03 | 2018-08-09 | Kddi株式会社 | Terminal device, method for controlling terminal device, and computer program |
JP2018124925A (en) * | 2017-02-03 | 2018-08-09 | Kddi株式会社 | Terminal device and program |
WO2018193880A1 (en) * | 2017-04-21 | 2018-10-25 | 日立Geニュークリア・エナジー株式会社 | Plant equipment recognition system and plant equipment recognition method |
US11378383B2 (en) | 2017-04-21 | 2022-07-05 | Hitachi-Ge Nuclear Energy, Ltd. | Plant facility apparatus recognition system and plant facility apparatus recognition method |
JP2018181292A (en) * | 2017-04-21 | 2018-11-15 | 日立Geニュークリア・エナジー株式会社 | Plant equipment recognition system and plant equipment recognition method |
CN111148967A (en) * | 2017-09-29 | 2020-05-12 | 松下电器(美国)知识产权公司 | Three-dimensional data creation method, client device, and server |
CN111148967B (en) * | 2017-09-29 | 2024-03-08 | 松下电器(美国)知识产权公司 | Three-dimensional data creation method, client device, and server |
US11625863B2 (en) | 2017-09-29 | 2023-04-11 | Panasonic Intellectual Property Corporation Of America | Three-dimensional data creation method, client device, and server |
WO2019065546A1 (en) * | 2017-09-29 | 2019-04-04 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | Three-dimensional data creation method, client device and server |
JPWO2019065546A1 (en) * | 2017-09-29 | 2020-10-22 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 3D data creation method, client device and server |
JP7003594B2 (en) | 2017-11-20 | 2022-01-20 | 三菱電機株式会社 | 3D point cloud display device, 3D point cloud display system, 3D point cloud display method, 3D point cloud display program, recording medium |
JP2019095876A (en) * | 2017-11-20 | 2019-06-20 | 三菱電機株式会社 | Three-dimensional point group display device, three-dimensional point group display system, method for displaying three-dimensional point group, three-dimensional point group display program, and recording medium |
JP2019125345A (en) * | 2018-01-12 | 2019-07-25 | キヤノン株式会社 | Information processor, information processing method, program, and system |
WO2019138834A1 (en) * | 2018-01-12 | 2019-07-18 | キヤノン株式会社 | Information processing device, information processing method, program, and system |
JP7341652B2 (en) | 2018-01-12 | 2023-09-11 | キヤノン株式会社 | Information processing device, information processing method, program, and system |
US10890430B2 (en) | 2018-02-08 | 2021-01-12 | Leica Geosystems Ag | Augmented reality-based system with perimeter definition functionality |
CN110132129A (en) * | 2018-02-08 | 2019-08-16 | 莱卡地球系统公开股份有限公司 | The system based on augmented reality with circumference attributive function |
CN110132129B (en) * | 2018-02-08 | 2021-01-26 | 莱卡地球系统公开股份有限公司 | Augmented reality-based inspection system and method |
JP7442278B2 (en) | 2018-08-20 | 2024-03-04 | フィッシャー-ローズマウント システムズ,インコーポレイテッド | Drift correction for industrial augmented reality applications |
JP2020077363A (en) * | 2018-09-26 | 2020-05-21 | アップル インコーポレイテッドApple Inc. | Localization for mobile devices |
JP7013420B2 (en) | 2018-09-26 | 2022-01-31 | アップル インコーポレイテッド | Location of mobile devices |
WO2020115945A1 (en) * | 2018-12-03 | 2020-06-11 | 株式会社Nttドコモ | Positioning system |
JP2020122697A (en) * | 2019-01-30 | 2020-08-13 | 三菱電機株式会社 | Three-dimensional measurement apparatus and three-dimensional measurement program |
JP7183058B2 (en) | 2019-01-30 | 2022-12-05 | 三菱電機株式会社 | Three-dimensional measuring device and three-dimensional measuring program |
JP2023514724A (en) * | 2020-11-30 | 2023-04-07 | 浙江商▲湯▼科技▲開▼▲発▼有限公司 | Positioning method and its device, electronic device, storage medium, computer program product, computer program |
JP7487321B2 (en) | 2020-11-30 | 2024-05-20 | 浙江商▲湯▼科技▲開▼▲発▼有限公司 | Positioning method and device, electronic device, storage medium, computer program product, and computer program |
JPWO2022153910A1 (en) * | 2021-01-12 | 2022-07-21 | ||
JP7444292B2 (en) | 2021-01-12 | 2024-03-06 | 日本電気株式会社 | Detection system, detection method, and program |
WO2022153910A1 (en) * | 2021-01-12 | 2022-07-21 | 日本電気株式会社 | Detection system, detection method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP6440539B2 (en) | 2018-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6440539B2 (en) | Equipment information display system, mobile terminal, server, and equipment information display method | |
KR101444685B1 (en) | Method and Apparatus for Determining Position and Attitude of Vehicle by Image based Multi-sensor Data | |
US20200218906A1 (en) | Robust lane association by projecting 2-d image into 3-d world using map information | |
JP6070206B2 (en) | Position coordinate conversion system, position coordinate conversion method, in-vehicle device, world coordinate measuring device, and position coordinate conversion program | |
KR101017606B1 (en) | Attitude angle sensor three-dimensional misalignment correction method using single image | |
KR20200064542A (en) | Apparatus for measuring ground control point using unmanned aerial vehicle and method thereof | |
JP6433200B2 (en) | Arithmetic apparatus, arithmetic method, and program | |
WO2004113836A1 (en) | Picked-up image display method | |
KR100822814B1 (en) | Method for overlapping real-time landscape image and gis data | |
EP3067658A1 (en) | 3d-shape measurement device, 3d-shape measurement method, and 3d-shape measurement program | |
KR101611280B1 (en) | Mobile mapping system using stereo camera and method of generating point cloud in mobile mapping system | |
US20160169662A1 (en) | Location-based facility management system using mobile device | |
KR101183866B1 (en) | Apparatus and method for real-time position and attitude determination based on integration of gps, ins and image at | |
KR102174729B1 (en) | Method and system for recognizing lane using landmark | |
KR101255461B1 (en) | Position Measuring Method for street facility | |
KR101346192B1 (en) | Aviation surveying system for correction realtime of aviation image | |
KR101224830B1 (en) | Portable Multi-Sensor System for Acquiring Georeferenced Images and Method thereof | |
TWI798789B (en) | Navigation device, navigation system, navigation method, and media storaged the navigation program | |
KR101346206B1 (en) | Aviation surveying system for processing the aviation image in gps | |
KR101393273B1 (en) | System for advanced road texture image | |
JP5813181B1 (en) | Satellite positioning map display system | |
Kim et al. | An advanced approach for navigation and image sensor integration for land vehicle navigation | |
CN113566847B (en) | Navigation calibration method and device, electronic equipment and computer readable medium | |
JP2013061204A (en) | Method for setting corresponding point of aerial photographic image data, corresponding point setting apparatus, and corresponding point setting program | |
TWI657230B (en) | Navigation and positioning device and method of navigation and positioning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171222 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181010 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181023 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181120 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6440539 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |