JP6727032B2 - Mobile terminal, self-position estimation system using the same, server and self-position estimation method - Google Patents

Mobile terminal, self-position estimation system using the same, server and self-position estimation method Download PDF

Info

Publication number
JP6727032B2
JP6727032B2 JP2016104808A JP2016104808A JP6727032B2 JP 6727032 B2 JP6727032 B2 JP 6727032B2 JP 2016104808 A JP2016104808 A JP 2016104808A JP 2016104808 A JP2016104808 A JP 2016104808A JP 6727032 B2 JP6727032 B2 JP 6727032B2
Authority
JP
Japan
Prior art keywords
identification information
self
unit
mobile terminal
position estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016104808A
Other languages
Japanese (ja)
Other versions
JP2017211284A (en
Inventor
昌則 田正司
昌則 田正司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2016104808A priority Critical patent/JP6727032B2/en
Publication of JP2017211284A publication Critical patent/JP2017211284A/en
Application granted granted Critical
Publication of JP6727032B2 publication Critical patent/JP6727032B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、道路等の保守・点検などの維持管理を行うシステムにおいて、屋外でモバイル端末の自己位置を推定するモバイル端末およびこれを用いた自己位置推定システム並びにサーバおよび自己位置推定方法に関するものである。 The present invention relates to a mobile terminal for estimating the self-position of a mobile terminal outdoors, a self-position estimation system using the same, a server, and a self-position estimation method in a system for performing maintenance such as maintenance and inspection of roads. is there.

道路等の長大なインフラ設備の点検業務等で異常個所を見つけた場合等に自己位置を記録したい場合がある。自己位置の推定には、GPS(Global Positioning System)が利用できるが、最大10メートル程度の誤差があり、業務で必要な自己位置精度を確保できない。
このため、人工構造物の3D(three−dimensional)モデルをあらかじめ持ち、現在のカメラ映像内のオブジェクトと3Dモデルとの対応を取ることで、精度の高い撮影位置を求める手法が開示されている。(たとえば、特許文献1)
There are times when you want to record your own position when you find an abnormal point in the inspection work of a large infrastructure such as a road. A GPS (Global Positioning System) can be used for estimating the self-position, but there is an error of about 10 meters at the maximum, and the self-position accuracy necessary for business cannot be secured.
Therefore, there is disclosed a method of obtaining a highly accurate shooting position by previously having a 3D (three-dimensional) model of an artificial structure and by associating an object in the current camera image with the 3D model. (For example, Patent Document 1)

特開2012−79129号公報(第7〜11頁、第2図)Japanese Unexamined Patent Publication No. 2012-79129 (pages 7 to 11, FIG. 2)

従来の自己位置推定システムは、以上のように構成されているので、団地や高速道路上などの同じ形状の構造物が並ぶ場所では、構造物の形状のみでは位置を識別できず、自己位置が推定できないという問題があった。 Since the conventional self-position estimation system is configured as described above, in a place where structures of the same shape are lined up, such as on a housing complex or an expressway, the position cannot be identified only by the shape of the structures, and the self-position cannot be determined. There was a problem that it could not be estimated.

この発明は、上述のような課題を解決するためになされたものであり、位置を一意に識別できる構造物がない場所でも高精度に自己位置を推定できるモバイル端末およびこれを用いた自己位置推定システム並びにサーバおよび自己位置推定方法を得ることを目的とする。 The present invention has been made to solve the above-described problems, and a mobile terminal capable of highly accurately estimating the self-position even in a place where there is no structure capable of uniquely identifying the position and self-position estimation using the mobile terminal An object is to obtain a system, a server, and a self-position estimation method.

この発明に係わるモバイル端末においては、カメラによって画像を撮影する画像撮影部、この画像撮影部により撮影された画像内の識別情報を抽出する識別情報抽出部、予め作成された位置情報を含む識別情報を有するサーバから、識別情報を取得する識別情報取得部、識別情報抽出部により抽出された識別情報と、識別情報取得部によりサーバから取得された識別情報とを比較し、両識別情報を対応付ける識別情報比較部、およびこの識別情報比較部により対応付けられた識別情報に基づき、自己位置を推定する自己位置推定部を備え、識別情報は、文字列および文字列の大きさを有し、自己位置推定部は、自己位置の推定に当たって、対応付けられた識別情報の文字列の大きさに基づき、当該文字列から自己位置までの距離を算出し、複数の文字列を用いて自己位置の方向を算出するものである。 In a mobile terminal according to the present invention, an image capturing unit that captures an image with a camera, an identification information extracting unit that extracts identification information in an image captured by the image capturing unit, and identification information including pre-created position information The identification information acquisition unit that acquires the identification information from the server having the identification information, the identification information extracted by the identification information extraction unit, and the identification information acquired from the server by the identification information acquisition unit are compared, and the identification information is associated with both identification information. An information comparison unit and a self-position estimation unit that estimates the self-position based on the identification information associated by the identification information comparison unit, the identification information having a character string and a size of the character string, and the self-position When estimating the self-position , the estimation unit calculates the distance from the character string to the self-position based on the size of the character string of the associated identification information, and uses the plurality of character strings to determine the direction of the self-position. It is to be calculated .

この発明によれば、カメラによって画像を撮影する画像撮影部、この画像撮影部により撮影された画像内の識別情報を抽出する識別情報抽出部、予め作成された位置情報を含む識別情報を有するサーバから、識別情報を取得する識別情報取得部、識別情報抽出部により抽出された識別情報と、識別情報取得部によりサーバから取得された識別情報とを比較し、両識別情報を対応付ける識別情報比較部、およびこの識別情報比較部により対応付けられた識別情報に基づき、自己位置を推定する自己位置推定部を備え、識別情報は、文字列および文字列の大きさを有し、自己位置推定部は、自己位置の推定に当たって、対応付けられた識別情報の文字列の大きさに基づき、当該文字列から自己位置までの距離を算出し、複数の文字列を用いて自己位置の方向を算出するので、同じ形状の構造物が並ぶような場所でも高精度に自己位置を推定することができる。



According to the present invention, an image capturing unit that captures an image with a camera, an identification information extracting unit that extracts identification information in an image captured by the image capturing unit, and a server that has identification information including pre-created position information From the identification information acquisition unit that acquires the identification information, the identification information extracted by the identification information extraction unit, and the identification information acquired from the server by the identification information acquisition unit, and the identification information comparison unit that associates both identification information , And a self-position estimating unit that estimates the self-position based on the identification information associated by the identification information comparing unit, the identification information having a character string and a size of the character string, and the self-position estimating unit , In estimating the self-position, the distance from the character string to the self-position is calculated based on the size of the character string of the associated identification information, and the direction of the self-position is calculated using a plurality of character strings . The self-position can be estimated with high accuracy even in a place where structures having the same shape are lined up.



この発明の実施の形態1による自己位置推定システムを示すブロック図である。1 is a block diagram showing a self-position estimation system according to Embodiment 1 of the present invention. この発明の実施の形態1による自己位置推定システムのモバイル端末のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the mobile terminal of the self-position estimation system by Embodiment 1 of this invention. この発明の実施の形態1による自己位置推定システムのサーバのハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the server of the self-position estimation system by Embodiment 1 of this invention. この発明の実施の形態1による自己位置推定システムの識別情報DB(database)のデータ構造を示す図である。It is a figure which shows the data structure of identification information DB (database) of the self-position estimation system by Embodiment 1 of this invention. この発明の実施の形態1による自己位置推定システムの表示画面を示す図である。It is a figure which shows the display screen of the self-position estimation system by Embodiment 1 of this invention. この発明の実施の形態1による自己位置推定システムのサーバ内の識別情報DBを更新するまでの流れを示すフローチャートである。5 is a flowchart showing a flow until the identification information DB in the server of the self-position estimation system according to the first embodiment of the present invention is updated. この発明の実施の形態1による自己位置推定システムの指定された位置周辺の識別情報をモバイル端末内の識別情報DBに格納するまでの流れを示すフローチャートである。5 is a flowchart showing a flow of storing identification information around a designated position in the self-position estimation system according to the first embodiment of the present invention in an identification information DB in a mobile terminal. この発明の実施の形態1による自己位置推定システムの自己位置推定の流れを示すフローチャートである。3 is a flowchart showing a flow of self-position estimation of the self-position estimation system according to the first embodiment of the present invention. この発明の実施の形態2による自己位置推定システムを示すブロック図である。It is a block diagram which shows the self-position estimation system by Embodiment 2 of this invention. この発明の実施の形態2による自己位置推定システムの自己位置推定の流れを示すフローチャートである。7 is a flowchart showing a flow of self-position estimation of the self-position estimation system according to the second embodiment of the present invention. この発明の実施の形態3による自己位置推定システムを示すブロック図である。It is a block diagram which shows the self-position estimation system by Embodiment 3 of this invention. この発明の実施の形態3による自己位置推定システムの自己位置推定の流れを示すフローチャートである。9 is a flowchart showing a flow of self-position estimation of the self-position estimation system according to the third embodiment of the present invention. この発明の実施の形態4による自己位置推定システムを示すブロック図である。It is a block diagram which shows the self-position estimation system by Embodiment 4 of this invention. この発明の実施の形態4による自己位置推定システムの自己位置推定の流れを示すフローチャートである。13 is a flowchart showing a flow of self-position estimation of the self-position estimation system according to the fourth embodiment of the present invention. この発明の実施の形態5による自己位置推定システムを示すブロック図である。It is a block diagram which shows the self-position estimation system by Embodiment 5 of this invention. この発明の実施の形態5による自己位置推定システムの自己位置推定の流れを示すフローチャートである。9 is a flowchart showing a flow of self-position estimation of a self-position estimation system according to a fifth embodiment of the present invention.

実施の形態1.
以下、この発明の実施の形態1を図に基づいて説明する。
図1は、この発明の実施の形態1による自己位置推定システムを示すブロック図である。
図1において、自己位置推定システムは、通信回線により通信可能になっているモバイル端末100とサーバ200を有する。
モバイル端末100は、次のように構成されている。
カメラ110は、周辺を撮影する。画像撮影部120は、カメラ110を通じて、周辺の画像を撮影する。画面表示部130(表示部)は、カメラ映像および地図情報などを表示装置に画面表示する。
画像内識別情報抽出部140(識別情報抽出部)は、画像内に含まれる文字列等の識別情報を抽出する。識別情報取得部150は、サーバ200から指定位置の識別情報を取得する。識別情報DB160は、識別情報取得部150によって取得された識別情報を保持する。
識別情報比較部170は、画像から抽出された識別情報と、識別情報DB160が保持する識別情報とを比較し、識別情報同士の対応付けを行なう。自己位置推定部180は、識別情報比較部170により対応付けられた識別情報から自己位置を推定する。GPS受信部190は、GPS衛星より位置情報を受信する。
Embodiment 1.
Embodiment 1 of the present invention will be described below with reference to the drawings.
1 is a block diagram showing a self-position estimation system according to a first embodiment of the present invention.
In FIG. 1, the self-position estimation system has a mobile terminal 100 and a server 200 that are communicable via a communication line.
The mobile terminal 100 is configured as follows.
The camera 110 photographs the surrounding area. The image capturing unit 120 captures a peripheral image through the camera 110. The screen display unit 130 (display unit) displays a camera image, map information, etc. on the screen of the display device.
The in-image identification information extraction unit 140 (identification information extraction unit) extracts identification information such as a character string included in the image. The identification information acquisition unit 150 acquires the identification information of the designated position from the server 200. The identification information DB 160 holds the identification information acquired by the identification information acquisition unit 150.
The identification information comparison unit 170 compares the identification information extracted from the image with the identification information stored in the identification information DB 160, and associates the identification information with each other. The self-position estimation unit 180 estimates the self-position from the identification information associated by the identification information comparison unit 170. The GPS receiver 190 receives position information from GPS satellites.

サーバ200は、次のように構成されている。
3Dモデル生成部210は、MMS(mobile mapping system)などで計測された3D点群データから3Dモデルを生成する。3DモデルDB220は、3Dモデル生成部210により生成された3Dモデルを保持する。
3Dモデル識別情報抽出部230は、3Dモデルから文字列等の識別情報を抽出する。識別情報DB240(識別情報データベース)は、3Dモデル識別情報抽出部230により抽出された識別情報を保持する。識別情報送信部250は、モバイル端末100からの要求に応じて、識別情報を送信する。
The server 200 is configured as follows.
The 3D model generator 210 generates a 3D model from 3D point cloud data measured by MMS (mobile mapping system) or the like. The 3D model DB 220 holds the 3D model generated by the 3D model generation unit 210.
The 3D model identification information extraction unit 230 extracts identification information such as a character string from the 3D model. The identification information DB 240 (identification information database) holds the identification information extracted by the 3D model identification information extraction unit 230. The identification information transmitting unit 250 transmits the identification information in response to the request from the mobile terminal 100.

図2は、この発明の実施の形態1による自己位置推定システムのモバイル端末のハードウェア構成を示す図である。
図2において、モバイル端末100の主要なハードウェアを示す。ROM(Read Only Memory)12に格納されたソフトウェアにより、CPU(Central Processing Unit)11がRAM(Random Access Memory)13に一時的にデータを格納しつつ処理を行ない、表示装置15にカメラ映像および処理結果を表示する。識別情報DB160は、フラッシュメモリ14に格納される。
ROM12に格納されるソフトウェアは、画像撮影部120、画像内識別情報抽出部140、画面表示部130、識別情報取得部150、識別情報比較部170、自己位置推定部180およびGPS受信部190を含む。
FIG. 2 is a diagram showing a hardware configuration of a mobile terminal of the self-position estimation system according to the first embodiment of the present invention.
In FIG. 2, main hardware of the mobile terminal 100 is shown. Software stored in a ROM (Read Only Memory) 12 causes a CPU (Central Processing Unit) 11 to perform processing while temporarily storing data in a RAM (Random Access Memory) 13, and to display a camera image and processing on a display device 15. Display the result. The identification information DB 160 is stored in the flash memory 14.
The software stored in the ROM 12 includes an image capturing unit 120, an in-image identification information extraction unit 140, a screen display unit 130, an identification information acquisition unit 150, an identification information comparison unit 170, a self-position estimation unit 180, and a GPS reception unit 190. ..

図3は、この発明の実施の形態1による自己位置推定システムのサーバのハードウェア構成を示す図である。
図3において、サーバ200の主要なハードウェアを示す。ROM22に格納されたソフトウェアにより、CPU21がRAM23に一時的にデータを格納しつつ処理を行なう。3DモデルDB220および識別情報DB240は、HDD(hard disk drive)24に格納される。
ROM22に格納されるソフトウェアは、3Dモデル生成部210、3Dモデル識別情報抽出部230および識別情報送信部250を含む。
FIG. 3 is a diagram showing a hardware configuration of a server of the self-position estimation system according to the first embodiment of the present invention.
FIG. 3 shows the main hardware of the server 200. With the software stored in the ROM 22, the CPU 21 performs processing while temporarily storing data in the RAM 23. The 3D model DB 220 and the identification information DB 240 are stored in the HDD (hard disk drive) 24.
The software stored in the ROM 22 includes a 3D model generation unit 210, a 3D model identification information extraction unit 230, and an identification information transmission unit 250.

図4は、この発明の実施の形態1による自己位置推定システムの識別情報DBのデータ構造を示す図である。
図4において、識別情報DB240の各データは、識別情報と位置情報とを有する。識別情報は、文字列と、その大きさを有し、位置情報は、文字列のある看板などの緯度、経度である。
FIG. 4 is a diagram showing a data structure of the identification information DB of the self-position estimation system according to the first embodiment of the present invention.
In FIG. 4, each data of the identification information DB 240 has identification information and position information. The identification information has a character string and its size, and the position information is the latitude and longitude of a signboard having the character string.

図5は、この発明の実施の形態1による自己位置推定システムの表示画面を示す図である。
図5において、画面表示部130により表示される画面1301は、カメラ映像を表示する領域1302と、モバイル端末100の自己位置を地図上に表示する領域1303と、自己位置の緯度経度を表示する領域1304とを有する。
領域1302のカメラ映像中の識別情報の文字列で、識別情報DB160が保持する識別情報の文字列と対応付けられた文字列は、強調表示されるようになっている。
FIG. 5 is a diagram showing a display screen of the self-position estimation system according to the first embodiment of the present invention.
In FIG. 5, a screen 1301 displayed by the screen display unit 130 includes an area 1302 for displaying a camera image, an area 1303 for displaying the self position of the mobile terminal 100 on a map, and an area for displaying the latitude and longitude of the self position. 1304 and.
The character string of the identification information in the camera image in the area 1302, which is associated with the character string of the identification information held in the identification information DB 160, is highlighted.

次に、動作について、図6、図7、図8を用いて説明する。
図6は、MMS等で計測された3D点群データをもとに、サーバ200内の識別情報DB240を更新するまでの流れを示す。
図7は、ユーザが指定した位置周辺の識別情報をモバイル端末100内の識別情報DB160に格納するまでの流れを示す。
図8は、現場で自己位置推定を行う際の流れを示す。
Next, the operation will be described with reference to FIGS. 6, 7, and 8.
FIG. 6 shows a flow until the identification information DB 240 in the server 200 is updated based on 3D point cloud data measured by MMS or the like.
FIG. 7 shows a flow until the identification information around the position designated by the user is stored in the identification information DB 160 in the mobile terminal 100.
FIG. 8 shows a flow when performing self-position estimation on the spot.

まず、図6を用いて、MMS等で計測された3D点群データをもとに、サーバ200内の識別情報DB240を更新するまでの流れについて説明する。
サーバ200の3Dモデル生成部210は、MMS等で計測された3D点群データを受信し、3Dモデルを生成する(ステップST1001)。
3Dモデル生成部210は、生成した3Dモデルを3DモデルDB220に格納する(ステップST1002)。
3Dモデル識別情報抽出部230は、3DモデルDB220に格納された3Dモデル内の看板や標識、道路脇の距離標等から文字列等の識別情報を抽出し、図4の示すように、文字列と、その大きさと、文字列を有する看板などの位置情報とを、識別情報DB240に格納する(ステップST1003)。
First, the flow until the identification information DB 240 in the server 200 is updated based on 3D point cloud data measured by MMS or the like will be described with reference to FIG.
The 3D model generation unit 210 of the server 200 receives the 3D point cloud data measured by MMS or the like and generates a 3D model (step ST1001).
The 3D model generation unit 210 stores the generated 3D model in the 3D model DB 220 (step ST1002).
The 3D model identification information extraction unit 230 extracts identification information such as character strings from signboards and signs in the 3D model stored in the 3D model DB 220, distance markers on the side of the road, and the like, as shown in FIG. And its size and position information such as a signboard having a character string are stored in the identification information DB 240 (step ST1003).

次に、図7を用いて、ユーザが指定した位置周辺の識別情報をモバイル端末100内の識別情報DB160に格納するまでの流れ(第三のステップ)について説明する。
モバイル端末100の識別情報取得部150は、サーバ200の識別情報送信部250に、指定位置付近の識別情報を要求する(ステップST2001)。この指定位置は、GPS受信部190により受信された位置情報に基づき、指定するものとする。
識別情報送信部250は、識別情報DB240から指定された位置付近の識別情報を取得し、モバイル端末100の識別情報取得部150に送信する(ステップST2002)。
識別情報取得部150は、受信した識別情報を識別情報DB160に格納する(ステップST2003)。
Next, a flow (third step) until the identification information around the position designated by the user is stored in the identification information DB 160 in the mobile terminal 100 will be described with reference to FIG. 7.
The identification information acquisition unit 150 of the mobile terminal 100 requests the identification information transmission unit 250 of the server 200 for the identification information near the designated position (step ST2001). This designated position is designated based on the position information received by the GPS receiving unit 190.
The identification information transmission unit 250 acquires the identification information near the designated position from the identification information DB 240 and transmits it to the identification information acquisition unit 150 of the mobile terminal 100 (step ST2002).
Identification information acquisition section 150 stores the received identification information in identification information DB 160 (step ST2003).

次に、図8を用いて、モバイル端末100が、現場で自己位置推定を行う際の流れについて説明する。
モバイル端末100の画像撮影部120は、カメラ110を通じて、現在の場所の画像を撮影する(ステップST3001、第一のステップ)。
画像内識別情報抽出部140は、画像から看板、標識、距離標等に描かれた文字列等の識別情報、すなわち、文字列とその大きさを抽出する(ステップST3002、第二のステップ)。
識別情報比較部170は、画像内識別情報抽出部140によって抽出された識別情報と、識別情報DB160の識別情報とを比較し、対応する識別情報DB160の識別情報を特定する(ステップST3004、第四のステップ)。特定できた場合には、画面1301のカメラ映像を表示する領域1302の該当する文字列を強調表示する。
Next, the flow when the mobile terminal 100 performs self-position estimation on the spot will be described with reference to FIG.
The image capturing unit 120 of the mobile terminal 100 captures an image of the current location through the camera 110 (step ST3001, first step).
The in-image identification information extraction unit 140 extracts identification information such as a character string drawn on a signboard, a sign, a distance sign, or the like, that is, a character string and its size from the image (step ST3002, second step).
The identification information comparison unit 170 compares the identification information extracted by the in-image identification information extraction unit 140 with the identification information in the identification information DB 160, and identifies the corresponding identification information in the identification information DB 160 (step ST3004, fourth). Step). If the character string can be specified, the corresponding character string in the area 1302 for displaying the camera image on the screen 1301 is highlighted.

自己位置推定部180は、特定された識別情報DB160の識別情報の位置情報から自己位置を推定する(ステップST3005、第五のステップ)。
このとき、画像内識別情報抽出部140によって抽出された識別情報における文字列の大きさにより、この文字列までの距離を算出する。また、複数の文字列が特定された場合には、自己位置の方向も算出される。これらにより、自己位置を推定する。
すなわち、文字列を識別情報の特定に用い、文字列の大きさを距離の算出に用い、複数の文字列で自己位置の方向も算出する。
そして、推定した自己位置を、画面1301の領域1303の地図上に表示するとともに、正確な緯度経度を領域1304に表示する。
The self-position estimation unit 180 estimates the self-position from the position information of the identification information of the identified identification information DB 160 (step ST3005, fifth step).
At this time, the distance to the character string is calculated based on the size of the character string in the identification information extracted by the in-image identification information extraction unit 140. Moreover, when a plurality of character strings are specified, the direction of the self-position is also calculated. From these, the self-position is estimated.
That is, the character string is used to identify the identification information, the size of the character string is used to calculate the distance, and the direction of the self-position is calculated for the plurality of character strings.
Then, the estimated self-position is displayed on the map in the area 1303 of the screen 1301 and the accurate latitude and longitude are displayed in the area 1304.

実施の形態1によれば、MMS等で取得した3D点群データから抽出した看板、標識、距離標等に描かれた文字列等の識別情報と、カメラ画像内の識別情報との比較により、自己位置を推定するので、同じ形状の構造物が並ぶような場所でも高精度に自己位置を推定できるという効果がある。 According to the first embodiment, by comparing identification information such as a character string drawn on a signboard, a sign, a distance marker, etc. extracted from 3D point cloud data acquired by MMS, etc., with the identification information in the camera image, Since the self-position is estimated, there is an effect that the self-position can be estimated with high accuracy even in a place where structures having the same shape are lined up.

実施の形態2.
図9は、この発明の実施の形態2による自己位置推定システムを示すブロック図である。
図9において、100〜250は図1におけるものと同一のものである。図9では、モバイル端末100に、マンホールを検出することで、自己位置を推定する自己位置推定補完部181を設けている。
Embodiment 2.
FIG. 9 is a block diagram showing a self-position estimation system according to the second embodiment of the present invention.
9, 100 to 250 are the same as those in FIG. In FIG. 9, the mobile terminal 100 is provided with a self-position estimation complementing unit 181 that estimates a self-position by detecting a manhole.

実施の形態2は、実施の形態1に対し、図9に示すように、マンホールを検出することで、自己位置を推定する自己位置推定補完部181を追加したものである。 In the second embodiment, as shown in FIG. 9, a self-position estimation complementing unit 181 that estimates a self-position by detecting a manhole is added to the first embodiment.

以下、実施の形態2の動作について、図10を用いて説明する。
図10は、実施の形態1の図8のフローチャートに、マンホールによる自己位置推定の補完処理を追加したものである。
図10のステップST3001、3002、3004、3005は図8における処理と同一の処理である。図10では、ステップST3002の処理の後に、識別情報を抽出できたかどうかの判断処理(ステップST3003)を追加し、抽出できなかった場合に、ステップST3101とステップST3102の処理を追加している。
The operation of the second embodiment will be described below with reference to FIG.
FIG. 10 shows the flowchart of FIG. 8 according to the first embodiment to which a supplementary process of self-position estimation by a manhole is added.
Steps ST3001, 3002, 3004, and 3005 in FIG. 10 are the same as the processes in FIG. In FIG. 10, after the processing of step ST3002, a determination processing (step ST3003) of whether or not the identification information can be extracted is added, and when it cannot be extracted, the processing of steps ST3101 and ST3102 is added.

図10で、ステップST3002の処理に次いで、識別情報が抽出できたかどうかを判断し(ステップST3003)、抽出できなかった場合に、自己位置推定補完部181は、撮影画像からマンホールを検出する(ステップST3101)。
次いで、自己位置推定補完部181は、検出したマンホールの位置及びマンホールとの距離から自己位置を推定する(ステップST3102)。自己位置推定補完部181は、推定した自己位置を、画面1301の領域1303の地図上に表示するとともに、正確な緯度経度を領域1304に表示する。
なお、マンホールは、その位置が明確になっているものとする。
In FIG. 10, after the process of step ST3002, it is determined whether or not the identification information can be extracted (step ST3003), and if it cannot be extracted, the self-position estimation complementing unit 181 detects a manhole from the captured image (step). ST3101).
Next, the self-position estimation complementing unit 181 estimates the self-position from the detected position of the manhole and the distance to the manhole (step ST3102). The self-position estimation complementing unit 181 displays the estimated self-position on the map in the area 1303 of the screen 1301 and also displays the accurate latitude and longitude in the area 1304.
The position of the manhole shall be clear.

実施の形態2によれば、位置を識別できるマンホールを検出することにより、識別情報が少なく自己位置の推定が困難な場所が続いた場合でも、自己位置推定を継続できるという効果がある。 According to the second embodiment, by detecting a manhole whose position can be identified, there is an effect that the self-position estimation can be continued even when there is a place where the identification information is small and it is difficult to estimate the self-position.

実施の形態3.
図11は、この発明の実施の形態3による自己位置推定システムを示すブロック図である。
図11において、100〜250は図1におけるものと同一のものである。図11では、モバイル端末100に、モーションステレオにより、モバイル端末100の移動量を推定する自己位置推定補完部182を設けている。
Embodiment 3.
11 is a block diagram showing a self-position estimation system according to a third embodiment of the present invention.
11, 100 to 250 are the same as those in FIG. In FIG. 11, the mobile terminal 100 is provided with a self-position estimation complementing unit 182 that estimates the amount of movement of the mobile terminal 100 by motion stereo.

実施の形態3は、実施の形態1に対し、図11に示すように、モーションステレオにより、モバイル端末100の移動方向および移動量を推定する自己位置推定補完部182を追加したものである。 In the third embodiment, as shown in FIG. 11, a self-position estimation complementing unit 182 for estimating the moving direction and the moving amount of the mobile terminal 100 by motion stereo is added to the first embodiment.

以下、実施の形態3の動作について、図12を用いて説明する。
図12は、実施の形態1の図8のフローチャートに、連続するカメラ画像の変化量から移動量を推定する処理を追加したものである。
図12のステップST3001〜ステップST3005は、図10における処理と同一の処理である。図12では、ステップST3003で、識別情報を抽出できなかった場合の処理として、ステップST3201〜ステップST3203の処理を追加している。
The operation of the third embodiment will be described below with reference to FIG.
FIG. 12 is a flowchart obtained by adding the process of estimating the movement amount from the change amount of continuous camera images to the flowchart of FIG. 8 of the first embodiment.
Steps ST3001 to ST3005 in FIG. 12 are the same as the processes in FIG. In FIG. 12, the processes of steps ST3201 to ST3203 are added as the processes when the identification information cannot be extracted in step ST3003.

図12で、ステップST3102の処理に次いで、識別情報を抽出できたかどうかを判断し(ステップST3003)、抽出できなかった場合に、自己位置推定補完部182は、連続する2枚の撮影画像から対応する特徴点を抽出する(ステップST3201)。
次いで、自己位置推定補完部182は、抽出した特徴点の変化量(差分)から、モバイル端末100の移動方向および移動量を算出する(ステップST3202)。
次に、自己位置推定補完部182は、移動前の自己位置に基づき、ステップST3202で算出された移動方向および移動量から自己位置を推定する(ステップST3203)。自己位置推定補完部182は、推定した自己位置を、画面1301の領域1303の地図上に表示するとともに、正確な緯度経度を領域1304に表示する。
In FIG. 12, after the process of step ST3102, it is determined whether or not the identification information can be extracted (step ST3003), and if the identification information cannot be extracted, the self-position estimation complementing unit 182 responds from two consecutive captured images. The feature points to be extracted are extracted (step ST3201).
Next, the self-position estimation complementing unit 182 calculates the moving direction and the moving amount of the mobile terminal 100 from the extracted change amount (difference) of the feature points (step ST3202).
Next, the self-position estimation complementing unit 182 estimates the self-position from the movement direction and the movement amount calculated in step ST3202, based on the self-position before the movement (step ST3203). The self-position estimation complementing unit 182 displays the estimated self-position on the map in the area 1303 of the screen 1301 and also displays the accurate latitude and longitude in the area 1304.

実施の形態3によれば、カメラ画像内の特徴点の変化量から移動方向および移動量を算出して自己位置を推定することにより、周囲に識別情報が少なく識別情報から自己位置の推定が困難な場所が続いた場合でも、自己位置推定を継続できるという効果がある。 According to the third embodiment, the movement direction and the movement amount are calculated from the variation amount of the feature points in the camera image to estimate the self-position, so that there is little identification information around and it is difficult to estimate the self-position from the identification information. Even if there are many different places, self-position estimation can be continued.

実施の形態4.
図13は、この発明の実施の形態4による自己位置推定システムを示すブロック図である。
図13において、100〜250は図1におけるものと同一のものである。図13では、モバイル端末100に、加速度センサ111から計測した加速度と、ジャイロセンサ112から計測した角速度をもとに、モバイル端末100の移動方向および移動量を計算し、自己位置を推定する自己位置推定補完部183を設けている。
Fourth Embodiment
FIG. 13 is a block diagram showing a self-position estimation system according to Embodiment 4 of the present invention.
In FIG. 13, 100 to 250 are the same as those in FIG. In FIG. 13, the mobile terminal 100 calculates the moving direction and the moving amount of the mobile terminal 100 based on the acceleration measured by the acceleration sensor 111 and the angular velocity measured by the gyro sensor 112, and estimates the self-position. An estimation complementing unit 183 is provided.

実施の形態4は、実施の形態1に対し、図13に示すように、モバイル端末100に搭載されたセンサの計測値から移動方向および移動量を推定し、自己位置を推定する自己位置推定補完部183を追加したものである。 The fourth embodiment is different from the first embodiment in that, as shown in FIG. 13, a self-position estimation complement for estimating a moving direction and a moving amount from a measurement value of a sensor mounted on the mobile terminal 100 and estimating a self-position. The part 183 is added.

以下、実施の形態4の動作について、図14を用いて説明する。
図14は、実施の形態1の図8のフローチャートに、加速度センサ111から計測した加速度と、ジャイロセンサ112から計測した角速度をもとに、モバイル端末100の移動方向および移動量を計算し、自己位置を推定する処理を追加したものである。
図14のステップST3001〜ステップST3005は、図10における処理と同一の処理である。図14では、ステップST3003で、識別情報を抽出できなかった場合の処理として、ステップST3301とステップST3302の処理を追加している。
The operation of the fourth embodiment will be described below with reference to FIG.
FIG. 14 is a flowchart of FIG. 8 of the first embodiment, in which the moving direction and the moving amount of the mobile terminal 100 are calculated based on the acceleration measured by the acceleration sensor 111 and the angular velocity measured by the gyro sensor 112. This is the addition of processing for estimating the position.
Steps ST3001 to ST3005 of FIG. 14 are the same as the processes of FIG. In FIG. 14, the processes of step ST3301 and step ST3302 are added as the process when the identification information cannot be extracted in step ST3003.

図14で、ステップST3102の処理に次いで、識別情報を抽出できたかどうかを判断し(ステップST3003)、抽出できなかった場合に、自己位置推定補完部183は、加速度センサ111から加速度、ジャイロセンサ112から角速度を計測し、モバイル端末100の移動方向および移動量を算出する(ステップST3301)。
次いで、自己位置推定補完部183は、移動前の自己位置に基づき、算出した移動方向および移動量から自己位置を推定する(ステップST3302)。自己位置推定補完部183は、推定した自己位置を、画面1301の領域1303の地図上に表示するとともに、正確な緯度経度を領域1304に表示する。
In FIG. 14, subsequent to the process of step ST3102, it is determined whether or not the identification information can be extracted (step ST3003). Then, the angular velocity is measured to calculate the moving direction and the moving amount of the mobile terminal 100 (step ST3301).
Next, the self-position estimation complementing unit 183 estimates the self-position from the calculated movement direction and movement amount based on the self-position before the movement (step ST3302). The self-position estimation complementing unit 183 displays the estimated self-position on the map in the area 1303 of the screen 1301 and also displays the accurate latitude and longitude in the area 1304.

実施の形態4によれば、モバイル端末に搭載されたセンサ類の計測値から移動方向および移動量を算出し、自己位置を推定することにより、周囲に識別情報が少なく識別情報から自己位置の推定が困難な場所が続いた場合でも、自己位置推定を継続できるという効果がある。 According to the fourth embodiment, the movement direction and the movement amount are calculated from the measurement values of the sensors mounted on the mobile terminal, and the self-position is estimated, so that there is little identification information in the surroundings and the self-position is estimated from the identification information. Even if there is a difficult place to continue, the self-position estimation can be continued.

実施の形態5.
図15は、この発明の実施の形態5による自己位置推定システムを示すブロック図である。
図15において、100〜140、200〜240は図1におけるものと同一のものである。図15では、モバイル端末100に、自己位置推定をサーバ200に要求する自己位置推定要求部184を設けている。また、サーバ200に、画像から抽出した識別情報と識別情報DB240(識別情報データベース)が保持する識別情報とを比較し、識別情報の対応付けを行なう識別情報比較部260と、対応付けられた識別情報からモバイル端末100の位置を推定する端末位置推定部270とを設けている。
Embodiment 5.
FIG. 15 is a block diagram showing a self-position estimation system according to the fifth embodiment of the present invention.
15, 100 to 140 and 200 to 240 are the same as those in FIG. In FIG. 15, the mobile terminal 100 is provided with a self-position estimation requesting unit 184 that requests the server 200 to perform self-position estimation. Further, in the server 200, the identification information extracted from the image is compared with the identification information held in the identification information DB 240 (identification information database), and the identification information is compared with the identification information comparison unit 260 that associates the identification information. A terminal position estimation unit 270 that estimates the position of the mobile terminal 100 from the information is provided.

実施の形態5は、実施の形態1に対し、図15に示すように、識別情報比較部と自己位置推定部を、モバイル端末100からサーバ200に移動したものである。 The fifth embodiment differs from the first embodiment in that the identification information comparing unit and the self-position estimating unit are moved from the mobile terminal 100 to the server 200, as shown in FIG.

以下、実施の形態5の動作について、図16を用いて説明する。
図16は、実施の形態1の図8のフローチャートに対し、カメラ画像から現在の場所の識別情報を抽出した後の識別情報の比較処理と、自己位置推定処理をサーバ200で実施する流れに変更したものである。
図16のステップST3001、ステップST3002は、図8における処理と同一の処理である。図16では、ステップST3002の次の処理として、ステップST3401〜ステップST3405の処理を追加している。このうち、ステップST3402〜ステップST3405の処理は、サーバ200の処理である。
The operation of the fifth embodiment will be described below with reference to FIG.
16 is different from the flowchart of FIG. 8 of the first embodiment in that the identification information comparison processing after extracting the identification information of the current location from the camera image and the self-position estimation processing are performed by the server 200. It was done.
Steps ST3001 and ST3002 in FIG. 16 are the same as the processes in FIG. In FIG. 16, the processes of steps ST3401 to ST3405 are added as processes subsequent to step ST3002. Of these, the processes of steps ST3402 to ST3405 are processes of the server 200.

図16で、モバイル端末100の自己位置推定要求部184は、サーバ200の端末位置推定部270に、自己位置推定を要求する(ステップST3401)。このとき、自己位置推定要求部184は、画像内識別情報抽出部140によって抽出された識別情報をサーバ200の端末位置推定部270に送る。
サーバ200の端末位置推定部270は、識別情報比較部260に識別情報の比較を要求する(ステップST3402)。
識別情報比較部260は、モバイル端末100から送られた識別情報(指定された識別情報)と識別情報DB240の識別情報とを比較し、モバイル端末100から送られた識別情報に対応する識別情報DB240の識別情報を特定する(ステップST3403)。
In FIG. 16, self-position estimation requesting section 184 of mobile terminal 100 requests self-position estimation to terminal position estimating section 270 of server 200 (step ST3401). At this time, the self-position estimation requesting unit 184 sends the identification information extracted by the in-image identification information extracting unit 140 to the terminal position estimating unit 270 of the server 200.
The terminal position estimation unit 270 of the server 200 requests the identification information comparison unit 260 to compare the identification information (step ST3402).
The identification information comparison unit 260 compares the identification information (designated identification information) sent from the mobile terminal 100 with the identification information in the identification information DB 240, and the identification information DB 240 corresponding to the identification information sent from the mobile terminal 100. The identification information of is identified (step ST3403).

端末位置推定部270は、特定された識別情報と、識別情報DB240の位置情報からモバイル端末100の位置を推定する(ステップST3404)。
次いで、端末位置推定部270は、自己位置推定要求部184に推定結果を送信する(ステップST3405)。この送信される推定結果には、画面表示部130で表示するための画面表示情報が含まれる。自己位置推定要求部184は、推定された自己位置を、画面1301の領域1303の地図上に表示するとともに、正確な緯度経度を領域1304に表示する。
Terminal position estimation section 270 estimates the position of mobile terminal 100 from the identified identification information and the location information in identification information DB 240 (step ST3404).
Next, terminal position estimating section 270 transmits the estimation result to self-position estimation requesting section 184 (step ST3405). The transmitted estimation result includes screen display information to be displayed on the screen display unit 130. The self-position estimation requesting unit 184 displays the estimated self-position on the map in the area 1303 of the screen 1301 and also displays the accurate latitude and longitude in the area 1304.

実施の形態5によれば、識別情報の比較処理をサーバで行うことにより、事前にモバイル端末へのサーバの識別情報DBからの識別情報の送信が不要となることで、作業時間を削減できる効果がある。
また、演算能力の高いサーバで、識別情報比較処理を行うことで、自己位置推定時間が短縮できるという効果がある。
According to the fifth embodiment, by performing the comparison process of the identification information on the server, it is not necessary to transmit the identification information from the identification information DB of the server to the mobile terminal in advance, and thus the working time can be reduced. There is.
In addition, by performing the identification information comparison processing on the server having high computing power, there is an effect that the self-position estimation time can be shortened.

なお、本発明は、その発明の範囲内において、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略することが可能である。 It should be noted that, in the present invention, the respective embodiments can be freely combined, or the respective embodiments can be appropriately modified or omitted within the scope of the invention.

11 CPU、12 ROM、13 RAM、14 フラッシュメモリ、15 表示装置、
21 CPU、22 ROM、23 RAM、24 HDD、
100 モバイル端末、110 カメラ、111 加速度センサ、
112 ジャイロセンサ、120 画像撮影部、130 画面表示部、
140 画像内識別情報抽出部、150 識別情報取得部、160 識別情報DB、
170 識別情報比較部、180 自己位置推定部、181 自己位置推定補完部、
182 自己位置推定補完部、183 自己位置推定補完部、
184 自己位置推定要求部、190 GPS受信部、200 サーバ、
210 3Dモデル生成部、220 3DモデルDB、
230 3Dモデル識別情報抽出部、240 識別情報DB、250 識別情報送信部、260 識別情報比較部、270 端末位置推定部
11 CPU, 12 ROM, 13 RAM, 14 flash memory, 15 display device,
21 CPU, 22 ROM, 23 RAM, 24 HDD,
100 mobile terminal, 110 camera, 111 acceleration sensor,
112 gyro sensor, 120 image capturing unit, 130 screen display unit,
140 identification information extraction unit in image, 150 identification information acquisition unit, 160 identification information DB,
170 identification information comparing unit, 180 self position estimating unit, 181 self position estimating complementing unit,
182 self-position estimation complementing unit, 183 self-position estimation complementing unit,
184 self-position estimation requesting unit, 190 GPS receiving unit, 200 server,
210 3D model generation unit, 220 3D model DB,
230 3D model identification information extraction unit, 240 identification information DB, 250 identification information transmission unit, 260 identification information comparison unit, 270 terminal position estimation unit

Claims (10)

カメラによって画像を撮影する画像撮影部、
この画像撮影部により撮影された画像内の識別情報を抽出する識別情報抽出部、
予め作成された位置情報を含む識別情報を有するサーバから、上記識別情報を取得する識別情報取得部、
上記識別情報抽出部により抽出された識別情報と、上記識別情報取得部により上記サーバから取得された識別情報とを比較し、両識別情報を対応付ける識別情報比較部、
およびこの識別情報比較部により対応付けられた識別情報に基づき、自己位置を推定する自己位置推定部を備え、
上記識別情報は、文字列および上記文字列の大きさを有し、
上記自己位置推定部は、自己位置の推定に当たって、上記対応付けられた識別情報の上記文字列の大きさに基づき、当該文字列から自己位置までの距離を算出し、複数の文字列を用いて自己位置の方向を算出することを特徴とするモバイル端末。
An image capturing unit that captures images with a camera,
An identification information extraction unit that extracts identification information in the image captured by the image capturing unit,
An identification information acquisition unit that acquires the identification information from a server that has identification information including position information created in advance,
The identification information extracted by the identification information extraction unit and the identification information acquired from the server by the identification information acquisition unit are compared, and an identification information comparison unit that associates both identification information with each other,
And a self-position estimation unit that estimates the self-position based on the identification information associated by this identification information comparison unit,
The identification information has a character string and the size of the character string,
In estimating the self-position , the self -position estimating unit calculates the distance from the character string to the self-position based on the size of the character string of the associated identification information, and uses a plurality of character strings. A mobile terminal that calculates the direction of its own position .
上記画像撮影部によって撮影された画像から、道路上のマンホールを認識し、このマンホールの位置によって自己位置を推定することにより、上記自己位置推定部による推定を補完する自己位置推定補完部を備えたことを特徴とする請求項1に記載のモバイル端末。 A self-position estimation complementing unit that complements the estimation by the self-position estimating unit by recognizing a manhole on the road from the image captured by the image capturing unit and estimating the self-position by the position of the manhole is provided. The mobile terminal according to claim 1, wherein the mobile terminal is a mobile terminal. 上記画像撮影部により直前に撮影された画像と現在の画像との差分から上記モバイル端末の移動方向および移動量を算出し、この移動方向および移動量によって自己位置を推定することにより、上記自己位置推定部による推定を補完する自己位置推定補完部を備えたことを特徴とする請求項1に記載のモバイル端末。 By calculating the moving direction and the moving amount of the mobile terminal from the difference between the image captured immediately before by the image capturing unit and the current image, and estimating the self-position based on the moving direction and the moving amount, the self-position is calculated. The mobile terminal according to claim 1, further comprising a self-position estimation complementing unit that complements the estimation by the estimating unit. 上記モバイル端末に搭載されたセンサ類の計測値から上記モバイル端末の移動方向および移動量を推定し、この移動方向および移動量によって自己位置を推定することにより、上記自己位置推定部による推定を補完する自己位置推定補完部を備えたことを特徴とする請求項1に記載のモバイル端末。 The movement direction and the movement amount of the mobile terminal are estimated from the measurement values of the sensors mounted on the mobile terminal, and the self-position is estimated by the movement direction and the movement amount to complement the estimation by the self-position estimation unit. The mobile terminal according to claim 1, further comprising: a self-position estimation complementing unit. 上記画像撮影部により撮影された画像を表示するとともに、上記識別情報比較部により上記両識別情報が対応付けられた場合に、上記表示された画像上の当該識別情報を強調表示する表示部を備えたことを特徴とする請求項1から請求項4のいずれか一項に記載のモバイル端末。 The image capturing unit displays an image captured by the image capturing unit, and includes a display unit that highlights the identification information on the displayed image when the identification information comparing unit associates the identification information with each other. The mobile terminal according to claim 1, wherein the mobile terminal is a mobile terminal. 上記表示部は、上記自己位置推定部により推定された自己位置を、上記画像の表示領域とは別の画面領域に表示することを特徴とする請求項5に記載のモバイル端末。 The mobile terminal according to claim 5, wherein the display unit displays the self-position estimated by the self-position estimation unit in a screen area different from the display area of the image. 請求項1から請求項6のいずれか一項に記載のモバイル端末、
および予め作成された位置情報を含む識別情報を格納した識別情報データベースを有するサーバを備えたことを特徴とする自己位置推定システム。
The mobile terminal according to any one of claims 1 to 6,
And a self-position estimation system comprising a server having an identification information database storing identification information including previously created position information.
上記サーバは、
別途計測された3D点群データから3Dモデルを生成する3Dモデル生成部と、
この3Dモデル生成部により生成された3Dモデルから、位置情報を含む識別情報を抽出する3Dモデル識別情報抽出部とを有し、
上記識別情報データベースは、上記3Dモデル識別情報抽出部により抽出された識別情報を格納していることを特徴とする請求項7に記載の自己位置推定システム。
The server is
A 3D model generation unit that generates a 3D model from the separately measured 3D point cloud data;
And a 3D model identification information extraction unit that extracts identification information including position information from the 3D model generated by the 3D model generation unit,
The self-position estimation system according to claim 7, wherein the identification information database stores the identification information extracted by the 3D model identification information extraction unit.
別途計測された3D点群データから3Dモデルを生成する3Dモデル生成部、
この3Dモデル生成部により生成された3Dモデルから、位置情報を含む識別情報を抽出する3Dモデル識別情報抽出部、
この3Dモデル識別情報抽出部により抽出された識別情報を格納した識別情報データベース、
モバイル端末から送信される識別情報と、上記識別情報データベースに格納された識別情報とを比較し、両識別情報を対応付ける識別情報比較部、
およびこの識別情報比較部により対応付けられた識別情報に基づき、上記モバイル端末の位置を推定する端末位置推定部を備え、
上記識別情報は、文字列および上記文字列の大きさを有し、
上記端末位置推定部は、上記モバイル端末の位置の推定に当たって、上記対応付けられた識別情報の上記文字列の大きさに基づき、当該文字列から上記モバイル端末までの距離を算出し、複数の文字列を用いて上記モバイル端末の方向を算出することを特徴とするサーバ。
A 3D model generation unit that generates a 3D model from separately measured 3D point cloud data,
A 3D model identification information extraction unit that extracts identification information including position information from the 3D model generated by the 3D model generation unit,
An identification information database storing the identification information extracted by the 3D model identification information extraction unit,
An identification information comparison unit that compares the identification information transmitted from the mobile terminal with the identification information stored in the identification information database, and associates the two pieces of identification information with each other.
And a terminal position estimation unit that estimates the position of the mobile terminal based on the identification information associated by the identification information comparison unit,
The identification information has a character string and the size of the character string,
In estimating the position of the mobile terminal , the terminal position estimation unit calculates the distance from the character string to the mobile terminal based on the size of the character string of the associated identification information, and calculates a plurality of characters. A server, characterized in that the direction of the mobile terminal is calculated using a sequence .
画像撮影部が、カメラによって画像を撮影する第一のステップ、
識別情報抽出部が、上記第一のステップにより撮影された画像内の識別情報を抽出する第二のステップ、
予め作成された位置情報を含む識別情報を有するサーバから、識別情報取得部により上記識別情報を取得する第三のステップ、
識別情報比較部が、上記第二のステップにより抽出された識別情報と、上記第三のステップにより上記サーバから取得された識別情報とを比較し、両識別情報を対応付ける第四のステップ、
および自己位置推定部が、上記第四のステップにより対応付けられた識別情報に基づき、自己位置を推定する第五のステップを含み、
上記識別情報は、文字列および上記文字列の大きさを有し、
上記第五のステップは、自己位置の推定に当たって、上記対応付けられた識別情報の上記文字列の大きさに基づき、当該文字列から自己位置までの距離を算出し、複数の文字列を用いて自己位置の方向を算出することを特徴とする自己位置推定方法。
The first step in which the image capturing section captures an image with the camera,
The identification information extraction unit, a second step of extracting the identification information in the image captured by the first step,
A third step of acquiring the identification information by the identification information acquisition unit from the server having the identification information including the position information created in advance,
The identification information comparing unit compares the identification information extracted in the second step with the identification information acquired from the server in the third step, and a fourth step of associating both identification informations,
And the self-position estimation unit includes a fifth step of estimating the self-position based on the identification information associated by the fourth step,
The identification information has a character string and the size of the character string,
The fifth step, in estimating the self position , based on the size of the character string of the associated identification information, calculates the distance from the character string to the self position, using a plurality of character strings A method for estimating a self-position , comprising calculating the direction of the self-position.
JP2016104808A 2016-05-26 2016-05-26 Mobile terminal, self-position estimation system using the same, server and self-position estimation method Active JP6727032B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016104808A JP6727032B2 (en) 2016-05-26 2016-05-26 Mobile terminal, self-position estimation system using the same, server and self-position estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016104808A JP6727032B2 (en) 2016-05-26 2016-05-26 Mobile terminal, self-position estimation system using the same, server and self-position estimation method

Publications (2)

Publication Number Publication Date
JP2017211284A JP2017211284A (en) 2017-11-30
JP6727032B2 true JP6727032B2 (en) 2020-07-22

Family

ID=60475405

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016104808A Active JP6727032B2 (en) 2016-05-26 2016-05-26 Mobile terminal, self-position estimation system using the same, server and self-position estimation method

Country Status (1)

Country Link
JP (1) JP6727032B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6842493B2 (en) * 2019-04-09 2021-03-17 エヌ・ティ・ティ・インフラネット株式会社 Map data update device, map data update method, map data generation method, map data update program

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09178497A (en) * 1995-12-26 1997-07-11 Aisin Aw Co Ltd Navigation device for vehicle
JPH10320464A (en) * 1997-05-16 1998-12-04 Hitachi Ltd Portable device for collecting disaster information
JP4807263B2 (en) * 2006-09-14 2011-11-02 トヨタ自動車株式会社 Vehicle display device
JP2009180631A (en) * 2008-01-31 2009-08-13 Denso It Laboratory Inc Navigator, navigation method and program
JP4871909B2 (en) * 2008-04-25 2012-02-08 日立オートモティブシステムズ株式会社 Object recognition apparatus and object recognition method
JP2011150687A (en) * 2009-12-25 2011-08-04 Ricoh Co Ltd Three-dimensional object identifying apparatus, moving body control apparatus equipped with the same, and information providing apparatus
US8791996B2 (en) * 2010-03-31 2014-07-29 Aisin Aw Co., Ltd. Image processing system and position measurement system
JP5795278B2 (en) * 2012-03-26 2015-10-14 株式会社ゼンリンデータコム Navigation device, autonomous navigation support method, and autonomous navigation support program

Also Published As

Publication number Publication date
JP2017211284A (en) 2017-11-30

Similar Documents

Publication Publication Date Title
CN108694882B (en) Method, device and equipment for labeling map
US10134196B2 (en) Mobile augmented reality system
JP6532412B2 (en) Self-position estimation system, self-position estimation method, mobile terminal, server and self-position estimation program
US9874454B2 (en) Community-based data for mapping systems
JP6950832B2 (en) Position coordinate estimation device, position coordinate estimation method and program
US9583074B2 (en) Optimization of label placements in street level images
JP6759175B2 (en) Information processing equipment and information processing system
EP2672401A1 (en) Method and apparatus for storing image data
JP2015055534A (en) Information processing apparatus, control program thereof, and control method thereof
CN111536990A (en) On-line external reference mis-calibration detection between sensors
KR102622585B1 (en) Indoor navigation apparatus and method
KR102463698B1 (en) System and method for building a location information database of road sign, apparatus and method for estimating location of vehicle using the same
KR100878781B1 (en) Method for surveying which can measure structure size and coordinates using portable terminal
CN107003385B (en) Tagging visual data with wireless signal information
JPWO2016031229A1 (en) Road map creation system, data processing device and in-vehicle device
JP2014009993A (en) Information processing system, information processing device, server, terminal device, information processing method, and program
JP6727032B2 (en) Mobile terminal, self-position estimation system using the same, server and self-position estimation method
JP2014075714A (en) Positioning method, positioning system, and program thereof
JP5837404B2 (en) Image processing apparatus and image processing method
JPWO2013146582A1 (en) Position determination system, position determination method, computer program, and position determination apparatus
JP6546940B2 (en) Orientation estimation device, photographing / map display device, method, and program
CN111964685A (en) Method and system for creating a positioning map for a vehicle
KR100878780B1 (en) System for surveying which can measure structure size and coordinates using portable terminal
KR102586175B1 (en) Apparatus for visualizing the result of detecting pothole in aerial image based on deep-learning and method thereof
JP7117408B1 (en) POSITION CALCULATION DEVICE, PROGRAM AND POSITION CALCULATION METHOD

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191016

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20191016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200402

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200630

R151 Written notification of patent or utility model registration

Ref document number: 6727032

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250