JP2013160566A - Positioning device and positioning program - Google Patents

Positioning device and positioning program Download PDF

Info

Publication number
JP2013160566A
JP2013160566A JP2012021204A JP2012021204A JP2013160566A JP 2013160566 A JP2013160566 A JP 2013160566A JP 2012021204 A JP2012021204 A JP 2012021204A JP 2012021204 A JP2012021204 A JP 2012021204A JP 2013160566 A JP2013160566 A JP 2013160566A
Authority
JP
Japan
Prior art keywords
map
moving body
positioning
sensing result
polygon
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012021204A
Other languages
Japanese (ja)
Inventor
Takemoto Wakuta
雄基 湧田
Ken Sakamura
健 坂村
Noboru Koshizuka
登 越塚
Tomoyuki Asano
智之 淺野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
YOKOSUKA TELECOM RES PARK KK
Yokosuka Telecom Research Park Inc
Original Assignee
YOKOSUKA TELECOM RES PARK KK
Yokosuka Telecom Research Park Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by YOKOSUKA TELECOM RES PARK KK, Yokosuka Telecom Research Park Inc filed Critical YOKOSUKA TELECOM RES PARK KK
Priority to JP2012021204A priority Critical patent/JP2013160566A/en
Publication of JP2013160566A publication Critical patent/JP2013160566A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a positioning device, a memory device, and a positioning program which are capable of precisely estimating a position of a mobile without arranging a device in a space in which the mobile moves.SOLUTION: A positioning device 100a includes a dead reckoning unit 120 which estimates a position of a user 200 on a map on the basis of a sensing result by a sensor device 110 for estimating a position of a user 200, a database unit 130 which associates the sensing result with the position on the map and stores the sensing result in advance, and a correction unit 140 which corrects the position of the user 200 estimated by the dead reckoning unit 120 so as to match the position on the map associated with the sensing result.

Description

本発明は、移動体の位置を推定する測位装置及び測位プログラムに関する。   The present invention relates to a positioning device and a positioning program for estimating the position of a moving object.

人が移動する空間に配置されたセンサを用いて、その人の位置を推定する技術がある。特許文献1及び2には、高周波信号を利用した測位システムにおいて、複数の周波数帯域を切替えながら測位する技術、及び、複数の環境設置型アクティブタグを利用して位置及び方向を推定する手段が開示されている。   There is a technique for estimating the position of a person using a sensor arranged in a space where the person moves. Patent Documents 1 and 2 disclose a technique for positioning while switching a plurality of frequency bands in a positioning system using a high-frequency signal, and a means for estimating a position and a direction using a plurality of environment-installed active tags. Has been.

国際公開第1999/060338号International Publication No. 1999/060338 特開2000−549909号公報JP 2000-549909 A

特許文献1及び2に開示された測位システム(測位装置)では、人が移動する空間に配置された、グローバル・ポジショニング・システム(Global Positioning System:GPS)、RFID(Radio Frequency IDentification)タグ、Wi−Fi(登録商標)装置、Bluetooth(登録商標)装置等を用いて、人の位置を推定することを想定している。   In the positioning system (positioning device) disclosed in Patent Documents 1 and 2, a global positioning system (GPS), an RFID (Radio Frequency IDentification) tag, and a Wi- It is assumed that the position of a person is estimated using a Fi (registered trademark) device, a Bluetooth (registered trademark) device, or the like.

しかしながら、これらの装置等を配置することができない空間は、多く存在する。例えば、GPSは、地下及び屋内では衛星からの電波を受信することができず、利用することができない。また、例えば、RFIDタグ、Wi−Fi(登録商標)装置、Bluetooth(登録商標)装置等が配置されていない屋内空間も、多く存在する。このように、特許文献1及び2に開示された測位装置は、移動体が移動する空間に装置を配置しなければ、その移動体の位置を推定することができないという問題がある。   However, there are many spaces where these devices cannot be arranged. For example, GPS cannot receive radio waves from satellites in the basement and indoors and cannot be used. In addition, for example, there are many indoor spaces in which RFID tags, Wi-Fi (registered trademark) devices, Bluetooth (registered trademark) devices, and the like are not arranged. As described above, the positioning devices disclosed in Patent Documents 1 and 2 have a problem that the position of the moving body cannot be estimated unless the device is arranged in a space in which the moving body moves.

本発明は、前記の点に鑑みてなされたものであり、移動体が移動する空間に装置を配置することなく、その移動体の位置を高精度に推定することができる測位装置及び測位プログラムを提供することを目的とする。   The present invention has been made in view of the above points, and provides a positioning device and a positioning program capable of estimating the position of a moving body with high accuracy without arranging the apparatus in a space in which the moving body moves. The purpose is to provide.

本発明は、上記の課題を解決するためになされたものであり、移動体の位置を推定するためのセンサデバイスによるセンシング結果に基づいて、前記移動体の位置を推定するデッドレコニング部と、前記センシング結果を、地図上の位置に対応付けて予め記憶する記憶部と、前記デッドレコニング部により推定された前記地図上の移動体の位置を、前記センシング結果に対応付けられた前記地図上の位置に一致するよう補正する補正部と、を備えることを特徴とする測位装置である。   The present invention has been made to solve the above problem, and based on a sensing result by a sensor device for estimating the position of the moving body, a dead reckoning unit that estimates the position of the moving body, A storage unit that stores a sensing result in advance in association with a position on a map, and a position on the map that is associated with the sensing result, the position of the moving body on the map estimated by the dead reckoning unit. And a correction unit that corrects the signal so as to coincide with the positioning device.

また、本発明は、前記補正部が、前記センシング結果の取り得る確率に基づいて、前記取り得る確率が高い前記センシング結果に対応付けられた前記地図上の位置に一致するよう、前記地図上の移動体の位置を補正することを特徴とする測位装置である。   Further, the present invention provides the correction unit on the map so that the correction unit matches the position on the map associated with the sensing result having a high probability of being taken, based on the probability that the sensing result can be taken. It is a positioning device characterized by correcting the position of a moving body.

また、本発明は、前記記憶部が、前記移動体の位置に影響する対象の前記地図上の位置に対応付けて、前記センシング結果を予め記憶することを特徴とする測位装置である。   Further, the present invention is the positioning device, wherein the storage unit stores the sensing result in advance in association with a position on the map of a target that affects the position of the moving body.

また、本発明は、前記記憶部が、前記地図として、ネットワーク型の地図と、ポリゴン型の地図と、前記移動体の位置に応じた前記センシング結果と、を予め記憶することを特徴とする測位装置である。   Further, in the present invention, the storage unit stores in advance, as the map, a network type map, a polygon type map, and the sensing result corresponding to the position of the moving body. Device.

また、本発明は、前記記憶部が、ネットワークの幾何構造の形状情報を含む前記ネットワーク型の地図を、予め記憶することを特徴とする測位装置である。   Further, the present invention is the positioning device, wherein the storage unit stores in advance the network type map including shape information of the geometric structure of the network.

また、本発明は、前記記憶部が、ネットワークの幾何構造を構成する点として、識別子が付与される点と、識別子が付与されない点と、を含む前記ネットワーク型の地図を、予め記憶することを特徴とする測位装置である。   In the present invention, the storage unit stores in advance the network type map including a point to which an identifier is assigned and a point to which no identifier is assigned as points constituting the geometric structure of the network. This is a characteristic positioning device.

また、本発明は、前記センサデバイスが、加速度、速度、角速度、温度、湿度、画像、圧力、磁界強度、電界強度、方角、空気振動、姿勢、光量及び輝度のうち、少なくとも一つをセンシングすることを特徴とする測位装置である。   In the present invention, the sensor device senses at least one of acceleration, velocity, angular velocity, temperature, humidity, image, pressure, magnetic field strength, electric field strength, direction, air vibration, posture, light quantity, and luminance. This is a positioning device.

また、本発明は、前記デッドレコニング部により推定された前記移動体の第1位置と、前記移動体を測位する測位部により推定された前記移動体の第2位置と、を統合する統合部を備え、前記補正部が、前記統合部により統合された前記地図上の移動体の位置を、前記センシング結果に対応付けられた前記地図上の位置に一致するよう補正することを特徴とする測位装置である。   Further, the present invention provides an integration unit that integrates the first position of the moving object estimated by the dead reckoning unit and the second position of the moving object estimated by the positioning unit that positions the moving object. And the correction unit corrects the position of the moving body on the map integrated by the integration unit so as to coincide with the position on the map associated with the sensing result. It is.

また、本発明は、コンピュータに、移動体の位置を推定するためのセンサデバイスによるセンシング結果に基づいて、前記移動体の位置を推定する手順と、推定された地図上の前記移動体の位置を、前記センシング結果に対応付けられた前記地図上の位置に一致するよう補正する手順と、を実行させるための測位プログラムである。   Further, the present invention provides a computer with a procedure for estimating the position of the moving object based on a sensing result by a sensor device for estimating the position of the moving object, and the estimated position of the moving object on a map. And a procedure for correcting the position so as to match the position on the map associated with the sensing result.

本発明によれば、補正部は、推定された地図上の移動体の位置を、センシング結果に対応付けられた地図上の位置に補正する。これにより、測位装置は、移動体が移動する空間に装置を配置することなく、その移動体の位置を高精度に推定することができる。   According to the present invention, the correction unit corrects the estimated position of the moving body on the map to the position on the map associated with the sensing result. Thereby, the positioning apparatus can estimate the position of the moving body with high accuracy without arranging the apparatus in the space in which the moving body moves.

本発明の第1実施形態における、測位装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the positioning apparatus in 1st Embodiment of this invention. 本発明の第1実施形態における、ノード及びリンクが配置された地図の例である。It is an example of the map by which the node and link in 1st Embodiment of this invention are arrange | positioned. 本発明の第1実施形態における、ノード、リンク及びアークが配置された地図の例である。It is an example of the map by which the node, link, and arc in 1st Embodiment of this invention are arrange | positioned. 本発明の第1実施形態における、空間ポリゴンが配置された地図の例である。It is an example of the map in which the spatial polygon is arrange | positioned in 1st Embodiment of this invention. 本発明の第1実施形態における、歩行空間ポリゴン及び障壁ポリゴンが配置された地図の例である。It is an example of the map in which the walking space polygon and the barrier polygon are arrange | positioned in 1st Embodiment of this invention. 本発明の第1実施形態における、歩行空間ポリゴン、障壁ポリゴン、及びオブジェクトポリゴンが配置された地図の例である。It is an example of the map in which the walking space polygon, the barrier polygon, and the object polygon are arrange | positioned in 1st Embodiment of this invention. 本発明の第2実施形態における、測位装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the positioning apparatus in 2nd Embodiment of this invention.

[第1実施形態]
本発明の第1実施形態について図面を参照して詳細に説明する。以下、移動体(例えば、歩行者、車椅子、車両)は、一例として、歩行者であるものとして説明をする。また、以下、歩行者の状態(例えば、歩行者の位置、姿勢、行動、速度、方角)、及び、歩行者の位置に影響を及ぼす周辺環境(例えば、現在時刻、階段)を、「歩行者コンテキスト」という。
[First Embodiment]
A first embodiment of the present invention will be described in detail with reference to the drawings. Hereinafter, a mobile body (for example, a pedestrian, a wheelchair, a vehicle) will be described as an example of a pedestrian. In addition, hereinafter, the pedestrian state (for example, the position, posture, behavior, speed, direction) of the pedestrian and the surrounding environment (for example, current time, stairs) that affects the position of the pedestrian are referred to as “pedestrian. Context.

また、以下、移動体の位置を推定することを、「測位」という。また、以下、移動体の現在の状態及びその履歴を活用して、移動体の位置を推定する測位手法を、「デッドレコニング」という。また、以下、センシング結果に応じてセンサデバイスから出力される値を、「センサ値」という。また、以下、センサデバイスが出力するセンサ値がどの程度信用できるかという指標(センサ値の精度情報)を、「センサ信頼度」という。また、以下、測位結果がどの程度信頼できるかという指標(測位結果の精度情報)を、「測位信頼度」という。また、以下、センサ値の誤差情報を、「センサ精度」という。また、以下、測位結果としての位置の誤差情報を、「測位精度」という。   Hereinafter, estimating the position of the moving object is referred to as “positioning”. Hereinafter, a positioning method for estimating the position of the moving object using the current state of the moving object and its history is referred to as “dead reckoning”. Hereinafter, a value output from the sensor device according to the sensing result is referred to as a “sensor value”. Hereinafter, an index (sensor value accuracy information) indicating how reliable the sensor value output by the sensor device is referred to as “sensor reliability”. Hereinafter, an index of how reliable the positioning result is (positioning result accuracy information) is referred to as “positioning reliability”. Hereinafter, the error information of the sensor value is referred to as “sensor accuracy”. Hereinafter, the position error information as the positioning result is referred to as “positioning accuracy”.

また、以下、デッドレコニングなどの位置推定(位置認識)に用いられる値を、「パラメータ」という。また、以下、値の補正(測位結果又は位置推定に用いられるパラメータの補正、又は、アクティブタグなど測位精度の高い方式を併用した位置の補正)を、「キャリブレーション」という。   Hereinafter, a value used for position estimation (position recognition) such as dead reckoning is referred to as a “parameter”. Hereinafter, correction of a value (correction of a positioning result or a parameter used for position estimation, or correction of a position using a high positioning accuracy method such as an active tag) is referred to as “calibration”.

また、以下、移動体が保持するセンサデバイスを用いる測位手法を、「自律航行型測位(自律航法、推測航法)」という。ここで、自律航行型測位には、移動体が保持するセンサデバイスと、移動体が移動する空間に配置された装置(例えば、アクティブタグ)とを両方用いる測位手法も含まれる。   Hereinafter, the positioning method using the sensor device held by the moving body is referred to as “autonomous navigation type positioning (autonomous navigation, dead reckoning navigation)”. Here, the autonomous navigation type positioning includes a positioning method using both a sensor device held by the moving body and a device (for example, an active tag) arranged in a space in which the moving body moves.

まず、測位装置の構成例を説明する。
図1には、測位装置の構成例が、ブロック図により示されている。測位装置100aは、歩行者としてのユーザ200に保持されることで、ユーザ200と共に移動する。測位装置100aは、ユーザ200が移動する空間に他の測位装置が配置されていない場合でも、自装置のデッドレコニング(自律航行型測位)による位置推定結果と地図情報とを照合することで、ユーザ200の位置を高精度に推定することができる。
First, a configuration example of the positioning device will be described.
FIG. 1 is a block diagram showing a configuration example of a positioning device. The positioning device 100a moves with the user 200 by being held by the user 200 as a pedestrian. The positioning device 100a matches the position estimation result of its own device with dead reckoning (autonomous navigation type positioning) and map information even when no other positioning device is arranged in the space in which the user 200 moves. The position of 200 can be estimated with high accuracy.

測位システムは、測位装置100aと、情報提示デバイス300とを備える。測位装置100aは、センサデバイス110と、デッドレコニング部120と、データベース部130と、補正部140と、アプリケーション部150とを備える。デッドレコニング部120、補正部140及びアプリケーション部150は、例えば、メモリ(不図示)に展開されたプログラムに基づいて動作する演算部である。   The positioning system includes a positioning device 100a and an information presentation device 300. The positioning device 100a includes a sensor device 110, a dead reckoning unit 120, a database unit 130, a correction unit 140, and an application unit 150. The dead reckoning unit 120, the correction unit 140, and the application unit 150 are arithmetic units that operate based on a program developed in a memory (not shown), for example.

なお、センサデバイス110及びデータベース部130は、インタフェース部(不図示)を介して測位装置100aと接続されることで、測位装置100aの外部に備えられてもよい。この場合、測位装置100aは、データベース部130(サーバ装置)に記憶されているデータと同様のデータ(キャッシュデータ)を記憶するメモリを、さらに備えてもよい。   The sensor device 110 and the database unit 130 may be provided outside the positioning device 100a by being connected to the positioning device 100a via an interface unit (not shown). In this case, the positioning device 100a may further include a memory that stores data (cache data) similar to the data stored in the database unit 130 (server device).

センサデバイス110は、ユーザ200の歩行者コンテキストをセンシングにより検出し、検出結果に応じたセンサ値を、センサデバイスの種別毎にデッドレコニング部120に出力する。ここで、センサ値には、例えば、加速度を示す値と、速度を示す値と、角速度を示す値と、温度を示す値と、湿度を示す値と、画像(アイコン画像、文字・記号画像)を示す値と、光量及び輝度を示す値と、圧力(気圧など)を示す値と、磁界強度を示す値と、電界強度を示す値と、方角を示す値と、空気振動を示す値と、姿勢を示す値とがある。センサデバイス110は、例えば、加速度センサ、速度センサ、角速度センサ、温度センサ、湿度センサ、イメージセンサ、圧力センサ、磁界センサ、空気振動センサ、及びジャイロセンサである。   The sensor device 110 detects the pedestrian context of the user 200 by sensing, and outputs a sensor value corresponding to the detection result to the dead reckoning unit 120 for each type of sensor device. Here, the sensor value includes, for example, a value indicating acceleration, a value indicating velocity, a value indicating angular velocity, a value indicating temperature, a value indicating humidity, and an image (icon image, character / symbol image). A value indicating light intensity and brightness, a value indicating pressure (atmospheric pressure, etc.), a value indicating magnetic field strength, a value indicating electric field strength, a value indicating direction, and a value indicating air vibration, There is a value indicating the posture. The sensor device 110 is, for example, an acceleration sensor, a velocity sensor, an angular velocity sensor, a temperature sensor, a humidity sensor, an image sensor, a pressure sensor, a magnetic field sensor, an air vibration sensor, and a gyro sensor.

歩行者コンテキストには、例えば、行動(平地歩行、平地走行、着席、エスカレータに乗って立ったまま移動、上りエスカレータに乗って歩行、下りエスカレータに乗って歩行、エレベータに乗って上昇又は下降など、歩行者の行動様態)と、環境(階段、エレベータ、屋内、屋外、車道、地下鉄プラットフォーム、地下鉄車内など、歩行者の位置の周辺環境)と、位置(歩行者の位置を示す情報。緯度、経度、高度で表現したり、相対座標系で表現したり、場所を示す意味情報で表現するなど、その表現方法は多様である)と、速度(歩行者の移動速度)と、移動履歴(歩行者の移動履歴により示される移動経路)と、現在時刻と、姿勢(歩行者の姿勢及び向き)と、方角(歩行者の移動方角)と、測位装置100a及びセンサデバイス110の姿勢と、測位装置100a及びセンサデバイス110が歩行者に保持されている場所(歩行者の胸ポケットの中、パンツのポケットの中、靴の中、鞄の中など、センサデバイス110を備える測位装置100aが保持されている場所)とがある。   The pedestrian context includes, for example, actions (walking on a flat ground, running on a flat ground, sitting, moving on an escalator, walking on an escalator, walking on an escalator, walking on a escalator, rising or falling on an elevator, etc. Pedestrian behavior), environment (stairs, elevator, indoor, outdoor, roadway, subway platform, subway car, etc.) , Expressed in altitude, relative coordinate system, expressed by semantic information indicating the location, etc. There are various representation methods, speed (moving speed of pedestrians), and movement history (pedestrians) ), The current time, the posture (the pedestrian's posture and direction), the direction (the pedestrian's moving direction), the positioning device 100a, and the sensor device 1. 0 and a place where the positioning device 100a and the sensor device 110 are held by a pedestrian (including the sensor device 110 in a pedestrian's breast pocket, a pants pocket, a shoe, a bag, etc. And a place where the positioning device 100a is held.

デッドレコニング部120には、ユーザ200の歩行者コンテキストに応じて検出されたセンサ値が、センサデバイスの種別毎にセンサデバイス110から入力される。デッドレコニング部120は、入力されたセンサ値(例えば、ユーザ200の歩周期、歩数、歩幅、姿勢及び向き)と所定の基準位置とに基づいて、デッドレコニング(第1の測位方法)による測位を実行し、その測位結果(例えば、三次元座標)を補正部140に出力する。また、デッドレコニング部120は、ユーザ200の歩行者コンテキストに応じて検出されたセンサ値を、センサデバイスの種別毎に補正部140に転送する。   Sensor values detected according to the pedestrian context of the user 200 are input from the sensor device 110 to the dead reckoning unit 120 for each type of sensor device. The dead reckoning unit 120 performs positioning by dead reckoning (first positioning method) based on the input sensor values (for example, the user's 200 step cycle, number of steps, stride, posture, and orientation) and a predetermined reference position. The positioning result (for example, three-dimensional coordinates) is output to the correction unit 140. In addition, the dead reckoning unit 120 transfers the sensor value detected according to the pedestrian context of the user 200 to the correction unit 140 for each type of sensor device.

データベース部130(記憶部)は、地図情報を予め記憶する。この地図情報には、ネットワーク型の地図情報と、ポリゴン型の地図情報と、歩行者コンテキスト(コンテキスト情報)とが含まれる。なお、ネットワーク型及びポリゴン型は、地図情報の型の一例であって、地図情報は、これらの型に限らなくてもよい。また、データベース部130は、例えば、シリコンメモリ、光学記録ディスク、磁気記録ディスクなどの記録メディアである。   The database unit 130 (storage unit) stores map information in advance. This map information includes network-type map information, polygon-type map information, and pedestrian context (context information). The network type and the polygon type are examples of map information types, and the map information need not be limited to these types. The database unit 130 is a recording medium such as a silicon memory, an optical recording disk, or a magnetic recording disk.

ネットワーク型の地図情報、及び、ポリゴン型の地図情報には、地図に示された実空間に存在するオブジェクト(対象)、例えば、通路、階段、エスカレータ、動く歩道、エレベータ、壁、障害物、家具、ポスター及び掲示物(サイネージ)などの位置と、それらの幅、長さ、高さ及び角度といった形状と、それらの色及び材質と、エレベータ、エスカレータ及び動く歩道の速度と、エレベータ、エスカレータ及び動く歩道に特有の作動音を示す情報と、アナウンス音を示す情報と、警告音を示す情報とが含まれる。   Network type map information and polygon type map information include objects (objects) existing in the real space shown on the map, such as passages, stairs, escalators, moving walkways, elevators, walls, obstacles, furniture. , Posters and signs (signage) etc., their width, length, height and angle shape, their colors and materials, the speed of elevators, escalators and moving walkways, elevators, escalators and moving Information indicating an operation sound peculiar to a sidewalk, information indicating an announcement sound, and information indicating a warning sound are included.

データベース部130は、ユーザ200の位置に影響するオブジェクト(対象)をユーザ200が利用した際に、ユーザ200がどういった行動を取り得るかを、歩行者コンテキストの取り得る確率として予め記憶している。ここで、歩行者コンテキストの取り得る確率とは、例えば、オブジェクトとしての通路、階段、エスカレータ、動く歩道及びエレベータを、ユーザ200が利用する確率である。また、例えば、歩行者コンテキストの取り得る確率とは、壁に貼られているオブジェクトとしての掲示物(サイネージ)を利用するために、ユーザ200が同じ位置で壁の方角を向いたままでいる確率でもよい。   The database unit 130 stores in advance, as the probability that the pedestrian context can take, what action the user 200 can take when the user 200 uses an object (target) that affects the position of the user 200. Yes. Here, the probability that the pedestrian context can take is, for example, the probability that the user 200 uses a passage, stairs, escalator, moving sidewalk, and elevator as objects. In addition, for example, the probability that the pedestrian context can take is the probability that the user 200 remains facing the direction of the wall at the same position in order to use a signage (signage) as an object attached to the wall. Good.

また、データベース部130は、オブジェクトをユーザ200が利用した際にユーザ200が移動する空間の環境がどういった状態を取り得るかを、歩行者コンテキストの取り得る確率として予め記憶している。ここで、歩行者コンテキストの取り得る確率とは、例えば、オブジェクトからの所定範囲に位置するユーザ200に、そのオブジェクトからの特定の音(例えば、アナウンス音、警告音、作動音)が聞こえる確率である。   In addition, the database unit 130 stores in advance, as a probability that a pedestrian context can take, what state the environment of the space in which the user 200 moves when the user 200 uses the object. Here, the probability that the pedestrian context can take is, for example, the probability that the user 200 located in a predetermined range from the object can hear a specific sound (for example, announcement sound, warning sound, operation sound) from the object. is there.

データベース部130は、歩行者コンテキストと、オブジェクトポリゴン(図6を用いて後述する)とを対応付けて、予め記憶している。また、データベース部130は、ユーザ200がオブジェクトを利用した際にセンサデバイス110により検出されると想定される、そのオブジェクト特有のセンサパターン情報と、歩行者コンテキストとを対応付けて予め記憶している。   The database unit 130 stores a pedestrian context and an object polygon (described later with reference to FIG. 6) in association with each other. In addition, the database unit 130 stores in advance the sensor pattern information unique to the object, which is assumed to be detected by the sensor device 110 when the user 200 uses the object, and the pedestrian context. .

つまり、歩行者コンテキストに対応付けられたセンサパターン情報と、オブジェクトポリゴンとは、予め対応付けられている。また、オブジェクトポリゴンが地図上に配置されているので(図6を用いて後述する)、オブジェクト特有のセンサパターン情報は、地図上のオブジェクトポリゴンの位置に対応付けられている。   That is, the sensor pattern information associated with the pedestrian context and the object polygon are associated in advance. Since the object polygon is arranged on the map (described later with reference to FIG. 6), the sensor pattern information unique to the object is associated with the position of the object polygon on the map.

より具体的には、歩行者コンテキストに関する、コンテキスト種別ID、コンテキストID及びコンテキスト名と、センサパターン情報に関する、センサ種別ID及びセンサパターンと、オブジェクトポリゴンに関する、ポリゴンID及び位置精度とが、互いに対応付けられている。   More specifically, the context type ID, context ID and context name relating to the pedestrian context, the sensor type ID and sensor pattern relating to the sensor pattern information, and the polygon ID and position accuracy relating to the object polygon are associated with each other. It has been.

ここで、コンテキスト種別IDは、歩行者コンテキストの種別を識別するためのIDである。また、コンテキストIDは、歩行者コンテキストを識別するためのIDである。また、コンテキスト名は、歩行者コンテキストの名称である。また、センサ種別IDは、歩行者コンテキストを推定するためのセンサデバイスの種別を識別するためのIDである。また、センサパターンは、歩行者コンテキストを推定するためのセンサパターンである。また、ポリゴンIDは、オブジェクトポリゴン(後述)を識別するためのIDである。また、位置精度は、位置の推定精度である。位置精度は、例えば、三次元座標(経度、緯度、高度)の精度として表現される。   Here, the context type ID is an ID for identifying the type of the pedestrian context. The context ID is an ID for identifying a pedestrian context. The context name is the name of the pedestrian context. The sensor type ID is an ID for identifying the type of the sensor device for estimating the pedestrian context. The sensor pattern is a sensor pattern for estimating a pedestrian context. The polygon ID is an ID for identifying an object polygon (described later). The position accuracy is the position estimation accuracy. The position accuracy is expressed as, for example, the accuracy of three-dimensional coordinates (longitude, latitude, altitude).

補正部140には、デッドレコニング(第1の測位方法)による測位結果と、センサデバイスの種別毎のセンサ値とが、デッドレコニング部120から入力される。また、補正部140は、地図情報(ネットワーク型の地図情報、ポリゴン型の地図情報、歩行者コンテキスト)を、データベース部130から取得する。   A positioning result by dead reckoning (first positioning method) and a sensor value for each type of sensor device are input from the dead reckoning unit 120 to the correction unit 140. Further, the correction unit 140 acquires map information (network type map information, polygon type map information, pedestrian context) from the database unit 130.

補正部140は、推定された歩行者コンテキストが示す位置からの所定範囲に在るオブジェクトをユーザ200が利用した際に、そのオブジェクトに対してユーザ200がどういった行動を取り得るかという情報を含む地図情報に基づいて、歩行者コンテキストの推定における正しさを判定する。また、補正部140は、推定された歩行者コンテキストが示す位置からの所定範囲に在るオブジェクトをユーザ200が利用した際に、ユーザ200が移動する空間の環境がどういった状態を取り得るかという情報を含む地図情報に基づいて、歩行者コンテキストの推定における正しさを判定する。   When the user 200 uses an object that is within a predetermined range from the position indicated by the estimated pedestrian context, the correction unit 140 provides information on what action the user 200 can take on the object. The correctness in the estimation of the pedestrian context is determined based on the included map information. In addition, when the user 200 uses an object that is within a predetermined range from the position indicated by the estimated pedestrian context, the correction unit 140 can assume what state the environment of the space in which the user 200 moves can take. The correctness in the estimation of the pedestrian context is determined based on the map information including the information.

より具体的には、補正部140は、デッドレコニング部120による歩行者コンテキストの推定における正しさを、その推定された歩行者コンテキストが示す位置から所定範囲に在るオブジェクトに特有のセンサパターン(地図情報)と、センサデバイスの種別毎に入力されたセンサ値のセンサパターンと、を照合することによって判定する。   More specifically, the correction unit 140 determines the correctness in the estimation of the pedestrian context by the dead reckoning unit 120 by using a sensor pattern (map) unique to an object within a predetermined range from the position indicated by the estimated pedestrian context. Information) and the sensor pattern of the sensor value input for each type of sensor device.

ここで、補正部140は、推定された複数の歩行者コンテキストのそれぞれが取り得る確率を推定し直す(信頼性を評価し直す)ことによって、取り得る確率(信頼性)の最も高い歩行者コンテキストを、最も正しい歩行者コンテキストと推定する。なお、補正部140は、センサ信頼度、センサ精度及び測位精度を示す情報に基づいて、歩行者コンテキストの取り得る確率を推定し直してもよい。   Here, the correction unit 140 reestimates the probabilities that each of the estimated plurality of pedestrian contexts can take (re-evaluates the reliability), thereby enabling the pedestrian context having the highest possible probability (reliability). Is estimated to be the most correct pedestrian context. Note that the correction unit 140 may reestimate the probability that the pedestrian context can take based on the information indicating the sensor reliability, the sensor accuracy, and the positioning accuracy.

補正部140は、センサ値に基づいて推定された歩行者コンテキストが最も正しい歩行者コンテキストと異なる場合、センサ値に基づいて推定された歩行者コンテキストを、最も正しい歩行者コンテキストに補正する(歩行者コンテキストの補正)。つまり、補正部140は、センサ値に基づいて推定された複数の歩行者コンテキストのうち、最も正しい歩行者コンテキストを採用する。   When the pedestrian context estimated based on the sensor value is different from the most correct pedestrian context, the correction unit 140 corrects the pedestrian context estimated based on the sensor value to the most correct pedestrian context (pedestrian Context correction). That is, the correcting unit 140 employs the most correct pedestrian context among a plurality of pedestrian contexts estimated based on the sensor value.

例えば、オブジェクトとしてのエレベータからの所定範囲にユーザ200が位置し、且つ、気圧のセンサ値が低下した場合、補正部140は、ユーザ200がそのエレベータに乗って上昇したという状態の歩行者コンテキストを、最も正しい歩行者コンテキストとして採用する。また、例えば、オブジェクトとしての掲示物からの所定範囲にユーザ200が位置し、且つ、その掲示物からのアナウンス音がセンサデバイス110に検出された場合、補正部140は、ユーザ200がその掲示物を見ているという状態の歩行者コンテキストを、最も正しい歩行者コンテキストとして採用する。   For example, when the user 200 is located within a predetermined range from an elevator as an object and the sensor value of the atmospheric pressure is reduced, the correction unit 140 displays a pedestrian context in a state where the user 200 has climbed on the elevator. Adopt as the most correct pedestrian context. Further, for example, when the user 200 is located within a predetermined range from the posting as an object and an announcement sound from the posting is detected by the sensor device 110, the correction unit 140 causes the user 200 to display the posting. The pedestrian context in the state of watching is adopted as the most correct pedestrian context.

これにより、補正部140は、地図上のユーザ200の位置(パラメータ)を、最も正しい歩行者コンテキストが示す位置に、測位精度を確保するなどの必要に応じて、補正(キャリブレーション)することができる。例えば、補正部140は、ユーザ200がエレベータに乗って上昇しているという状態の歩行者コンテキストを採用した場合、地図上のユーザ200の位置を、上昇しているエレベータの位置に補正する。また、例えば、補正部140は、ユーザ200が掲示物を見ているという状態の歩行者コンテキストを採用した場合、地図上のユーザ200の位置及び向きを、掲示物に対する所定の相対位置及び相対方向に補正する。   As a result, the correction unit 140 can correct (calibrate) the position (parameter) of the user 200 on the map to the position indicated by the most correct pedestrian context as necessary, such as ensuring positioning accuracy. it can. For example, the correction | amendment part 140 correct | amends the position of the user 200 on a map to the position of the elevator which is rising, when the user 200 employ | adopts the pedestrian context in the state where it climbs on the elevator. Further, for example, when the pedestrian context in which the user 200 is looking at the posting material is adopted, the correction unit 140 changes the position and orientation of the user 200 on the map to a predetermined relative position and relative direction with respect to the posting material. To correct.

なお、補正部140は、予め定められた判定基準に基づいて、最も正しい歩行者コンテキストを採用してもよい。ここで、判定基準とは、例えば、オブジェクトがエレベータである場合、エレベータの上昇又は下降に応じて(条件分岐)、気圧のセンサ値が変化する歩行者コンテキストを採用する、という判定基準である。このように、判定基準は、条件分岐の形式により表現されてもよい。   The correction unit 140 may adopt the most correct pedestrian context based on a predetermined criterion. Here, for example, when the object is an elevator, the determination criterion is a criterion for adopting a pedestrian context in which the sensor value of the atmospheric pressure changes according to the elevator rising or falling (conditional branch). As described above, the determination criterion may be expressed in the form of conditional branching.

補正部140は、地図上のユーザ200の位置(補正した場合には、補正済みの位置)を示す情報を、アプリケーション部150に出力する。また、補正部140は、地図上のユーザ200の向き(補正した場合には、補正済みの向き)を示す情報を、アプリケーション部150に出力する。   The correction unit 140 outputs information indicating the position of the user 200 on the map (or the corrected position when corrected) to the application unit 150. Further, the correction unit 140 outputs information indicating the direction of the user 200 on the map (or the corrected direction when corrected) to the application unit 150.

アプリケーション部150は、地図上のユーザ200の位置を示す情報、及び、地図上のユーザ200の向きを示す情報に、所定のアプリケーション処理を施し、その処理結果を情報提示デバイス300に出力する。ここで、所定のアプリケーション処理とは、例えば、ユーザ200の位置(補正した場合には、補正済みの位置)を示すマーク画像が貼り付けられた地図画像を、生成する処理である。   The application unit 150 performs predetermined application processing on the information indicating the position of the user 200 on the map and the information indicating the direction of the user 200 on the map, and outputs the processing result to the information presentation device 300. Here, the predetermined application process is, for example, a process of generating a map image to which a mark image indicating the position of the user 200 (corrected position when corrected) is pasted.

情報提示デバイス300には、アプリケーション処理の処理結果(例えば、マーク画像が貼り付けられた地図画像)が、アプリケーション部150から入力される。情報提示デバイス300は、入力された処理結果をユーザ200に提示する。情報提示デバイス300は、例えば、ディスプレイ装置、スピーカである。   A processing result of application processing (for example, a map image with a mark image pasted) is input from the application unit 150 to the information presentation device 300. The information presentation device 300 presents the input processing result to the user 200. The information presentation device 300 is, for example, a display device or a speaker.

次に、ネットワーク型の地図情報の詳細について説明する。
ネットワーク型の地図情報(以下、「空間ネットワーク(Spatial network)」という)は、幾何構造情報として、ノード(node)と、リンク(link)とを含む。ここで、ノードは、経路上の地点情報であり、通行可能である地点を示す情報である。また、ノードには、識別子が付与される。この識別子は、ユビキタスIDセンター(東京都品川区)が管理及び運営する、実世界の物品及び場所を個体識別するための番号であって、128ビットのユニークな番号であるucodeでもよい。また、リンクは、通行可能なノード間を結ぶ接続情報であり、通行可能な経路を示す情報である。リンクの幾何構造は、始点のノードと終点のノードとにより定められる。
Next, details of the network type map information will be described.
Network-type map information (hereinafter referred to as “spatial network”) includes a node and a link as geometric structure information. Here, the node is point information on the route, and is information indicating a point where traffic is possible. Further, an identifier is assigned to the node. This identifier is a number that is managed and operated by the Ubiquitous ID Center (Shinagawa-ku, Tokyo) for individually identifying a real-world article and place, and may be a ucode that is a 128-bit unique number. The link is connection information that connects nodes that can pass, and is information that indicates a path that can be passed. The geometric structure of the link is defined by a start node and an end node.

また、空間ネットワークは、幾何構造情報として、アーク(arc)を含んでもよい。ここで、アークは、リンク間を結ぶ形状情報であり、リンクと比較してより詳細な経路形状を示す情報である。アークは、位置情報を有する点列により表現される。なお、アークの各点には、識別子が付与されなくてもよい。   The spatial network may include an arc as the geometric structure information. Here, the arc is shape information connecting the links, and is information indicating a more detailed route shape as compared with the links. An arc is represented by a sequence of points having position information. Note that an identifier may not be given to each point of the arc.

このように、空間ネットワークは、歩行者にとって通行可能である経路の幾何構造を示す情報として、地点(ノード)及び経路(リンク)を含むデータベースである。ここで、空間ネットワークの最小単位は、一本のリンクの始点としてのノードと、そのリンクの終点としてのノードと、その経路の形状としてのアークとを含む、リンク構造体である。空間ネットワークは、多数のリンク構造体が連なり合わされたテーブルにより表現される。なお、空間ネットワークは、有向グラフの形式により表現されてもよい。   As described above, the spatial network is a database including points (nodes) and routes (links) as information indicating the geometric structure of routes that can be passed by pedestrians. Here, the minimum unit of the spatial network is a link structure including a node as a starting point of one link, a node as an end point of the link, and an arc as a shape of the route. A spatial network is represented by a table in which a large number of link structures are connected. The spatial network may be expressed in the form of a directed graph.

また、空間ネットワークには、幾何構造を示す情報に加えて、経路の種別(カテゴリ)を示す情報が含まれる。ここで、経路の種別とは、例えば、短時間に変更されることが無いと想定される静的な幾何構造(例えば、通路、エレベータ及びエスカレータ)毎の種別(カテゴリ)を示す情報である。   The spatial network includes information indicating the type (category) of the route in addition to information indicating the geometric structure. Here, the type of route is information indicating a type (category) for each static geometric structure (for example, a passage, an elevator, and an escalator) that is assumed not to be changed in a short time.

なお、経路の種別には、歩行空間ネットワークデータ(国土交通省「歩行空間ネットワークデータ整備仕様案」 平成22年9月版)と異なり、経路の形状情報であるアークが含まれていてもよい。   In addition, unlike the walking space network data (Ministry of Land, Infrastructure, Transport and Tourism “Walking space network data maintenance specification draft”, September 2010 version), the type of route may include an arc that is the shape information of the route.

図2は、ノード及びリンクが配置された地図の例である。図2では、ある地下街を表現する地図上に、ノード及びリンクが配置されている。ノードは、歩行者が通行可能な経路(以下、「通行経路」という)上において、通行経路が分岐する地点、及び、通行経路の種別が変化する地点に配置される。   FIG. 2 is an example of a map in which nodes and links are arranged. In FIG. 2, nodes and links are arranged on a map representing a certain underground shopping area. The nodes are arranged at points where the route is branched and points where the type of the route is changed on a route that the pedestrian can pass (hereinafter referred to as “traffic route”).

通行経路が分岐する地点には、例えば、廊下が折れ曲がっている地点と、スロープの角度が変化する地点と、地下街の出入口への分岐点と、側道への分岐点とがある。また、経路の種別(例えば、階段、部屋)が変化する地点には、例えば、階段の踊り場と、部屋から他の部屋に移動する際に通行する地点とがある。ここで、経路の種別が変化する地点にノードが配置される理由は、経路の種別がリンクに対応付けられるためである。つまり、経路は、リンク毎に種別が識別される。   The points where the passage route branches include, for example, a point where the corridor is bent, a point where the slope angle changes, a branch point to the entrance / exit of the underground shopping street, and a branch point to the side road. In addition, the points where the route type (for example, stairs and rooms) changes include, for example, a stair landing and a point that passes when moving from one room to another. Here, the reason why the node is arranged at the point where the route type changes is that the route type is associated with the link. That is, the route is identified for each link.

また、リンクは、通行可能なノード間を結ぶ接続情報(経路接続情報)であり、通行可能な経路を示す情報である。リンクは、経路の分岐構造及び種別が変化しない限り、運用されることが可能である。なお、リンクは、ノード間の接続関係の意味的関係を表現するものであり、実空間での経路の形状を示すものではない。   The link is connection information (route connection information) that connects nodes that can pass, and is information that indicates a route that can pass. The link can be operated as long as the branch structure and type of the route do not change. The link expresses a semantic relationship of the connection relationship between the nodes, and does not indicate the shape of the route in the real space.

図3は、ノード、リンク及びアークが配置された地図の例である。図3では、ある地下街を表現する地図上に、ノード、リンク及びアークが配置されている。アークは、経路形状情報であり、その経路の形状に応じて、密に配置が可能である。アークを構成する点列の点同士を接続する線分により、経路の幾何構造の詳細が表現される。   FIG. 3 is an example of a map in which nodes, links, and arcs are arranged. In FIG. 3, nodes, links, and arcs are arranged on a map representing a certain underground shopping street. The arc is path shape information and can be densely arranged according to the shape of the path. Details of the geometric structure of the path are expressed by line segments connecting the points of the point sequence constituting the arc.

ここで、あまりにも密に配置されたノードにまで識別子が付与されている空間ネットワークにおいて、ノードからの経路探索が実行される場合、多重の識別子解決を必要とするので、その処理効率は悪くなってしまう。したがって、識別子により管理されるリンク(経路接続情報)と、識別子により管理されないアーク(経路形状情報)とが区別されていることには、利点がある。   Here, when a route search from a node is executed in a spatial network in which identifiers are assigned to nodes that are arranged too densely, multiple identifier resolution is required, so the processing efficiency deteriorates. End up. Therefore, there is an advantage in distinguishing the link (route connection information) managed by the identifier from the arc (route shape information) not managed by the identifier.

一方、リンクの点列とアークの点列とを識別子により管理することにも、利点がある。この場合、例えば、位置情報、通行情報及びコンテンツ情報等を、大規模な幾何計算を実行することなく、識別子により対応付けることができる。ノード、リンク及びアークは、これらの利点のトレードオフを考慮しながら、配置されることになる。   On the other hand, there is also an advantage in managing the link point sequence and the arc point sequence using identifiers. In this case, for example, position information, traffic information, content information, and the like can be associated with each other without executing a large-scale geometric calculation. Nodes, links and arcs will be placed taking into account the tradeoffs of these benefits.

次に、ポリゴン(多角形)型の地図情報の詳細について説明する。
ポリゴン型の地図情報は、空間ネットワークでは表現することができない広がりのある自由空間を、空間ポリゴンにより表現するデータベースである。また、空間ポリゴンは、歩行者にとって通行可能な空間を、ポリゴンにより表現するデータである。空間ポリゴンは、頂点(vertex)の列と、頂点同士を列に沿って結ぶ辺(以下、「エッジ(edge)」という)と、ポリゴンの種別を示す属性情報(Polygon property)とを含む。
Next, details of polygon (polygon) map information will be described.
The polygon-type map information is a database that expresses a free space with a space polygon that cannot be expressed by a spatial network. The space polygon is data that expresses a space through which a pedestrian can pass with a polygon. The spatial polygon includes a row of vertices, a side connecting the vertices along the row (hereinafter referred to as “edge”), and attribute information (Polygon property) indicating the type of the polygon.

頂点(vertex)には、その三次元の位置情報(三次元座標)が含まれる。また、ポリゴンの種別を示す属性情報には、空間ポリゴンIDと、空間ポリゴン種別と、エリアID(空間ID)とが含まれる。ここで、空間ポリゴンIDとは、ポリゴンを識別するための識別子である。また、空間ポリゴン種別とは、通行が多少困難であっても通行可能なオブジェクトを示す空間ポリゴンであるか、又は、通行が全く不可能なオブジェクト(障壁)を示す空間ポリゴンであるかという種別である。また、エリアIDとは、空間ポリゴンが属する部分空間を示す識別子である。   The vertex (vertex) includes the three-dimensional position information (three-dimensional coordinates). The attribute information indicating the type of polygon includes a space polygon ID, a space polygon type, and an area ID (space ID). Here, the spatial polygon ID is an identifier for identifying a polygon. Also, the spatial polygon type is a type indicating whether it is a spatial polygon indicating an object that can pass even if it is somewhat difficult to pass, or whether it is a spatial polygon indicating an object (barrier) that cannot be passed at all. is there. The area ID is an identifier indicating the partial space to which the space polygon belongs.

図4は、空間ポリゴンが配置された地図の例である。図4では、各空間ポリゴンは、平面ポリゴンとして、同一平面上に配置されている。ポリゴン型の地図情報は、歩行空間ポリゴン(Walkable space polygon)と、障壁ポリゴン(Wall polygon)と、オブジェクトポリゴン(Object polygon)とを含む。   FIG. 4 is an example of a map in which spatial polygons are arranged. In FIG. 4, each space polygon is arranged on the same plane as a plane polygon. Polygon type map information includes a walking space polygon, a barrier polygon, and an object polygon.

ここで、歩行空間ポリゴンは、通行可能な床面の空間を示す空間ポリゴンの必要な箇所に、部分的かつ自由に配置することが可能な平面ポリゴンである。以下では、歩行空間ポリゴンは、空間ポリゴンの必要な箇所に、部分的かつ自由に配置されているものとする。   Here, the walking space polygon is a planar polygon that can be partially and freely arranged at a necessary portion of the space polygon indicating the floor space that can be passed. In the following, it is assumed that the walking space polygon is partially and freely arranged at a necessary portion of the space polygon.

図5は、歩行空間ポリゴン及び障壁ポリゴンが配置された地図の例である。歩行空間ポリゴンは、歩行者が通行可能な空間を表現するポリゴンであるため、歩行空間ポリゴンに対して、通行可能なエッジと通行不可能なエッジとを区別させる必要がある。障壁ポリゴンは、通行不可能な障壁を表すポリゴンとして、歩行空間ポリゴンと組み合わせて利用される。より具体的には、障壁ポリゴンは、歩行空間ポリゴンが配置されている空間における通行不可能なエッジとして、歩行空間ポリゴンのエッジに配置される。   FIG. 5 is an example of a map in which walking space polygons and barrier polygons are arranged. Since the walking space polygon is a polygon that expresses a space in which a pedestrian can pass, it is necessary to make the walking space polygon distinguish between an edge that can pass and an edge that cannot pass. The barrier polygon is used in combination with a walking space polygon as a polygon representing an impassable barrier. More specifically, the barrier polygon is arranged at the edge of the walking space polygon as an inaccessible edge in the space where the walking space polygon is arranged.

図5では、歩行空間ポリゴンのエッジに、障壁ポリゴンが配置されている。図5では、障壁ポリゴンの一部と、歩行空間ポリゴンのエッジとが、オーバーラップしている。同一空間でかつ座標値がオーバーラップするエッジは、地図上の歩行者が歩行空間ポリゴンに出入りすることができないエッジであることを示す。つまり、このオーバーラップしているエッジからは、地図上の歩行者は、歩行空間ポリゴンに出入りすることはできない。ここで、歩行空間ポリゴン及び障壁ポリゴンは、互いに同一の歩行空間ポリゴンに属しているか否かが識別できるように、歩行空間ポリゴンに対応付けられる。   In FIG. 5, the barrier polygon is arranged at the edge of the walking space polygon. In FIG. 5, a part of the barrier polygon and the edge of the walking space polygon overlap. An edge in which the coordinate values overlap in the same space indicates that the pedestrian on the map cannot enter or exit the walking space polygon. That is, from this overlapping edge, a pedestrian on the map cannot enter or exit the walking space polygon. Here, the walking space polygon and the barrier polygon are associated with the walking space polygon so that it can be identified whether they belong to the same walking space polygon.

図6は、歩行空間ポリゴン、障壁ポリゴン、及びオブジェクトポリゴンが配置された地図の例である。オブジェクトポリゴンは、障害物(例えば、観葉植物、ダストボックス、置物)の位置、大きさ及び形状の詳細を示すための汎用的なポリゴンである。また、オブジェクトポリゴンは、歩行空間ポリゴン及び障壁ポリゴンと比較して、より動的かつ細かな対象を記述するための汎用的なポリゴンである。   FIG. 6 is an example of a map in which a walking space polygon, a barrier polygon, and an object polygon are arranged. The object polygon is a general-purpose polygon for showing details of the position, size, and shape of an obstacle (for example, a foliage plant, a dust box, and an ornament). The object polygon is a general-purpose polygon for describing a more dynamic and detailed object as compared with the walking space polygon and the barrier polygon.

オブジェクトポリゴンは、局所空間(例えば、段差の位置、店舗棚の位置、ダストボックスの位置、自動改札の位置、及び観葉植物の位置)を示す情報が含まれる空間ポリゴンである。オブジェクトポリゴンは、頂点(vertex)の列と、エッジと、ポリゴンの種別を示す属性情報とを含む。ここで、局所空間を示す情報は、ポリゴンの種別を示す属性情報として含まれている。   The object polygon is a spatial polygon including information indicating a local space (for example, a step position, a store shelf position, a dust box position, an automatic ticket gate position, and a houseplant position). The object polygon includes a column of vertices, an edge, and attribute information indicating the type of the polygon. Here, information indicating the local space is included as attribute information indicating the type of polygon.

オブジェクトポリゴンは、歩行者の通行経路に配置されている障害物の細かな位置を、点及び線でなく、広さのあるポリゴンで表現したい場合に配置される。なお、オブジェクトポリゴンにより示される障害物が配置されている局所空間は、通行が多少困難であっても、例えば、歩行者がその障害物を跨ぐなどすれば、通行可能な空間である。また、局所空間を示す情報には、通行の困難度を示す情報が含まれてもよい。   The object polygon is arranged when it is desired to express the fine position of the obstacle arranged on the pedestrian's path with a wide polygon instead of a point and a line. Note that the local space in which the obstacle indicated by the object polygon is arranged is a space that can be passed if, for example, a pedestrian straddles the obstacle even if the passage is somewhat difficult. The information indicating the local space may include information indicating the degree of difficulty in passing.

以上のように、測位装置100aは、ユーザ200の位置を推定するためのセンサデバイス110によるセンシング結果に基づいて、ユーザ200の位置を推定するデッドレコニング部120と、前記センシング結果を、地図上の位置に対応付けて予め記憶するデータベース部130と、デッドレコニング部120により推定された地図上のユーザ200の位置を、前記センシング結果(歩行者コンテキスト)に対応付けられた前記地図上の位置に一致するよう補正する補正部140と、を備える。   As described above, the positioning device 100a includes the dead reckoning unit 120 that estimates the position of the user 200 based on the sensing result by the sensor device 110 for estimating the position of the user 200, and the sensing result on the map. The position of the user 200 on the map estimated by the dead reckoning unit 120 and the database unit 130 stored in advance in association with the position matches the position on the map associated with the sensing result (pedestrian context). And a correction unit 140 that corrects the correction.

この構成により、補正部140は、デッドレコニング部120により推定された地図上のユーザ200の位置を、前記センシング結果に対応付けられた前記地図上の位置に一致するよう補正する。これにより、測位装置100aは、移動体が移動する空間に装置を配置することなく、その移動体の位置を高精度に推定することができる。また、測位装置100aは、効率的でロバストな歩行者位置推定を実行することができる。   With this configuration, the correction unit 140 corrects the position of the user 200 on the map estimated by the dead reckoning unit 120 so as to match the position on the map associated with the sensing result. Thereby, the positioning apparatus 100a can estimate the position of the moving body with high accuracy without arranging the apparatus in the space in which the moving body moves. Further, the positioning device 100a can perform efficient and robust pedestrian position estimation.

また、補正部140は、前記センシング結果の取り得る確率(歩行者コンテキストの取り得る確率)に基づいて、前記取り得る確率が高い前記センシング結果(最も正しい歩行者コンテキスト)に対応付けられた前記地図上の位置(ポリゴン型の地図に配置されたオブジェクトポリゴンにより示される位置)に一致するよう、地図上のユーザ200の位置を補正する。   Further, the correction unit 140 is configured to map the map associated with the sensing result (the most correct pedestrian context) having the highest probability based on the probability that the sensing result can be taken (the probability that the pedestrian context can take). The position of the user 200 on the map is corrected so as to coincide with the upper position (the position indicated by the object polygon arranged on the polygon type map).

また、データベース部130は、ユーザ200の位置に影響する対象(オブジェクト)の前記地図上の位置に対応付けて、前記センシング結果を予め記憶する。   In addition, the database unit 130 stores the sensing result in advance in association with the position on the map of an object (object) that affects the position of the user 200.

また、データベース部130は、前記地図として、ネットワーク型の地図と、ポリゴン型の地図と、前記移動体の位置に応じた前記センシング結果と、を予め記憶する。   In addition, the database unit 130 stores in advance a network type map, a polygon type map, and the sensing result corresponding to the position of the moving body as the map.

また、データベース部130は、ネットワークの幾何構造の形状情報(アーク)を含む前記ネットワーク型の地図を、予め記憶する。   Further, the database unit 130 stores in advance the network type map including shape information (arc) of the geometric structure of the network.

また、データベース部130は、ネットワークの幾何構造を構成する点として、識別子が付与される点(リンクを構成するノード)と、識別子が付与されない点(アークを構成する点)と、を含む前記ネットワーク型の地図を、予め記憶する。   In addition, the database unit 130 includes a point where an identifier is given (a node constituting a link) and a point where no identifier is given (a point constituting an arc) as points constituting the geometric structure of the network. A map of the type is stored in advance.

また、センサデバイス110は、加速度、速度、角速度、温度、湿度、画像、圧力、磁界強度、電界強度、方角、空気振動、姿勢、光量及び輝度のうち、少なくとも一つをセンシングする。   The sensor device 110 senses at least one of acceleration, velocity, angular velocity, temperature, humidity, image, pressure, magnetic field strength, electric field strength, direction, air vibration, posture, light amount, and luminance.

[第2実施形態]
第2実施形態では、デッドレコニング(第1の測位方法)による測位結果と、第2の測位方法による測位結果との統合結果が補正される点が、第1実施形態と相違する。以下では、第1実施形態との相違点についてのみ説明する。
[Second Embodiment]
The second embodiment is different from the first embodiment in that the integration result of the positioning result by dead reckoning (first positioning method) and the positioning result by the second positioning method is corrected. Only the differences from the first embodiment will be described below.

図7には、測位装置の構成例がブロック図により示されている。測位装置100bは、第1実施形態の測位装置100aと比較して、測位部121と、統合部122とを更に備える。   FIG. 7 is a block diagram illustrating a configuration example of the positioning device. The positioning device 100b further includes a positioning unit 121 and an integration unit 122, as compared with the positioning device 100a of the first embodiment.

測位部121は、第2の測位方法によりユーザ200を測位し、その測位結果を統合部122に出力する。第2の測位方法には、例えば、高周波信号(RFIDタグ、Wi−Fi(登録商標)装置、Bluetooth(登録商標)装置からの信号)を利用した測位方法がある。   The positioning unit 121 measures the user 200 by the second positioning method, and outputs the positioning result to the integration unit 122. As the second positioning method, for example, there is a positioning method using a high-frequency signal (a signal from an RFID tag, a Wi-Fi (registered trademark) device, or a Bluetooth (registered trademark) device).

統合部122には、デッドレコニングによる測位結果が、デッドレコニング部120から入力される。また、統合部122には、第2の測位方法による測位結果が、測位部121から入力される。統合部122は、デッドレコニングによる測位結果と、第2の測位方法による測位結果とを統合し、統合された測位結果(例えば、三次元座標)を補正部140に出力する。   A positioning result by dead reckoning is input from the dead reckoning unit 120 to the integration unit 122. In addition, the positioning unit 121 receives a positioning result by the second positioning method from the positioning unit 121. The integration unit 122 integrates the positioning result by dead reckoning and the positioning result by the second positioning method, and outputs the integrated positioning result (for example, three-dimensional coordinates) to the correction unit 140.

以上のように、デッドレコニング部120により推定されたユーザ200の第1位置と、ユーザ200を測位する測位部121により推定されたユーザ200の第2位置と、を統合する統合部122を備え、補正部140は、統合部122により統合された前記地図上のユーザ200の位置を、前記センシング結果に対応付けられた前記地図上の位置に一致するよう補正する。   As described above, the integration unit 122 that integrates the first position of the user 200 estimated by the dead reckoning unit 120 and the second position of the user 200 estimated by the positioning unit 121 that positions the user 200 is provided. The correction unit 140 corrects the position of the user 200 on the map integrated by the integration unit 122 so as to coincide with the position on the map associated with the sensing result.

この構成により、補正部140は、統合部122により統合された地図上のユーザ200の位置を、前記センシング結果(歩行者コンテキスト)に対応付けられた前記地図上の位置に一致するよう補正する。これにより、測位装置100bは、移動体が移動する空間に、測位のための装置が配置されている場合には、その移動体の位置をより高精度に推定することができる。   With this configuration, the correction unit 140 corrects the position of the user 200 on the map integrated by the integration unit 122 so as to match the position on the map associated with the sensing result (pedestrian context). Thereby, when the apparatus for positioning is arrange | positioned in the space where a mobile body moves, the positioning apparatus 100b can estimate the position of the mobile body with higher precision.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

例えば、移動体は、車輪によって移動する移動体(例えば、車椅子、車両)でもよい。測位装置は、歩幅の代わりに、車輪径及び車輪回転角に基づいて、移動体の位置を推定してもよい。   For example, the moving body may be a moving body (for example, a wheelchair or a vehicle) that moves by wheels. The positioning device may estimate the position of the moving body based on the wheel diameter and the wheel rotation angle instead of the stride.

また、例えば、歩行者コンテキストの推定における正しさは、複数の段階レベルにより表現されてもよい。   For example, the correctness in estimating the pedestrian context may be expressed by a plurality of step levels.

なお、以上に説明した測位装置を実現するためのプログラムを、コンピュータ読み取り可能な記録媒体に記録し、そのプログラムをコンピュータシステムに読み込ませて実行するようにしてもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺装置等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。   Note that a program for realizing the positioning device described above may be recorded on a computer-readable recording medium, and the program may be read into a computer system and executed. The “computer system” here includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Further, the “computer-readable recording medium” refers to a volatile memory (RAM) in a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, those holding programs for a certain period of time are also included. The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.

100a及び100b…測位装置、110…センサデバイス、120…デッドレコニング部、121…測位部、122…統合部、130…データベース部(記憶部)、140…補正部、150…アプリケーション部、200…ユーザ、300…情報提示デバイス DESCRIPTION OF SYMBOLS 100a and 100b ... Positioning apparatus, 110 ... Sensor device, 120 ... Dead reckoning part, 121 ... Positioning part, 122 ... Integration part, 130 ... Database part (memory | storage part), 140 ... Correction | amendment part, 150 ... Application part, 200 ... User , 300 ... Information presentation device

Claims (9)

移動体の位置を推定するためのセンサデバイスによるセンシング結果に基づいて、前記移動体の位置を推定するデッドレコニング部と、
前記センシング結果を、地図上の位置に対応付けて予め記憶する記憶部と、
前記デッドレコニング部により推定された前記地図上の移動体の位置を、前記センシング結果に対応付けられた前記地図上の位置に一致するよう補正する補正部と、
を備えることを特徴とする測位装置。
A dead reckoning unit for estimating the position of the moving body based on a sensing result by the sensor device for estimating the position of the moving body;
A storage unit for storing the sensing result in advance in association with a position on a map;
A correction unit that corrects the position of the moving body on the map estimated by the dead reckoning unit to match the position on the map associated with the sensing result;
A positioning device comprising:
前記補正部は、前記センシング結果の取り得る確率に基づいて、前記取り得る確率が高い前記センシング結果に対応付けられた前記地図上の位置に一致するよう、前記地図上の移動体の位置を補正することを特徴とする請求項1に記載の測位装置。   The correction unit corrects the position of the moving body on the map so as to coincide with the position on the map associated with the sensing result having a high probability of being taken, based on the probability that the sensing result can be taken. The positioning device according to claim 1, wherein: 前記記憶部は、前記移動体の位置に影響する対象の前記地図上の位置に対応付けて、前記センシング結果を予め記憶することを特徴とする請求項1又は請求項2に記載の測位装置。   The positioning device according to claim 1, wherein the storage unit stores the sensing result in advance in association with a position on the map of a target that affects the position of the moving body. 前記記憶部は、前記地図として、ネットワーク型の地図と、ポリゴン型の地図と、前記移動体の位置に応じた前記センシング結果と、を予め記憶することを特徴とする請求項1から請求項3のいずれか一項に記載の測位装置。   The storage unit stores in advance a network-type map, a polygon-type map, and the sensing result corresponding to the position of the moving body as the map. The positioning device according to any one of the above. 前記記憶部は、ネットワークの幾何構造の形状情報を含む前記ネットワーク型の地図を、予め記憶することを特徴とする請求項4に記載の測位装置。   The positioning device according to claim 4, wherein the storage unit stores in advance the network type map including shape information of a geometric structure of the network. 前記記憶部は、ネットワークの幾何構造を構成する点として、識別子が付与される点と、識別子が付与されない点と、を含む前記ネットワーク型の地図を、予め記憶することを特徴とする請求項4又は請求項5に記載の測位装置。   5. The storage unit stores in advance the network type map including a point to which an identifier is assigned and a point to which no identifier is assigned as points constituting the geometric structure of the network. Or the positioning apparatus of Claim 5. 前記センサデバイスは、加速度、速度、角速度、温度、湿度、画像、圧力、磁界強度、電界強度、方角、空気振動、姿勢、光量及び輝度のうち、少なくとも一つをセンシングすることを特徴とする請求項1から請求項6のいずれか一項に記載の測位装置。   The sensor device senses at least one of acceleration, velocity, angular velocity, temperature, humidity, image, pressure, magnetic field strength, electric field strength, direction, air vibration, posture, light quantity, and luminance. The positioning device according to any one of claims 1 to 6. 前記デッドレコニング部により推定された前記移動体の第1位置と、前記移動体を測位する測位部により推定された前記移動体の第2位置と、を統合する統合部
を備え、
前記補正部は、前記統合部により統合された前記地図上の移動体の位置を、前記センシング結果に対応付けられた前記地図上の位置に一致するよう補正することを特徴とする請求項1から請求項7のいずれか一項に記載の測位装置。
An integration unit that integrates the first position of the moving body estimated by the dead reckoning unit and the second position of the moving body estimated by the positioning unit that positions the moving body;
The correction unit corrects the position of the moving body on the map integrated by the integration unit so as to coincide with the position on the map associated with the sensing result. The positioning device according to claim 7.
コンピュータに、
移動体の位置を推定するためのセンサデバイスによるセンシング結果に基づいて、前記移動体の位置を推定する手順と、
推定された地図上の前記移動体の位置を、前記センシング結果に対応付けられた前記地図上の位置に一致するよう補正する手順と、
を実行させるための測位プログラム。
On the computer,
A procedure for estimating the position of the moving body based on a sensing result by the sensor device for estimating the position of the moving body;
Correcting the estimated position of the moving body on the map to match the position on the map associated with the sensing result;
Positioning program to execute.
JP2012021204A 2012-02-02 2012-02-02 Positioning device and positioning program Pending JP2013160566A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012021204A JP2013160566A (en) 2012-02-02 2012-02-02 Positioning device and positioning program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012021204A JP2013160566A (en) 2012-02-02 2012-02-02 Positioning device and positioning program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016118147A Division JP2016191710A (en) 2016-06-14 2016-06-14 Positioning device and positioning program

Publications (1)

Publication Number Publication Date
JP2013160566A true JP2013160566A (en) 2013-08-19

Family

ID=49172942

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012021204A Pending JP2013160566A (en) 2012-02-02 2012-02-02 Positioning device and positioning program

Country Status (1)

Country Link
JP (1) JP2013160566A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015014587A (en) * 2013-06-06 2015-01-22 株式会社リコー Information processor, position determination method and position determination program
JP2016183947A (en) * 2015-03-27 2016-10-20 株式会社トヨタマップマスター Navigation device for pedestrian, navigation method for pedestrian, computer program and recording medium recording computer program
KR20200122699A (en) * 2019-04-18 2020-10-28 (주)굿게이트 Method, system and non-transitory computer-readable recording medium for determining position of objects in each devices

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040181335A1 (en) * 2003-03-14 2004-09-16 Samsung Electronics Co., Ltd. Apparatus for detecting location of movable body in navigation system and method thereof
JP2007163297A (en) * 2005-12-14 2007-06-28 Hitachi Ltd Positioning terminal
WO2008117787A1 (en) * 2007-03-27 2008-10-02 Nec Corporation Map matching system, map matching method and program
US20080306689A1 (en) * 2007-06-08 2008-12-11 National Institute Of Advanced Industrial Science And Technology Mobile positioning system
JP2009229204A (en) * 2008-03-21 2009-10-08 Sumitomo Electric Ind Ltd Location specifying system, computer program and location specifying method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040181335A1 (en) * 2003-03-14 2004-09-16 Samsung Electronics Co., Ltd. Apparatus for detecting location of movable body in navigation system and method thereof
JP2007163297A (en) * 2005-12-14 2007-06-28 Hitachi Ltd Positioning terminal
WO2008117787A1 (en) * 2007-03-27 2008-10-02 Nec Corporation Map matching system, map matching method and program
US20080306689A1 (en) * 2007-06-08 2008-12-11 National Institute Of Advanced Industrial Science And Technology Mobile positioning system
JP2009014713A (en) * 2007-06-08 2009-01-22 National Institute Of Advanced Industrial & Technology Mobile positioning apparatus
JP2009229204A (en) * 2008-03-21 2009-10-08 Sumitomo Electric Ind Ltd Location specifying system, computer program and location specifying method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015014587A (en) * 2013-06-06 2015-01-22 株式会社リコー Information processor, position determination method and position determination program
JP2016183947A (en) * 2015-03-27 2016-10-20 株式会社トヨタマップマスター Navigation device for pedestrian, navigation method for pedestrian, computer program and recording medium recording computer program
KR20200122699A (en) * 2019-04-18 2020-10-28 (주)굿게이트 Method, system and non-transitory computer-readable recording medium for determining position of objects in each devices
KR102285090B1 (en) 2019-04-18 2021-08-03 (주)굿게이트 Method, system and non-transitory computer-readable recording medium for determining position of objects in each devices

Similar Documents

Publication Publication Date Title
US11250051B2 (en) Method, apparatus, and system for predicting a pose error for a sensor system
US8965403B2 (en) Location tracking
US20160073229A1 (en) Method and apparatus for providing point-of-interest detection via feature analysis and mobile device position information
US10997740B2 (en) Method, apparatus, and system for providing real-world distance information from a monocular image
US20190034740A1 (en) Method, apparatus, and system for vanishing point/horizon estimation using lane models
US10445927B2 (en) Method for determining polygons that overlap with a candidate polygon or point
US11024054B2 (en) Method, apparatus, and system for estimating the quality of camera pose data using ground control points of known quality
US10325373B2 (en) Method, apparatus, and system for constructing a polygon from edges for object detection
US20220065651A1 (en) Method, apparatus, and system for generating virtual markers for journey activities
US11182607B2 (en) Method, apparatus, and system for determining a ground control point from image data using machine learning
JP2016191710A (en) Positioning device and positioning program
EP3594852B1 (en) Method, apparatus, and system for constructing a polyline from line segments
US10902634B2 (en) Method and apparatus for providing feature triangulation
US10949707B2 (en) Method, apparatus, and system for generating feature correspondence from camera geometry
US20220291011A1 (en) Method and apparatus for providing navigation and location recommendation based on geospatial vaccination data
US20220207472A1 (en) Method, apparatus, and system for drone delivery using beacon positioning
US10859383B2 (en) Method and apparatus for generating navigation guidance for an incomplete map
JP2013160566A (en) Positioning device and positioning program
Gotlib et al. Cartographical aspects in the design of indoor navigation systems
JP2003344093A (en) Apparatus, system, and program for delivering data on route guidance for pedestrian
EP3795950A1 (en) Method and apparatus for providing an indoor pedestrian origin-destination matrix and flow analytics
US20220276618A1 (en) Method, apparatus, and system for model parameter switching for dynamic object detection
EP3538929B1 (en) Systems and methods of determining an improved user location using real world map and sensor data
US20220201256A1 (en) Method, apparatus, and system for capturing an image sequence for a visual positioning service request
US20210372800A1 (en) Method, apparatus, and system for providing travel direction and navigation in a multi-one-dimensional transportation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150818

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150819

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151019

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160315