JP2017026542A - Position estimation device, position estimation method, and position estimation program - Google Patents

Position estimation device, position estimation method, and position estimation program Download PDF

Info

Publication number
JP2017026542A
JP2017026542A JP2015147662A JP2015147662A JP2017026542A JP 2017026542 A JP2017026542 A JP 2017026542A JP 2015147662 A JP2015147662 A JP 2015147662A JP 2015147662 A JP2015147662 A JP 2015147662A JP 2017026542 A JP2017026542 A JP 2017026542A
Authority
JP
Japan
Prior art keywords
state
time
terminal
estimated
position estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015147662A
Other languages
Japanese (ja)
Other versions
JP6367771B2 (en
Inventor
満昭 秋山
Mitsuaki Akiyama
満昭 秋山
毅 八木
Takeshi Yagi
毅 八木
達哉 森
Tatsuya Mori
達哉 森
卓弥 渡邉
Takuya Watanabe
卓弥 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Waseda University
Nippon Telegraph and Telephone Corp
Original Assignee
Waseda University
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Waseda University, Nippon Telegraph and Telephone Corp filed Critical Waseda University
Priority to JP2015147662A priority Critical patent/JP6367771B2/en
Publication of JP2017026542A publication Critical patent/JP2017026542A/en
Application granted granted Critical
Publication of JP6367771B2 publication Critical patent/JP6367771B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To determine the position of a device even in the state of being unable to use a service such as GPS or a wireless LAN.SOLUTION: A position estimation device 20 converts a measurement value obtained by a sensor of a terminal 10 and time when the measurement value was obtained into a feature vector, and estimates which the active state of the terminal 10 is, a riding state, a stopping state, or a walking state at each time on the basis of the feature vector. Then, the position estimation device 20 generates a departure and arrival sequence on the basis of estimated departure time when the terminal shifted from the stopping state to the riding state and estimated arrival time when the terminal shifted from the riding state to the stopping state, and searches for a route by checking up the departure and arrival sequence, a time table, and a route map.SELECTED DRAWING: Figure 1

Description

本発明は、位置推定装置、位置推定方法および位置推定プログラムに関する。   The present invention relates to a position estimation device, a position estimation method, and a position estimation program.

近年、スマートフォン等のモバイルデバイスの普及に伴い、位置情報を特定する技術や、位置情報に基づいたサービスが登場している。例えば、人工衛星を用いた現在位置を測定するシステムである全地球測位システム(GPS:Global Positioning System)を用いることで、デバイスが地球上のどこにいるかを正確に座標で知ることができる。   In recent years, with the spread of mobile devices such as smartphones, technologies for specifying location information and services based on location information have appeared. For example, by using a Global Positioning System (GPS) that is a system for measuring the current position using an artificial satellite, it is possible to accurately know where the device is on the earth by coordinates.

一方、GPSが利用できない状況下において位置を特定する技術としてIPS(Indoor Positioning System)が知られている(例えば、非特許文献1を参照)。IPSは、屋内において、GPS以外のセンサ情報(電波、音声、光等)を用いて、物や人の検知や誘導を行うことを目的としている。   On the other hand, IPS (Indoor Positioning System) is known as a technique for specifying a position in a situation where GPS cannot be used (for example, see Non-Patent Document 1). IPS is intended to detect and guide objects and people indoors using sensor information other than GPS (radio waves, voice, light, etc.).

また、GPSを用いない位置特定サービスであるPlaceEngineは、無線LANのアクセスポイント(AP)のあらかじめ登録された位置情報と、そのAPの電波強度から、現在のデバイスの位置を推定することができる(例えば、非特許文献2を参照)。   Also, PlaceEngine, which is a location specifying service that does not use GPS, can estimate the current device location from the pre-registered location information of the wireless LAN access point (AP) and the radio wave intensity of the AP ( For example, refer nonpatent literature 2.).

Yanying Gu, Anthony Lo, Senior Member, IEEE, and Ignas Niemegeers “A Survey of Indoor Positioning Systems for Wireless Personal Networks” IEEE COMMUNICATIONS SURVEYS & TUTORIALS, VOL. 11, NO. 1, FIRST QUARTER 2009Yanying Gu, Anthony Lo, Senior Member, IEEE, and Ignas Niemegeers “A Survey of Indoor Positioning Systems for Wireless Personal Networks” IEEE COMMUNICATIONS SURVEYS & TUTORIALS, VOL. 11, NO. 1, FIRST QUARTER 2009 PlaceEngine, http://www.placeengine.comPlaceEngine, http://www.placeengine.com

しかしながら、従来の技術には、GPSや無線LAN等のサービスを利用できない状況においては、デバイスの位置を特定することができないという問題があった。   However, the conventional technology has a problem that the position of the device cannot be specified in a situation where services such as GPS and wireless LAN cannot be used.

例えば、GPSを用いた位置の特定においては、GPSを測位するために、デバイスと衛星間に障害物がある場合はGPSを測位することができない。つまり、建物内や地下ではGPSによる位置の特定ができない。   For example, in specifying the position using the GPS, the GPS cannot be measured when there is an obstacle between the device and the satellite in order to determine the GPS. That is, the position cannot be specified by GPS in the building or underground.

また、APの位置情報および電波強度から位置を特定する方法では、APの位置情報があらかじめサービス用のデータベースに登録されている必要があり、登録されていないAPでは位置を特定することができない。また、そもそもAPが存在しない場所ではサービスを利用できない。   Further, in the method of specifying the position from the AP position information and the radio wave intensity, the AP position information needs to be registered in the service database in advance, and the AP that is not registered cannot specify the position. In the first place, the service cannot be used in a place where no AP exists.

さらに、近年のスマートデバイスでは、GPSセンサや無線LANのオンとオフを、ユーザが手動で設定することができるため、GPSセンサがオフの場合や、無線LANがオフの場合に、位置を特定することができない。   Furthermore, in recent smart devices, the GPS sensor and the wireless LAN can be manually turned on and off by the user, so the position is specified when the GPS sensor is off or when the wireless LAN is off. I can't.

さらに、デバイスの位置の特定や推定ができない場合、デバイスの位置に基づいてナビゲーションを行うカーナビゲーションシステム等のサービスや、天気予報を表示するサービス、広告を表示するサービス等が実施できなくなる。   Furthermore, when the position of the device cannot be specified or estimated, services such as a car navigation system that performs navigation based on the position of the device, a service that displays a weather forecast, a service that displays an advertisement, and the like cannot be performed.

本発明の位置推定装置は、端末に備えられた少なくとも加速度センサを含む1つ以上のセンサによって測定された数値、および前記数値が測定された時刻を特徴ベクトルに変換するセンサ情報処理部と、各時刻における前記端末の状態が、各地点間を移動する移動体とともに移動中である乗車状態と、停止している停止状態とを含んだ移動に関する状態のうち、いずれの状態であったかを前記特徴ベクトルを基に推定する活動状態推定部と、前記活動状態推定部によって推定された前記状態を基に、前記端末が前記移動体とともに一の地点を出発したと推定される推定出発時刻と、前記端末が前記移動体とともに他の地点へ到着したと推定される推定到着時刻との組み合わせを生成する発着シーケンス生成部と、前記各地点における前記移動体の出発予定時刻および到着予定時刻を含む時刻情報と、前記各地点がどの地点と接続されているかを示す経路情報とを記憶する記憶部から、前記推定出発時刻および前記推定到着時刻の組み合せを基に、前記端末が移動した経路を検索し、検索した結果から前記端末の位置を特定する候補経路検索部と、を有することを特徴とする。   The position estimation apparatus of the present invention includes a numerical value measured by one or more sensors including at least an acceleration sensor provided in a terminal, a sensor information processing unit that converts a time when the numerical value is measured into a feature vector, The feature vector indicates whether the state of the terminal at the time is a state related to movement including a boarding state that is moving with a moving body that moves between points or a stopped state that is stopped Based on the state estimated by the activity state estimation unit, based on the state estimated by the activity state estimation unit, the estimated departure time estimated that the terminal has departed together with the mobile body, and the terminal And a departure / arrival sequence generation unit that generates a combination of estimated arrival times estimated to have arrived at other points together with the mobile body, and the movement at each point Based on a combination of the estimated departure time and the estimated arrival time from a storage unit that stores time information including the scheduled departure time and estimated arrival time and route information indicating which point each point is connected to. And a candidate route search unit that searches for a route traveled by the terminal and identifies the position of the terminal from the search result.

本発明の位置推定方法は、位置推定装置で実行される位置推定方法であって、端末に備えられた少なくとも加速度センサを含む1つ以上のセンサによって測定された数値、および前記数値が測定された時刻を特徴ベクトルに変換するセンサ情報処理工程と、各時刻における前記端末の状態が、各地点間を移動する移動体とともに移動中である乗車状態と、停止している停止状態とを含んだ移動に関する状態のうち、いずれの状態であったかを前記特徴ベクトルを基に推定する活動状態推定工程と、前記活動状態推定工程によって推定された前記状態を基に、前記端末が前記移動体とともに一の地点を出発したと推定される推定出発時刻と、前記端末が前記移動体とともに他の地点へ到着したと推定される推定到着時刻との組み合わせを生成する発着シーケンス生成工程と、前記各地点における前記移動体の出発予定時刻および到着予定時刻を含む時刻情報と、前記各地点がどの地点と接続されているかを示す経路情報とを記憶する記憶部から、前記推定出発時刻および前記推定到着時刻の組み合せを基に、前記端末が移動した経路を検索し、検索した結果から前記端末の位置を特定する候補経路検索工程と、を含んだことを特徴とする。   The position estimation method of the present invention is a position estimation method executed by a position estimation device, and is a numerical value measured by one or more sensors including at least an acceleration sensor provided in a terminal, and the numerical value is measured. A sensor information processing step for converting time into a feature vector, and a state in which the state of the terminal at each time includes a riding state that is moving together with a moving body that moves between points, and a stopped state that is stopped Among the states related to the activity state estimation step for estimating which state was based on the feature vector, and based on the state estimated by the activity state estimation step, the terminal and the mobile unit A combination of an estimated departure time estimated to have departed from the terminal and an estimated arrival time estimated to have arrived at another point with the mobile unit. From a storage unit that stores a departure / arrival sequence generation step, time information including a scheduled departure time and an estimated arrival time of the mobile body at each point, and route information indicating which point each point is connected to, A candidate route search step of searching for a route traveled by the terminal based on a combination of the estimated departure time and the estimated arrival time, and identifying the location of the terminal from the search result. .

本発明によれば、GPSや無線LAN等のサービスを利用できない状況においても、デバイスの位置を特定することができる。   According to the present invention, the position of a device can be specified even in a situation where services such as GPS and wireless LAN cannot be used.

図1は、第1の実施形態に係る位置推定システムおよび位置推定装置の構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of a configuration of a position estimation system and a position estimation apparatus according to the first embodiment. 図2は、センサによって測定されるデータの一例を示す図である。FIG. 2 is a diagram illustrating an example of data measured by a sensor. 図3は、第1の実施形態に係る位置推定装置の発着シーケンスの一例を示す図である。FIG. 3 is a diagram illustrating an example of a departure / arrival sequence of the position estimation device according to the first embodiment. 図4は、第1の実施形態に係る位置推定装置の候補経路の検索方法の一例を示す図である。FIG. 4 is a diagram illustrating an example of a candidate route search method of the position estimation apparatus according to the first embodiment. 図5は、第1の実施形態に係る位置推定装置の位置推定方法を説明するための図である。FIG. 5 is a diagram for explaining a position estimation method of the position estimation apparatus according to the first embodiment. 図6は、第1の実施形態に係る位置推定装置の処理の一例を示すフローチャートである。FIG. 6 is a flowchart illustrating an example of processing of the position estimation device according to the first embodiment. 図7は、その他の実施形態に係る位置推定システムおよび位置推定装置の構成の一例を示す図である。FIG. 7 is a diagram illustrating an example of a configuration of a position estimation system and a position estimation apparatus according to another embodiment. 図8は、その他の実施形態に係る位置推定システムおよび位置推定装置の構成の一例を示す図である。FIG. 8 is a diagram illustrating an example of a configuration of a position estimation system and a position estimation apparatus according to another embodiment. 図9は、プログラムが実行されることにより、位置推定装置が実現されるコンピュータの一例を示す図である。FIG. 9 is a diagram illustrating an example of a computer in which the position estimation apparatus is realized by executing a program.

以下に、本願に係る位置推定装置、位置推定方法および位置推定プログラムの実施形態を図面に基づいて詳細に説明する。なお、この実施形態により本願に係る位置推定装置、位置推定方法および位置推定プログラムが限定されるものではない。   Hereinafter, embodiments of a position estimation device, a position estimation method, and a position estimation program according to the present application will be described in detail with reference to the drawings. In addition, the position estimation apparatus, the position estimation method, and the position estimation program according to the present application are not limited by this embodiment.

[第1の実施形態]
以下の実施形態では、第1の実施形態に係る位置推定システムおよび位置推定装置の構成、位置推定装置の処理の流れを順に説明し、最後に第1の実施形態による効果を説明する。
[First Embodiment]
In the following embodiments, the configuration of the position estimation system and the position estimation device according to the first embodiment, the flow of processing of the position estimation device will be described in order, and finally the effect of the first embodiment will be described.

[第1の実施形態の構成]
まず、図1を用いて、第1の実施形態に係る位置推定システムおよび位置推定装置の構成について説明する。図1は、第1の実施形態に係る位置推定システムおよび位置推定装置の構成の一例を示す図である。図1に示すように、位置推定システム1は、端末10、位置推定装置20および記憶装置30を有する。また、端末10は、加速度センサ101、ジャイロセンサ102および磁力センサ103等のセンサを有する。
[Configuration of First Embodiment]
First, the configuration of the position estimation system and the position estimation apparatus according to the first embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of a configuration of a position estimation system and a position estimation apparatus according to the first embodiment. As illustrated in FIG. 1, the position estimation system 1 includes a terminal 10, a position estimation device 20, and a storage device 30. The terminal 10 includes sensors such as an acceleration sensor 101, a gyro sensor 102, and a magnetic force sensor 103.

端末10の具体的な例としてはスマートフォン、ウェアラブルコンピュータ、センサおよび通信機能を有するカメラ等が挙げられる。また、加速度センサは端末の所定の方向の加速度を測定する。また、ジャイロセンサは端末が回転した場合の角速度を測定する。磁力センサは磁場の大きさや方向を測定する。   Specific examples of the terminal 10 include a smartphone, a wearable computer, a sensor, and a camera having a communication function. The acceleration sensor measures the acceleration in a predetermined direction of the terminal. Further, the gyro sensor measures an angular velocity when the terminal rotates. The magnetic sensor measures the magnitude and direction of the magnetic field.

また、位置推定装置20は、センサ情報処理部201、活動状態推定部202、発着シーケンス生成部203および候補経路検索部204を有する。また、記憶装置30は、経路情報記憶部302および時刻情報記憶部301を有する。以降、各部について詳細に説明する。   The position estimation apparatus 20 includes a sensor information processing unit 201, an activity state estimation unit 202, a departure / arrival sequence generation unit 203, and a candidate route search unit 204. The storage device 30 includes a route information storage unit 302 and a time information storage unit 301. Hereinafter, each part will be described in detail.

センサ情報処理部201は、端末10に備えられた少なくとも加速度センサ101を含む1つ以上のセンサによって測定された数値、および数値が測定された時刻を特徴ベクトルに変換する。センサ情報処理部201は、例えば、センサから得られる数値とその数値を取得した時刻を合わせて時系列として扱う。   The sensor information processing unit 201 converts a numerical value measured by at least one sensor including at least the acceleration sensor 101 provided in the terminal 10 and a time when the numerical value is measured into a feature vector. For example, the sensor information processing unit 201 handles a numerical value obtained from the sensor and a time when the numerical value is acquired as a time series.

また、センサ情報処理部201がセンサから数値を得る間隔、すなわちサンプリングレートは任意である。例えば、サンプリングレートは10Hzであってもよい。この場合、センサ情報処理部201は、1秒間に10回、すなわち0.1秒間隔でセンサが測定した数値を取得する。   Further, the interval at which the sensor information processing unit 201 obtains a numerical value from the sensor, that is, the sampling rate is arbitrary. For example, the sampling rate may be 10 Hz. In this case, the sensor information processing unit 201 acquires a numerical value measured by the sensor 10 times per second, that is, at intervals of 0.1 second.

また、センサ情報処理部201は、例えば加速度センサ101によって測定されたX軸方向の加速度、Y軸方向の加速度およびZ軸方向の加速度を取得する。センサ情報処理部201は、センサから取得した数値、もしくは各数値の平均、分散、閾値と比較した時の大小、最大値、最小値、傾き等から構成される特徴量の集まり、すなわち特徴ベクトルを作成する。   In addition, the sensor information processing unit 201 acquires, for example, acceleration in the X-axis direction, acceleration in the Y-axis direction, and acceleration in the Z-axis direction measured by the acceleration sensor 101. The sensor information processing unit 201 collects a numerical value acquired from a sensor, or a collection of feature amounts including a magnitude, a maximum value, a minimum value, a slope, and the like when compared with an average, variance, and threshold value of each numerical value, that is, a feature vector. create.

ここで、特徴ベクトルの作成方法の一例について説明する。図2に示すように、センサから得られる情報は時間と値の組の連続から構成される。図2は、センサによって測定されるデータの一例を示す図である。図2のAは、加速度センサ101から取得した各時刻における端末10の加速度を示している。また、図2のMは、磁力センサ103から取得した各時刻における端末10の磁力を示している。また、図2のGは、ジャイロセンサ102から取得した各時刻における端末10の角速度を示している。   Here, an example of a feature vector creation method will be described. As shown in FIG. 2, the information obtained from the sensor is composed of a series of time and value pairs. FIG. 2 is a diagram illustrating an example of data measured by a sensor. 2A shows the acceleration of the terminal 10 at each time acquired from the acceleration sensor 101. FIG. Further, M in FIG. 2 indicates the magnetic force of the terminal 10 at each time obtained from the magnetic force sensor 103. Further, G in FIG. 2 indicates the angular velocity of the terminal 10 at each time acquired from the gyro sensor 102.

センサ情報処理部201は、連続する情報をブロック単位に分けて特徴ベクトルを作成する。ブロックはN個の連続するデータを含む。例えば、Nを20とすると、0.1秒間隔でセンサからデータを収集している場合は、2秒分の連続するデータが1つのブロックとなる。   The sensor information processing unit 201 creates a feature vector by dividing continuous information into block units. A block contains N consecutive data. For example, when N is 20, when data is collected from the sensor at intervals of 0.1 seconds, continuous data for 2 seconds is one block.

例えば、加速度センサ101から取得した数値および時刻を用いて、時刻iに対応する特徴ベクトルを作成すると、下記の式(1)のようになる。例えば、式(1)でデータ取得間隔を0.1秒とした場合、a (i)は時刻iの加速度であり、a (i)はa (i)の0.1秒後の加速度である。この場合、加速度はある一方向の加速度であってもよいし、また、X方向、Y方向およびZ方向の加速度を示すベクトルであってもよいし、加速度のベクトルの大きさであってもよい。 For example, when a feature vector corresponding to time i is created using a numerical value and time acquired from the acceleration sensor 101, the following equation (1) is obtained. For example, when the data acquisition interval is 0.1 seconds in equation (1), a 1 (i) is the acceleration at time i, and a 2 (i) is 0.1 seconds after a 1 (i). It is acceleration. In this case, the acceleration may be an acceleration in one direction, a vector indicating the acceleration in the X direction, the Y direction, and the Z direction, or the magnitude of the acceleration vector. .

Figure 2017026542
Figure 2017026542

活動状態推定部202は、各地点間を移動する移動体とともに移動中である乗車状態と、停止している停止状態とを含んだ移動に関する状態のうち、各時刻において端末10がいずれの状態であったかを特徴ベクトルを基に推定する。第1の実施形態においては、移動体、地点、時刻情報および経路情報はそれぞれ電車、駅、時刻表および経路図に対応する。   The active state estimation unit 202 is in any state in which the terminal 10 is in each state at each time among the states relating to the movement including the riding state that is moving together with the moving body that moves between the points and the stopped state that is stopped. It is estimated based on the feature vector. In the first embodiment, the moving object, the point, the time information, and the route information correspond to a train, a station, a timetable, and a route map, respectively.

活動状態推定部202は、端末10を保有しているユーザの活動状態を推定する。第1の実施形態において、活動状態とは、立ち止まって動いていない状態である停止状態、歩いているもしくは走っている状態である歩行状態、および移動中の電車に乗っている状態である乗車状態が含まれる。活動状態推定部202は、センサ情報処理部201で作成された特徴ベクトルを用いて、端末10がいずれの状態にあるかを推定する。活動状態推定部202の推定結果は、各時刻において端末10が乗車状態、歩行状態および停止状態のうちのいずれの状態であるかによって示される。   The activity state estimation unit 202 estimates the activity state of the user who owns the terminal 10. In the first embodiment, the active state is a stopped state where the vehicle is stopped and not moving, a walking state where the vehicle is walking or running, and a riding state where the vehicle is on a moving train. Is included. The activity state estimation unit 202 estimates the state of the terminal 10 using the feature vector created by the sensor information processing unit 201. The estimation result of the activity state estimation unit 202 is indicated by whether the terminal 10 is in the riding state, the walking state, or the stopped state at each time.

なお、端末10が電車内にある場合であっても、電車が停止している場合は停止状態である。例えば、駅Aを出発し駅Bを経由して駅Cへ到着する場合、駅Aと駅Bの間を移動している間および駅Bと駅Cの間を移動している間は乗車状態であり、駅A、駅Bおよび駅Cに電車が停車している間の活動状態は停止状態である。   Even when the terminal 10 is on the train, it is stopped when the train is stopped. For example, when leaving the station A and arriving at the station C via the station B, it is in a boarding state while moving between the station A and the station B and while moving between the station B and the station C. The activity state while the train stops at the station A, the station B, and the station C is a stopped state.

活動状態推定部202は、例えばサポートベクターマシン等の機械学習アルゴリズムによって活動状態の推定を行う。機械学習アルゴリズムは、乗車状態、歩行状態、停止状態といった活動状態における特徴ベクトルを学習データとして与えられることで学習を行う。そして、活動状態推定部202は、学習を行った機械学習アルゴリズムに推定対象の特徴ベクトルを入力し、活動状態を推定する。   The activity state estimation unit 202 estimates the activity state using a machine learning algorithm such as a support vector machine. The machine learning algorithm performs learning by being provided with feature vectors in an active state such as a boarding state, a walking state, and a stopped state as learning data. Then, the activity state estimation unit 202 inputs the feature vector to be estimated to the machine learning algorithm that has learned, and estimates the activity state.

発着シーケンス生成部203は、活動状態推定部202によって推定された状態を基に、端末10が移動体とともに一の地点を出発したと推定される推定出発時刻と、端末10が移動体とともに他の地点へ到着したと推定される推定到着時刻との組み合わせを生成する。例えば、推定出発時刻は、活動状態推定部202によって推定された端末10の状態が停止状態から乗車状態へ移行した時刻である。また、例えば、推定到着時刻は、活動状態推定部202によって推定された端末10の状態が乗車状態から停止状態へ移行した時刻である。   Based on the state estimated by the activity state estimation unit 202, the departure / arrival sequence generation unit 203 estimates the estimated departure time when the terminal 10 departs from one point together with the mobile object, A combination with an estimated arrival time estimated to have arrived at the point is generated. For example, the estimated departure time is the time when the state of the terminal 10 estimated by the activity state estimation unit 202 has shifted from the stop state to the boarding state. Further, for example, the estimated arrival time is a time when the state of the terminal 10 estimated by the activity state estimation unit 202 has shifted from the boarding state to the stop state.

ここで、発着シーケンスとは乗車状態が連続している時刻の区間の開始時刻と終了時刻のペアを並べたものである。推定出発時刻は1つの区間の開始時刻である。また、推定到着時刻は1つの区間の終了時刻である。なお、推定出発時刻および推定到着時刻は、ある駅における電車の発車時刻および停車時刻の推定値ということもできる。   Here, the departure / arrival sequence is a sequence of pairs of start time and end time of sections of time when the boarding state is continuous. The estimated departure time is the start time of one section. The estimated arrival time is the end time of one section. The estimated departure time and estimated arrival time can also be referred to as estimated values of train departure time and stop time at a certain station.

図3を用いて、発着シーケンスの具体的な例について説明する。図3は、第1の実施形態に係る位置推定装置の発着シーケンスの一例を示す図である。値が低い区間は端末10が停止状態であることを示している。また、値が高い区間は端末10が乗車状態であることを示している。また、端末10の活動状態が停止状態から乗車状態に変化した時刻が推定出発時刻である。また、端末10の活動状態が乗車状態から停止状態に変化した時刻が推定到着時刻である。図3は、例えば時刻d(10:57)に端末10を保有しているユーザを乗せた電車が駅を出発し、時刻a(10:58)に電車が次の駅に到着したことを示している。   A specific example of the departure / arrival sequence will be described with reference to FIG. FIG. 3 is a diagram illustrating an example of a departure / arrival sequence of the position estimation device according to the first embodiment. A section with a low value indicates that the terminal 10 is in a stopped state. A section with a high value indicates that the terminal 10 is in the boarding state. The time when the activity state of the terminal 10 changes from the stop state to the boarding state is the estimated departure time. The time when the activity state of the terminal 10 changes from the boarding state to the stop state is the estimated arrival time. FIG. 3 shows that, for example, a train carrying a user holding the terminal 10 leaves the station at time d (10:57), and the train arrives at the next station at time a (10:58). ing.

候補経路検索部204は、推定出発時刻および推定到着時刻の組み合せを基に、時刻情報記憶部301および経路情報記憶部302から端末10が移動した経路を検索する。具体的に、候補経路検索部204は、推定出発時刻および推定到着時刻の組み合せと合致する出発予定時刻および到着予定時刻の組み合わせを時刻情報記憶部301から検索し、検索した結果得られた出発予定時刻および到着予定時刻の組み合わせに対応する地点を経路情報記憶部302から取得することで、端末10が移動した経路を検索する。そして、検索結果を基に、端末10および端末10を保有しているユーザの位置を特定する。   Candidate route search unit 204 searches for a route traveled by terminal 10 from time information storage unit 301 and route information storage unit 302 based on a combination of estimated departure time and estimated arrival time. Specifically, the candidate route search unit 204 searches the time information storage unit 301 for a combination of the scheduled departure time and the estimated arrival time that matches the combination of the estimated departure time and the estimated arrival time, and the departure schedule obtained as a result of the search. By acquiring a point corresponding to the combination of the time and the estimated arrival time from the route information storage unit 302, the route on which the terminal 10 has moved is searched. And based on a search result, the position of the user who owns the terminal 10 and the terminal 10 is specified.

なお、時刻情報記憶部301には移動体の各地点における出発予定時刻および到着予定時刻を含む時刻情報が記憶されている。また、経路情報記憶部302には各地点がどの地点と接続されているかを示す経路情報が記憶されている。   The time information storage unit 301 stores time information including scheduled departure time and arrival time at each point of the moving body. The route information storage unit 302 stores route information indicating which point each point is connected to.

候補経路検索部204は、経路の候補として、例えば端末10を保有しているユーザが乗車したと推定される電車が通過した駅の並びを検索する。また、時刻情報記憶部301および経路情報記憶部302は、各路線の路線図および時刻表をデータベース化した路線データをあらかじめ記憶しておくようにしてもよい。   The candidate route search unit 204 searches, for example, a list of stations through which a train that is estimated to have been taken by a user who has the terminal 10 has passed. Further, the time information storage unit 301 and the route information storage unit 302 may store route data in which route maps and timetables of each route are converted into a database in advance.

図4を用いて経路を検索する方法について具体的に説明する。図4は、第1の実施形態に係る位置推定装置の候補経路の検索方法の一例を示す図である。まず、発着シーケンス生成部203が生成した発着シーケンスを、{Td1,Ta1}、{Td2,Ta2}、{Td3,Ta3}とする。例えば、{Td1,Ta1}において、Td1およびTa1は、それぞれ推定出発時刻および推定到着時刻を示している。候補経路検索部204では、これらの発着シーケンスを入力とする。   A method of searching for a route will be specifically described with reference to FIG. FIG. 4 is a diagram illustrating an example of a candidate route search method of the position estimation apparatus according to the first embodiment. First, it is assumed that the departure and arrival sequences generated by the departure and arrival sequence generation unit 203 are {Td1, Ta1}, {Td2, Ta2}, and {Td3, Ta3}. For example, in {Td1, Ta1}, Td1 and Ta1 indicate an estimated departure time and an estimated arrival time, respectively. The candidate route search unit 204 receives these departure / arrival sequences.

なお、図4のS1、S2等は電車の駅を示している。また、候補経路検索部204による検索結果は、{S1、S2、S3}のような形式で表される。例えば、{S1、S2、S3}は、S1駅を出発しS2駅を経由してS3駅に到着する経路を示している。   In addition, S1, S2, etc. of FIG. 4 have shown the station of a train. The search result by the candidate route search unit 204 is expressed in a format such as {S1, S2, S3}. For example, {S1, S2, S3} indicates a route that leaves the S1 station and arrives at the S3 station via the S2 station.

発着シーケンス{Td1,Ta1}、{Td2,Ta2}、{Td3,Ta3}が入力されると、まず、{Td1,Ta1}と発車時刻および停車時刻が合致する駅を路線図および時刻表から検索する。この時、図4に示すように、{Td1,Ta1}と発車時刻および停車時刻が合致する経路として、{S1、S4}、{S1、S5}、{S2、S6}、{S3、S7}の4つの経路が検索される。   When a departure / arrival sequence {Td1, Ta1}, {Td2, Ta2}, {Td3, Ta3} is input, first, a station where the departure time and the stop time match {Td1, Ta1} is searched from the route map and timetable. To do. At this time, as shown in FIG. 4, {T1, S4}, {S1, S5}, {S2, S6}, {S3, S7} are routes that match {Td1, Ta1} with the departure time and stop time. Are searched.

さらに、既に検索された経路の到着駅を出発駅とする経路であって、{Td2,Ta2}と発車時刻および停車時刻が合致する経路を検索する。これにより、{S1、S4、S8}、{S1、S5、S9}、{S3、S7、S10}の3つの経路が検索される。なお、{S2、S6}については、条件に該当する経路が存在しないため、この時点で候補から外される。   Further, a route that has the arrival station of the already searched route as the departure station and that matches {Td2, Ta2} with the departure time and the stop time is searched. As a result, three routes {S1, S4, S8}, {S1, S5, S9}, {S3, S7, S10} are searched. Note that {S2, S6} is excluded from candidates at this point because there is no route that satisfies the condition.

同様に、{Td3,Ta3}と発車時刻および停車時刻が合致する経路を検索する。最終的に、候補経路として{S1、S4、S8、S11}、{S3、S7、S10、S12}が出力される。   Similarly, a route in which {Td3, Ta3} matches the departure time and the stop time is searched. Finally, {S1, S4, S8, S11}, {S3, S7, S10, S12} are output as candidate routes.

図5を用いて、位置推定装置20に位置推定方法の概要を説明する。図5は、第1の実施形態に係る位置推定装置の位置推定方法を説明するための図である。図5のセンサデータは、センサ情報処理部201が端末10の各センサから取得するデータである。そして、図5の活動状態は、活動状態推定部202がセンサデータを基に推定する各時刻における端末の状態を示している。図5に示すように、活動状態には乗車状態、歩行状態および停止状態の3つの状態が含まれる。   The outline of the position estimation method will be described in the position estimation device 20 with reference to FIG. FIG. 5 is a diagram for explaining a position estimation method of the position estimation apparatus according to the first embodiment. The sensor data in FIG. 5 is data that the sensor information processing unit 201 acquires from each sensor of the terminal 10. And the activity state of FIG. 5 has shown the state of the terminal in each time which the activity state estimation part 202 estimates based on sensor data. As shown in FIG. 5, the activity state includes three states: a riding state, a walking state, and a stopped state.

また、図5の発着シーケンスは、発着シーケンス生成部によって生成される発着シーケンスである。そして、図5の候補経路は、候補経路検索部204が発着シーケンスを基に検索した経路である。図5に示すように、候補経路検索部204は複数の候補経路を検索結果として取得する。そして、候補経路検索部204は、例えば得られた候補経路の到着地点を、端末10および端末10を保有しているユーザの位置として推定してもよい。図5の例では、「御徒町」、「新栄町」または「環状通東」が端末10およびユーザの位置として推定される。   5 is a departure / arrival sequence generated by the arrival / departure sequence generation unit. The candidate routes in FIG. 5 are routes searched by the candidate route search unit 204 based on the arrival / departure sequence. As shown in FIG. 5, the candidate route search unit 204 acquires a plurality of candidate routes as search results. Then, for example, the candidate route search unit 204 may estimate the arrival point of the obtained candidate route as the position of the terminal 10 and the user who owns the terminal 10. In the example of FIG. 5, “Okachimachi”, “Shineicho”, or “Ringtsu Toto” is estimated as the position of the terminal 10 and the user.

[第1の実施形態の処理]
図6を用いて第1の実施形態の処理について説明する。図6は、第1の実施形態に係る位置推定装置の処理の一例を示すフローチャートである。まず、センサ情報処理部201は、端末10の各種センサから情報を収集する(ステップS101)。そして、次に、センサ情報処理部201は、収集した情報を特徴ベクトルに変換する(ステップS102)。次に、活動状態推定部202は、特徴ベクトルから活動状態を推定する(ステップS103)。
[Process of First Embodiment]
The processing of the first embodiment will be described with reference to FIG. FIG. 6 is a flowchart illustrating an example of processing of the position estimation device according to the first embodiment. First, the sensor information processing unit 201 collects information from various sensors of the terminal 10 (step S101). Next, the sensor information processing unit 201 converts the collected information into a feature vector (step S102). Next, the activity state estimation unit 202 estimates the activity state from the feature vector (step S103).

発着シーケンス生成部203は、活動状態から発着シーケンスを生成する(ステップS104)。そして、候補経路検索部204は、発着シーケンスと時刻情報記憶部301に記憶されている時刻表および経路情報記憶部302に記憶されている路線図を突き合わせて候補経路を列挙する(ステップS105)。   The departure / arrival sequence generation unit 203 generates a departure / arrival sequence from the activity state (step S104). Then, the candidate route search unit 204 lists candidate routes by matching the departure / arrival sequence with the timetable stored in the time information storage unit 301 and the route map stored in the route information storage unit 302 (step S105).

[第1の実施形態の効果]
位置推定装置20のセンサ情報処理部201は、端末10に備えられた少なくとも加速度センサ101を含む1つ以上のセンサによって測定された数値、および数値が測定された時刻を特徴ベクトルに変換する。
[Effect of the first embodiment]
The sensor information processing unit 201 of the position estimation device 20 converts a numerical value measured by at least one sensor including at least the acceleration sensor 101 provided in the terminal 10 and a time when the numerical value is measured into a feature vector.

また、位置推定装置20の活動状態推定部202は、各地点間を移動する移動体とともに移動中である乗車状態と、停止している停止状態とを含んだ移動に関する状態のうち、各時刻において端末10がいずれの状態であったかを特徴ベクトルを基に推定する。例えば、活動状態推定部202は、端末10の状態およびそれぞれの状態における特徴ベクトルを学習データとして機械学習を行った機械学習アルゴリズムを用いて推定を行う。   In addition, the activity state estimation unit 202 of the position estimation device 20 includes, at each time, a state relating to movement including a riding state that is moving together with a moving body that moves between points and a stopped state that is stopped. The terminal 10 is estimated based on the feature vector. For example, the activity state estimation unit 202 performs estimation using a machine learning algorithm that performs machine learning using the state of the terminal 10 and feature vectors in each state as learning data.

また、位置推定装置20の発着シーケンス生成部203は、活動状態推定部202によって推定された状態を基に、端末10が移動体とともに一の地点を出発したと推定される推定出発時刻と、端末10が移動体とともに他の地点へ到着したと推定される推定到着時刻との組み合わせを生成する。例えば、推定出発時刻は、活動状態推定部202によって推定された端末10の状態が停止状態から乗車状態へ移行した時刻としてもよい。さらに、例えば、推定到着時刻は、活動状態推定部202によって推定された端末10の状態が乗車状態から停止状態へ移行した時刻である。   Further, the departure / arrival sequence generation unit 203 of the position estimation device 20 is based on the state estimated by the activity state estimation unit 202, the estimated departure time estimated that the terminal 10 has departed with the moving object, and the terminal 10 generates a combination with an estimated arrival time that is estimated to have arrived at another point together with the moving object. For example, the estimated departure time may be a time when the state of the terminal 10 estimated by the activity state estimation unit 202 shifts from the stop state to the boarding state. Further, for example, the estimated arrival time is the time when the state of the terminal 10 estimated by the activity state estimation unit 202 has shifted from the boarding state to the stop state.

また、位置推定装置20の候補経路検索部204は、推定出発時刻および推定到着時刻の組み合せを基に、時刻情報記憶部301および経路情報記憶部302から端末10が移動した経路を検索する。具体的には、例えば、候補経路検索部204は、推定出発時刻および推定到着時刻の組み合せと合致する出発予定時刻および到着予定時刻の組み合わせを時刻情報記憶部301から検索し、検索した結果得られた出発予定時刻および到着予定時刻の組み合わせに対応する地点を経路情報記憶部302から取得することで、端末10が移動した経路を検索し、検索結果から端末10の位置を特定する。   In addition, the candidate route search unit 204 of the position estimation device 20 searches the route on which the terminal 10 has moved from the time information storage unit 301 and the route information storage unit 302 based on the combination of the estimated departure time and the estimated arrival time. Specifically, for example, the candidate route search unit 204 searches the time information storage unit 301 for a combination of the scheduled departure time and the estimated arrival time that matches the combination of the estimated departure time and the estimated arrival time, and the search result is obtained. By acquiring a point corresponding to the combination of the scheduled departure time and the estimated arrival time from the route information storage unit 302, the route traveled by the terminal 10 is searched, and the position of the terminal 10 is specified from the search result.

なお、時刻情報記憶部301には移動体の各地点における出発予定時刻および到着予定時刻を含む時刻情報が記憶されている。また、経路情報記憶部302には各地点がどの地点と接続されているかを示す経路情報が記憶されている。   The time information storage unit 301 stores time information including scheduled departure time and arrival time at each point of the moving body. The route information storage unit 302 stores route information indicating which point each point is connected to.

このように、第1の実施形態においては、端末に備えられたセンサから得られる情報を利用して端末の現在位置を特定する。これにより、GPSや無線LAN等のサービスを利用できない状況においても、デバイスの位置を特定することができる。   Thus, in the first embodiment, the current position of the terminal is specified using information obtained from the sensor provided in the terminal. Thereby, the position of the device can be specified even in a situation where services such as GPS and wireless LAN cannot be used.

また、例えば、センサ情報処理部201は、例えば加速度センサ101によって測定されたX軸方向の加速度、Y軸方向の加速度およびZ軸方向の加速度を取得してもよい。このように、加速度センサから得られる各方向の加速度を推定に利用することで、推定精度を向上させることができる。   For example, the sensor information processing unit 201 may acquire, for example, acceleration in the X-axis direction, acceleration in the Y-axis direction, and acceleration in the Z-axis direction measured by the acceleration sensor 101. Thus, the estimation accuracy can be improved by using the acceleration in each direction obtained from the acceleration sensor for estimation.

[その他の実施形態]
端末10に備えられるセンサは、上記の実施形態で説明したものに限られず、気圧センサや温度センサ等が含まれていてもよい。また、加速度センサの測定値は、活動状態を推定するためのパラメータとして有効なものと考えられるが、加速度センサを備えない構成であってもよい。
[Other Embodiments]
The sensors provided in the terminal 10 are not limited to those described in the above embodiment, and may include an atmospheric pressure sensor, a temperature sensor, and the like. Moreover, although the measured value of the acceleration sensor is considered to be effective as a parameter for estimating the activity state, a configuration without the acceleration sensor may be used.

また、磁力センサによって得られる測定値は、上記の実施形態のように活動状態の推定のパラメータとして利用できるほか、各地点の磁場の強さを示す情報と突き合わせることで、候補経路を検証することができる。   In addition, the measurement value obtained by the magnetic force sensor can be used as an activity state estimation parameter as in the above embodiment, and the candidate path is verified by matching with the information indicating the strength of the magnetic field at each point. be able to.

また、上記の実施形態では、移動体を電車とした場合の例を挙げたが、電車に限られず、例えば飛行機、バス、船であってあらかじめ定められた経路および時刻に従って移動するものであれば、本発明を適用することができる。   In the above-described embodiment, an example in which the moving body is a train has been described. However, the present invention is not limited to a train, and may be, for example, an airplane, a bus, or a ship that moves according to a predetermined route and time. The present invention can be applied.

また、図5に示すような候補経路は、推定出発時刻および推定到着時刻と、経路情報および時刻情報によって得られたものである。得られた候補経路をさらに絞り込む方法として、例えば利用者数が多い経路を優先することが考えられる。例えば、経路Aおよび経路Bが候補経路として検索された場合に、経路Aの1時間当たりの利用者が10000人、経路Bの1時間当たりの利用者数が100人ということがあらかじめ分かっていれば、経路Aを第1の候補とした方が、ユーザの実際の移動経路と合致している可能性が高い。この他にも、既知の方法を用いて候補経路の絞り込みを行うことが考えられる。   Further, the candidate route as shown in FIG. 5 is obtained from the estimated departure time and estimated arrival time, route information and time information. As a method for further narrowing down the obtained candidate routes, for example, priority may be given to routes with a large number of users. For example, when route A and route B are searched as candidate routes, it is known in advance that the number of users per hour of route A is 10,000 and the number of users of route B per hour is 100. For example, it is more likely that the route A as the first candidate matches the actual movement route of the user. In addition, it is conceivable to narrow down candidate routes using a known method.

また、電車は、遅延等により時刻表通りに移動しない場合も考えられる。この場合、遅延情報を参照することで、時刻情報の補正を行うこと等により推定精度を向上させることができる。   In addition, the train may not move according to the timetable due to delay or the like. In this case, by referring to the delay information, the estimation accuracy can be improved by correcting the time information.

また、本発明の構成は、図1に示すものに限られず、例えば、図7または図8に示すような構成であってもよい。図7および図8は、その他の実施形態に係る位置推定システムおよび位置推定装置の構成の一例を示す図である。   Further, the configuration of the present invention is not limited to that shown in FIG. 1, and may be, for example, a configuration as shown in FIG. 7 or FIG. 7 and 8 are diagrams illustrating an example of the configuration of a position estimation system and a position estimation apparatus according to another embodiment.

例えば、図7に示すように、位置推定装置としても機能する端末15aに、測定部10aおよび制御部20aを備えても良い。この場合、測定部10aは各種センサを備える。また、制御部20aは、第1の実施形態における位置推定装置20と同様の機能を有する。   For example, as illustrated in FIG. 7, a measurement unit 10 a and a control unit 20 a may be provided in a terminal 15 a that also functions as a position estimation device. In this case, the measurement unit 10a includes various sensors. The control unit 20a has the same function as the position estimation device 20 in the first embodiment.

また、図8に示すように、位置推定装置としても機能する端末15bに、測定部10b、制御部20bおよび記憶部30bを備えてもよい。この場合、測定部10bは各種センサを備える。また、制御部20bは、第1の実施形態における位置推定装置20と同様の機能を有する。さらに、記憶部30bは第1の実施形態における記憶装置30と同様の機能を有する。なお、記憶部30bには、必ずしも全ての時刻表および路線図を記憶させる必要はなく、候補経路検索部204bが経路の検索を行うために必要な時刻表および路線図を一時的に記憶するようにしてもよい。   In addition, as illustrated in FIG. 8, the terminal 15b that also functions as a position estimation device may include a measurement unit 10b, a control unit 20b, and a storage unit 30b. In this case, the measurement unit 10b includes various sensors. Further, the control unit 20b has the same function as the position estimation device 20 in the first embodiment. Furthermore, the storage unit 30b has the same function as the storage device 30 in the first embodiment. It is not always necessary to store all timetables and route maps in the storage unit 30b, but temporarily store the timetables and route maps necessary for the candidate route search unit 204b to search for routes. It may be.

[システム構成等]
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPU(Central Processing Unit)および当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
[System configuration, etc.]
Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured. Further, all or any part of each processing function performed in each device is realized by a CPU (Central Processing Unit) and a program analyzed and executed by the CPU, or hardware by wired logic. Can be realized as

また、本実施形態において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的におこなうこともでき、あるいは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的におこなうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。   In addition, among the processes described in the present embodiment, all or part of the processes described as being automatically performed can be manually performed, or the processes described as being manually performed can be performed. All or a part can be automatically performed by a known method. In addition, the processing procedure, control procedure, specific name, and information including various data and parameters shown in the above-described document and drawings can be arbitrarily changed unless otherwise specified.

[プログラム]
図9は、プログラムが実行されることにより、位置推定装置が実現されるコンピュータの一例を示す図である。コンピュータ1000は、例えば、メモリ1010、CPU1020を有する。また、コンピュータ1000は、ハードディスクドライブインタフェース1030、ディスクドライブインタフェース1040、シリアルポートインタフェース1050、ビデオアダプタ1060、ネットワークインタフェース1070を有する。これらの各部は、バス1080によって接続される。
[program]
FIG. 9 is a diagram illustrating an example of a computer in which the position estimation apparatus is realized by executing a program. The computer 1000 includes a memory 1010 and a CPU 1020, for example. The computer 1000 also includes a hard disk drive interface 1030, a disk drive interface 1040, a serial port interface 1050, a video adapter 1060, and a network interface 1070. These units are connected by a bus 1080.

メモリ1010は、ROM(Read Only Memory)1011およびRAM(Random Access Memory)1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブ1100に挿入される。シリアルポートインタフェース1050は、例えばマウス1110、キーボード1120に接続される。ビデオアダプタ1060は、例えばディスプレイ1130に接続される。   The memory 1010 includes a ROM (Read Only Memory) 1011 and a RAM (Random Access Memory) 1012. The ROM 1011 stores a boot program such as BIOS (Basic Input Output System). The hard disk drive interface 1030 is connected to the hard disk drive 1090. The disk drive interface 1040 is connected to the disk drive 1100. For example, a removable storage medium such as a magnetic disk or an optical disk is inserted into the disk drive 1100. The serial port interface 1050 is connected to a mouse 1110 and a keyboard 1120, for example. The video adapter 1060 is connected to the display 1130, for example.

ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、位置推定装置の各処理を規定するプログラムは、コンピュータにより実行可能なコードが記述されたプログラムモジュール1093として実装される。プログラムモジュール1093は、例えばハードディスクドライブ1090に記憶される。例えば、位置推定装置における機能構成と同様の処理を実行するためのプログラムモジュール1093が、ハードディスクドライブ1090に記憶される。なお、ハードディスクドライブ1090は、SSD(Solid State Drive)により代替されてもよい。   The hard disk drive 1090 stores, for example, an OS 1091, an application program 1092, a program module 1093, and program data 1094. That is, the program that defines each process of the position estimation apparatus is implemented as a program module 1093 in which code executable by a computer is described. The program module 1093 is stored in the hard disk drive 1090, for example. For example, a program module 1093 for executing processing similar to the functional configuration in the position estimation device is stored in the hard disk drive 1090. The hard disk drive 1090 may be replaced by an SSD (Solid State Drive).

また、上述した実施形態の処理で用いられる設定データは、プログラムデータ1094として、例えばメモリ1010やハードディスクドライブ1090に記憶される。そして、CPU1020が、メモリ1010やハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して実行する。   The setting data used in the processing of the above-described embodiment is stored as program data 1094 in, for example, the memory 1010 or the hard disk drive 1090. Then, the CPU 1020 reads the program module 1093 and the program data 1094 stored in the memory 1010 and the hard disk drive 1090 to the RAM 1012 and executes them as necessary.

なお、プログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限らず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、プログラムモジュール1093およびプログラムデータ1094は、ネットワーク(LAN(Local Area Network)、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶されてもよい。そして、プログラムモジュール1093およびプログラムデータ1094は、他のコンピュータから、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。   The program module 1093 and the program data 1094 are not limited to being stored in the hard disk drive 1090, but may be stored in, for example, a removable storage medium and read out by the CPU 1020 via the disk drive 1100 or the like. Alternatively, the program module 1093 and the program data 1094 may be stored in another computer connected via a network (LAN (Local Area Network), WAN (Wide Area Network), etc.). The program module 1093 and the program data 1094 may be read by the CPU 1020 from another computer via the network interface 1070.

1 位置推定システム
10 端末
20 位置推定装置
30 記憶装置
101 加速度センサ
102 ジャイロセンサ
103 磁力センサ
201 センサ情報処理部
202 活動状態推定部
203 発着シーケンス生成部
204 候補経路検索部
301 時刻情報記憶部
302 経路情報記憶部
DESCRIPTION OF SYMBOLS 1 Position estimation system 10 Terminal 20 Position estimation apparatus 30 Storage apparatus 101 Acceleration sensor 102 Gyro sensor 103 Magnetic sensor 201 Sensor information processing part 202 Activity state estimation part 203 Departure / arrival sequence generation part 204 Candidate path search part 301 Time information storage part 302 Path information Memory

Claims (7)

端末に備えられた少なくとも加速度センサを含む1つ以上のセンサによって測定された数値、および前記数値が測定された時刻を特徴ベクトルに変換するセンサ情報処理部と、
各時刻における前記端末の状態が、各地点間を移動する移動体とともに移動中である乗車状態と、停止している停止状態とを含んだ移動に関する状態のうち、いずれの状態であったかを前記特徴ベクトルを基に推定する活動状態推定部と、
前記活動状態推定部によって推定された前記状態を基に、前記端末が前記移動体とともに一の地点を出発したと推定される推定出発時刻と、前記端末が前記移動体とともに他の地点へ到着したと推定される推定到着時刻との組み合わせを生成する発着シーケンス生成部と、
前記各地点における前記移動体の出発予定時刻および到着予定時刻を含む時刻情報と、前記各地点がどの地点と接続されているかを示す経路情報とを記憶する記憶部から、前記推定出発時刻および前記推定到着時刻の組み合せを基に、前記端末が移動した経路を検索し、検索した結果から前記端末の位置を特定する候補経路検索部と、
を有することを特徴とする位置推定装置。
A numerical value measured by one or more sensors including at least an acceleration sensor provided in the terminal, and a sensor information processing unit that converts a time when the numerical value is measured into a feature vector;
Whether the state of the terminal at each time is a state related to movement including a boarding state that is moving together with a moving body that moves between points or a stopped state that is stopped is the state described above An activity state estimator that estimates based on a vector;
Based on the state estimated by the activity state estimation unit, the estimated departure time when the terminal departs from one point with the mobile object, and the terminal arrives at another point together with the mobile object A departure and arrival sequence generation unit that generates a combination of estimated arrival time and
From the storage unit that stores time information including the scheduled departure time and estimated arrival time of the mobile body at each point, and route information indicating which point each point is connected to, the estimated departure time and the Based on a combination of estimated arrival times, search for a route traveled by the terminal, and a candidate route search unit that identifies the position of the terminal from the search result;
A position estimation apparatus comprising:
前記発着シーケンス生成部は、前記活動状態推定部によって推定された前記端末の状態が前記停止状態から前記乗車状態へ移行した時刻を前記推定出発時刻とし、前記活動状態推定部によって推定された前記端末の状態が前記乗車状態から前記停止状態へ移行した時刻を前記推定到着時刻とし、
前記候補経路検索部は、前記推定出発時刻および前記推定到着時刻の組み合せと合致する前記出発予定時刻および前記到着予定時刻の組み合わせを前記時刻情報から検索し、検索した結果得られた前記出発予定時刻および前記到着予定時刻の組み合わせに対応する地点を前記経路情報から取得することで、前記端末が移動した経路を検索することを特徴とする請求項1に記載の位置推定装置。
The departure / arrival sequence generation unit uses the time when the state of the terminal estimated by the activity state estimation unit shifts from the stop state to the boarding state as the estimated departure time, and the terminal estimated by the activity state estimation unit The time when the state has shifted from the riding state to the stopped state is the estimated arrival time,
The candidate route search unit searches the time information for a combination of the estimated departure time and the estimated arrival time that matches the combination of the estimated departure time and the estimated arrival time, and the estimated departure time obtained as a result of the search 2. The position estimation apparatus according to claim 1, wherein a route traveled by the terminal is retrieved by acquiring a point corresponding to the combination of the estimated arrival time from the route information.
前記活動状態推定部は、駅間を移動する電車を、前記各地点間を移動する移動体として前記端末の状態を推定し、
前記候補経路検索部は、前記時刻情報および前記経路情報として時刻表および路線図を記憶する記憶部から検索することを特徴とする請求項1または2に記載の位置推定装置。
The activity state estimation unit estimates the state of the terminal as a moving body that moves between stations, a train that moves between stations,
The position estimation device according to claim 1, wherein the candidate route search unit searches from a storage unit that stores a timetable and a route map as the time information and the route information.
前記センサ情報処理部は、前記加速度センサによって測定されたX軸方向の加速度、Y軸方向の加速度およびZ軸方向の加速度を前記数値として、前記特徴ベクトルへの変換を行うことを特徴とする請求項1から3のいずれか1項に記載の位置推定装置。   The sensor information processing unit converts the acceleration in the X-axis direction, the acceleration in the Y-axis direction, and the acceleration in the Z-axis direction measured by the acceleration sensor into the feature vector as the numerical values. Item 4. The position estimation device according to any one of Items 1 to 3. 前記活動状態推定部は、端末の状態および該状態における特徴ベクトルを学習データとして機械学習を行った機械学習アルゴリズムによって各時刻において端末がいずれの状態であったかを推定することを特徴とする請求項1から4のいずれか1項に記載の位置推定装置。   2. The activity state estimation unit estimates a state of a terminal at each time using a machine learning algorithm that performs machine learning using a state of the terminal and a feature vector in the state as learning data. 5. The position estimation device according to any one of 4 to 4. 位置推定装置で実行される位置推定方法であって、
端末に備えられた少なくとも加速度センサを含む1つ以上のセンサによって測定された数値、および前記数値が測定された時刻を特徴ベクトルに変換するセンサ情報処理工程と、
各時刻における前記端末の状態が、各地点間を移動する移動体とともに移動中である乗車状態と、停止している停止状態とを含んだ移動に関する状態のうち、いずれの状態であったかを前記特徴ベクトルを基に推定する活動状態推定工程と、
前記活動状態推定工程によって推定された前記状態を基に、前記端末が前記移動体とともに一の地点を出発したと推定される推定出発時刻と、前記端末が前記移動体とともに他の地点へ到着したと推定される推定到着時刻との組み合わせを生成する発着シーケンス生成工程と、
前記各地点における前記移動体の出発予定時刻および到着予定時刻を含む時刻情報と、前記各地点がどの地点と接続されているかを示す経路情報とを記憶する記憶部から、前記推定出発時刻および前記推定到着時刻の組み合せを基に、前記端末が移動した経路を検索し、検索した結果から前記端末の位置を特定する候補経路検索工程と、
を含んだことを特徴とする位置推定方法。
A position estimation method executed by a position estimation device,
A numerical value measured by one or more sensors including at least an acceleration sensor provided in the terminal, and a sensor information processing step for converting the time when the numerical value was measured into a feature vector;
Whether the state of the terminal at each time is a state related to movement including a boarding state that is moving together with a moving body that moves between points or a stopped state that is stopped is the state described above An activity state estimation process based on a vector;
Based on the state estimated by the activity state estimation step, the estimated departure time when the terminal departs from one point with the mobile object, and the terminal arrives at another point together with the mobile object A departure and arrival sequence generation step for generating a combination of the estimated arrival time and
From the storage unit that stores time information including the scheduled departure time and estimated arrival time of the mobile body at each point, and route information indicating which point each point is connected to, the estimated departure time and the Based on a combination of estimated arrival times, a route that the terminal has moved is searched, and a candidate route search step that specifies the position of the terminal from the search result;
The position estimation method characterized by including.
コンピュータを、請求項1から5のいずれか1項に記載の位置推定装置として機能させるための位置推定プログラム。   A position estimation program for causing a computer to function as the position estimation apparatus according to claim 1.
JP2015147662A 2015-07-27 2015-07-27 POSITION ESTIMATION DEVICE, POSITION ESTIMATION METHOD, AND POSITION ESTIMATION PROGRAM Active JP6367771B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015147662A JP6367771B2 (en) 2015-07-27 2015-07-27 POSITION ESTIMATION DEVICE, POSITION ESTIMATION METHOD, AND POSITION ESTIMATION PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015147662A JP6367771B2 (en) 2015-07-27 2015-07-27 POSITION ESTIMATION DEVICE, POSITION ESTIMATION METHOD, AND POSITION ESTIMATION PROGRAM

Publications (2)

Publication Number Publication Date
JP2017026542A true JP2017026542A (en) 2017-02-02
JP6367771B2 JP6367771B2 (en) 2018-08-01

Family

ID=57950489

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015147662A Active JP6367771B2 (en) 2015-07-27 2015-07-27 POSITION ESTIMATION DEVICE, POSITION ESTIMATION METHOD, AND POSITION ESTIMATION PROGRAM

Country Status (1)

Country Link
JP (1) JP6367771B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109460491A (en) * 2018-10-19 2019-03-12 中山大学 Timing shortest path query method based on Neo4j database

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005321841A (en) * 2004-05-06 2005-11-17 Navitime Japan Co Ltd Portable guiding device
JP2007120953A (en) * 2005-10-25 2007-05-17 Navitime Japan Co Ltd Navigation system, portable terminal device, and start/arrival discrimination method
JP2014513291A (en) * 2011-04-15 2014-05-29 クアルコム,インコーポレイテッド Device location estimation from motion classifier and ambient light classifier
JP2014162457A (en) * 2013-02-28 2014-09-08 Nec Corp Transit identification system, transit identification method, and transit identification program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005321841A (en) * 2004-05-06 2005-11-17 Navitime Japan Co Ltd Portable guiding device
JP2007120953A (en) * 2005-10-25 2007-05-17 Navitime Japan Co Ltd Navigation system, portable terminal device, and start/arrival discrimination method
JP2014513291A (en) * 2011-04-15 2014-05-29 クアルコム,インコーポレイテッド Device location estimation from motion classifier and ambient light classifier
JP2014162457A (en) * 2013-02-28 2014-09-08 Nec Corp Transit identification system, transit identification method, and transit identification program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109460491A (en) * 2018-10-19 2019-03-12 中山大学 Timing shortest path query method based on Neo4j database
CN109460491B (en) * 2018-10-19 2021-12-10 中山大学 Neo4j database-based time sequence shortest path query method

Also Published As

Publication number Publication date
JP6367771B2 (en) 2018-08-01

Similar Documents

Publication Publication Date Title
US20200141739A1 (en) Navigate, track, and position mobile devices in gps-denied or gps-inaccurate areas with automatic map generation
Ban et al. Indoor positioning method integrating pedestrian Dead Reckoning with magnetic field and WiFi fingerprints
US9541404B2 (en) System for determining the location of entrances and areas of interest
US9677890B2 (en) Positioning and mapping based on virtual landmarks
WO2017031856A1 (en) Information prediction method and device
Faragher et al. SmartSLAM-an efficient smartphone indoor positioning system exploiting machine learning and opportunistic sensing
KR20150081029A (en) Method and apparatus for recognizing indoor location using field intensity map
AU2016202042B2 (en) Backtracking indoor trajectories using mobile sensors
JP5234637B2 (en) User flow line generation server, user flow line generation method, and user flow line generation program
Seco et al. RFID-based centralized cooperative localization in indoor environments
Basso et al. A smartphone-based indoor localization system for visually impaired people
JP2013170938A (en) Position display device, position display method, and program
JP2018061126A (en) Mobile terminal device, sensor data transmission method, and program
Lee SRS: Spatial-tagged radio-mapping system combining LiDAR and mobile-phone data for indoor location-based services
JP6367771B2 (en) POSITION ESTIMATION DEVICE, POSITION ESTIMATION METHOD, AND POSITION ESTIMATION PROGRAM
EP3561452A1 (en) Information processing device, information processing method, and information processing program
JP5731424B2 (en) A portable device that determines the stopping station in an underground train
JP6364432B2 (en) Method and apparatus for moving path estimation
CN110672086A (en) Scene recognition method, device, equipment and computer readable medium
JP5578173B2 (en) Positioning system, positioning method, server device, and program
Ho-Sy et al. A hybrid algorithm based on wifi for robust and effective indoor positioning
KR101603921B1 (en) Method for mobility prediction of moving object and apparatus thereof
Jackermeier et al. Task-Oriented Evaluation of Indoor Positioning Systems
Wu et al. Particle filter and support vector machine based indoor localization system
Yim Introducing Weighted Fingerprint Indoor Positioning

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170818

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180515

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180619

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180703

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180705

R150 Certificate of patent or registration of utility model

Ref document number: 6367771

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150