JP2010139325A - Position estimation apparatus and position estimation method - Google Patents

Position estimation apparatus and position estimation method Download PDF

Info

Publication number
JP2010139325A
JP2010139325A JP2008314779A JP2008314779A JP2010139325A JP 2010139325 A JP2010139325 A JP 2010139325A JP 2008314779 A JP2008314779 A JP 2008314779A JP 2008314779 A JP2008314779 A JP 2008314779A JP 2010139325 A JP2010139325 A JP 2010139325A
Authority
JP
Japan
Prior art keywords
moving object
distribution
motion parameter
information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008314779A
Other languages
Japanese (ja)
Inventor
Takao Fukushige
貴雄 福重
Kazuhiro Machida
和弘 町田
Hisaki Kanehara
寿樹 金原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2008314779A priority Critical patent/JP2010139325A/en
Publication of JP2010139325A publication Critical patent/JP2010139325A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Radar Systems Or Details Thereof (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a position estimation apparatus and a position estimation method which can improve the accuracy of estimating the position of a mobile object. <P>SOLUTION: A motion parameter selection section 202 acquires the attribute information of the mobile object corresponding to the ID information of the mobile object and the attribute information of a floor corresponding to positional information from a database 112 and, on the basis of the acquired attribute information, selects an optimum motion parameter. A distribution update section 203, using the positional distribution parameter of the mobile object at the previous time held by a distribution parameter hold section 204, the positional information, and the selected motion parameter, calculates the positional distribution parameter of the mobile object at the present time. A most-probable position calculation section 205 calculates the most-probable position as the position of the mobile object from the calculated positional distribution parameter of the mobile object. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、移動物体の位置を推定する位置推定装置及び位置推定方法に関する。   The present invention relates to a position estimation device and a position estimation method for estimating the position of a moving object.

オフィス空間や公共空間において不審者の追跡や行動を監視するセキュリティ管理システムや、工場、工事現場又は災害現場等において危険区域への侵入者を検知する安全管理システム等の要望が高まっている。このようなシステムの実現においては、監視対象(以下、「観測対象」という)の位置を高精度に推定することが重要である。   There is a growing demand for security management systems that monitor the tracking and behavior of suspicious persons in office spaces and public spaces, and safety management systems that detect intruders in hazardous areas at factories, construction sites, disaster sites, and the like. In realizing such a system, it is important to estimate the position of the monitoring target (hereinafter referred to as “observation target”) with high accuracy.

観測対象の位置を高精度に推定するとは、観測対象が刻々と移動し、移動に伴って観測対象の周辺状況が様々に変化する状況においても、位置推定の精度を著しく劣化させることなく、移動する観測対象の位置を連続的に推定することを指す。   Estimating the position of an observation target with high accuracy means that even if the observation target moves from moment to moment and the surrounding conditions of the observation subject change in various ways as a result of movement, the position estimation accuracy is not significantly degraded. This refers to continuously estimating the position of the observation target.

観測対象の周辺状況への対応は、観測対象に関する複数のモーダル情報から物体位置の確率密度分布を各々算出し、これらの確率密度分布を重み付き線形和として結合し、得られる尤度分布から観測対象の位置を得る方法が提案されている。また、過去の観測データを用いて、観測対象の位置推定精度の向上を図る方法が提案されている(例えば、特許文献1参照)。   The response to the surrounding situation of the observation target is calculated by calculating the probability density distribution of the object position from multiple modal information about the observation target, combining these probability density distributions as a weighted linear sum, and observing from the obtained likelihood distribution A method for obtaining the position of an object has been proposed. In addition, a method for improving the accuracy of position estimation of an observation target using past observation data has been proposed (see, for example, Patent Document 1).

ここで、特許文献1は、尤度分布を用いた位置推定方法について記載されたもので、以下に説明する。特許文献1には、精度の異なる複数のセンサを用いる方法において、外部要因により一時的にセンサの精度が悪くなる、又は観測対象を観測できない場合でも、移動物体の位置を推定する技術が開示されている。特に、特許文献1では、観測結果から得られた確率密度分布と、前時刻の確率密度分布とを重み付け線形和として統合して、現時刻の確率密度分布を得ることを特徴としている。   Here, Patent Document 1 describes a position estimation method using a likelihood distribution, which will be described below. Patent Document 1 discloses a technique for estimating the position of a moving object even when the accuracy of a sensor temporarily deteriorates due to an external factor or an observation target cannot be observed in a method using a plurality of sensors with different accuracy. ing. In particular, Patent Document 1 is characterized in that the probability density distribution obtained from the observation result and the probability density distribution at the previous time are integrated as a weighted linear sum to obtain the probability density distribution at the current time.

つまり、特許文献1では、観測結果に基づく確率密度分布を単純に積算するのではなく、センサの信頼性等によって重み付け線形和している。これにより、特許文献1では、外的な要因によって観測精度が劣化したセンサがあった場合でも、観測精度を著しく劣化させることなく継続して位置推定を行うことができる。   That is, in Patent Document 1, the probability density distribution based on the observation result is not simply integrated, but is weighted linearly summed according to the reliability of the sensor. Thus, in Patent Document 1, even when there is a sensor whose observation accuracy is deteriorated due to an external factor, position estimation can be continuously performed without significantly degrading the observation accuracy.

特許文献1に記載の位置推定方法は、ベイズの定理を用いて位置の推定を行っているが、物体が移動することによって位置推定精度は劣化している。すなわち、移動物体の位置推定を行ったときの観測精度の劣化は、ベイズの定理を用いただけでは十分ではない。ちなみに、ベイズの基本定理を以下に示す。   In the position estimation method described in Patent Document 1, position estimation is performed using Bayes' theorem, but position estimation accuracy is degraded due to the movement of the object. In other words, it is not sufficient to use the Bayes' theorem to degrade the observation accuracy when the position of a moving object is estimated. Incidentally, Bayes' basic theorem is shown below.

P(X|Y)∝ P(X)×P(X|Y)
ベイズの基本定理において、P(X)は事象Yが起こる前のXの確信度、P(X|Y)は事象Yが起こった後のXの確信度、P(Y|X)はXが発生した条件下で事象Yが起こる条件付確率を示す。ベイズにおいては、事象Yが起こった時のXの尤もらしさ(尤度)と定義している。位置推定への応用においては、事象の数を増やして連続関数として一般化することにより、分布(位置)の母数推定を行っている。ただし、ここでは、正規分布と仮定している。
P (X | Y) ∝P (X) × P (X | Y)
In Bayesian theorem, P (X) is the certainty of X before event Y occurs, P (X | Y) is the certainty of X after event Y occurs, and P (Y | X) is X The conditional probability that event Y will occur under the generated conditions is shown. In Bayes, it is defined as the likelihood (likelihood) of X when event Y occurs. In application to position estimation, the parameter of distribution (position) is estimated by increasing the number of events and generalizing as a continuous function. However, it is assumed here that the distribution is normal.

f(μ)∝ g(X|μ)×f(μ)
上記式において、g(x|μ)は位置がXであった場合の確率密度であり、位置Xであることの尤もらしさ(尤度)を表している。観測対象が移動するということは、観測誤差(尤度分布)の分散が結果として広がった状態となり、このような状態の尤度分布が事前分布と掛け合わされるため、位置推定精度は劣化する。
特開2005―141687号公報
f (μ) ∝ g (X | μ) x f (μ)
In the above equation, g (x | μ) is the probability density when the position is X, and represents the likelihood (likelihood) that the position is X. The movement of the observation target results in a state in which the variance of the observation error (likelihood distribution) spreads as a result, and the likelihood distribution in such a state is multiplied by the prior distribution, so that the position estimation accuracy deteriorates.
Japanese Patent Laid-Open No. 2005-141687

しかしながら、移動物体の位置推定のために単純に尤度分布を適用した場合、位置推定の精度を向上させるために過去の観測データを用いると、逆に位置推定精度の劣化が生じるという課題を有している。この精度劣化に対して、尤度分布の分散を広げることにより、極端な精度劣化を抑止することができるが、観測データの精度を下げることになり、結果として位置推定精度が劣化してしまう。このため、移動物体の位置推定において、過去の観測データを用いた場合は、静止物体の位置推定と比べて位置推定精度の向上を図ることが困難である。   However, when the likelihood distribution is simply applied to estimate the position of a moving object, there is a problem that if the past observation data is used to improve the accuracy of position estimation, the position estimation accuracy deteriorates. is doing. In contrast to this accuracy degradation, extreme accuracy degradation can be suppressed by widening the variance of the likelihood distribution, but the accuracy of the observation data is lowered, resulting in degradation of position estimation accuracy. For this reason, when the past observation data is used in the position estimation of the moving object, it is difficult to improve the position estimation accuracy compared to the position estimation of the stationary object.

本発明は、かかる点に鑑みてなされたものであり、移動物体の位置推定精度の向上を図る位置推定装置及び位置推定方法を提供することを目的とする。   The present invention has been made in view of such points, and an object thereof is to provide a position estimation device and a position estimation method that improve the position estimation accuracy of a moving object.

本発明の位置推定装置は、移動物体の移動速度の平均と移動速度の分散とを含む運動パラメータを選択する運動パラメータ選択部と、選択された前記運動パラメータを用いて、前記移動物体の異なる時点における複数の観測データから前記移動物体の位置の確率分布を算出する分布更新部と、算出された前記移動物体の位置の確率分布から前記移動物体の位置として最も確率が高い位置を算出する最尤位置算出部と、を具備する構成を採る。   The position estimation apparatus of the present invention includes a motion parameter selection unit that selects a motion parameter including an average of a moving speed of a moving object and a variance of the moving speed, and different points in time of the moving object using the selected motion parameter. A distribution updating unit for calculating a probability distribution of the position of the moving object from a plurality of observation data in the method, and a maximum likelihood for calculating a position having the highest probability as the position of the moving object from the calculated probability distribution of the position of the moving object And a position calculation unit.

本発明の位置推定方法は、移動物体の移動速度の平均と移動速度の分散とを含む運動パラメータを選択する運動パラメータ選択工程と、選択された前記運動パラメータを用いて、前記移動物体の異なる時点における複数の観測データから前記移動物体の位置の確率分布を算出する分布更新工程と、算出された前記移動物体の位置の確率分布から前記移動物体の位置として最も確率が高い位置を算出する最尤位置算出工程と、を具備するようにした。   The position estimation method of the present invention includes a motion parameter selection step of selecting a motion parameter including an average of a moving speed of a moving object and a variance of the moving speed, and different time points of the moving object using the selected motion parameter. A distribution update step of calculating a probability distribution of the position of the moving object from a plurality of observation data in the method, and a maximum likelihood calculating a position having the highest probability as the position of the moving object from the calculated probability distribution of the position of the moving object A position calculating step.

本発明によれば、移動物体の位置推定精度の向上を図ることができる。   According to the present invention, it is possible to improve the position estimation accuracy of a moving object.

以下、本発明の実施の形態について、図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(実施の形態1)
図1は、本発明の実施の形態1に係る位置推定システムの構成を示すブロック図である。図1において、位置推定システムは、フロアに設置された複数の検出部101、通信部111、データベース部112、位置推定部113、及び位置表示部114から構成される。
(Embodiment 1)
FIG. 1 is a block diagram showing a configuration of a position estimation system according to Embodiment 1 of the present invention. In FIG. 1, the position estimation system includes a plurality of detection units 101, a communication unit 111, a database unit 112, a position estimation unit 113, and a position display unit 114 installed on the floor.

検出部101は、フロアに一台以上設置され、フロア上に存在する移動物体を観測し、移動物体に付されたタグID(以下、「ID情報」という)及び移動物体の位置を含む移動体情報を検出する。検出されたID情報と位置情報とを含む移動体情報は、位置推定装置110の通信部111に出力される。   One or more detection units 101 are installed on the floor, observe a moving object existing on the floor, and include a tag ID (hereinafter referred to as “ID information”) attached to the moving object and a position of the moving object. Detect information. The moving body information including the detected ID information and position information is output to the communication unit 111 of the position estimation device 110.

通信部111は、直接又はネットワーク経由で複数の検出部101と接続されており、各検出部101から出力されたID情報と位置情報とを含む移動体情報を位置推定部113に出力する。   The communication unit 111 is connected to the plurality of detection units 101 directly or via a network, and outputs moving body information including ID information and position information output from each detection unit 101 to the position estimation unit 113.

データベース部112は、移動物体の属性情報とフロアの属性情報とを管理する。なお、移動物体の属性情報、及びフロアの属性情報については後述する。   The database unit 112 manages moving object attribute information and floor attribute information. The attribute information of the moving object and the floor attribute information will be described later.

位置推定部113は、検出部101から出力されたID情報及び位置情報と、データベース部112に記憶されている属性情報に基づき、移動物体の位置を推定し、推定した位置情報を位置表示部114に出力する。   The position estimation unit 113 estimates the position of the moving object based on the ID information and position information output from the detection unit 101 and the attribute information stored in the database unit 112, and the estimated position information is displayed in the position display unit 114. Output to.

位置表示部114は、位置推定部113から出力された位置情報に基づいて、移動物体の移動の軌跡(動線)を実時間でモニタに表示する。なお、位置情報は、動線以外の方法でモニタに表示してもよい。例えば、位置表示部114は、特定の領域に移動物体が進入した場合に、モニタにメッセージを表示してもよい。また、位置表示部114は、モニタ以外の外部出力装置(例えばプリンタ等)を介して提示してもよい。例えば、位置表示部114は、特定の領域に移動物体が進入した場合に、警報音を鳴らしてもよい。   Based on the position information output from the position estimation unit 113, the position display unit 114 displays the movement trajectory (flow line) of the moving object on the monitor in real time. Note that the position information may be displayed on the monitor by a method other than the flow line. For example, the position display unit 114 may display a message on the monitor when a moving object enters a specific area. Further, the position display unit 114 may be presented via an external output device (for example, a printer) other than the monitor. For example, the position display unit 114 may sound an alarm sound when a moving object enters a specific area.

このような位置推定システムは、オフィス等のセキュリティシステムとして、不審者の位置、不審者の移動履歴の把握(監視)に用いられる。また、位置推定システムは、公共施設や展示会場等における人や物の動線解析などに用いられる。   Such a position estimation system is used for grasping (monitoring) a suspicious person's position and a suspicious person's movement history as a security system in an office or the like. In addition, the position estimation system is used for flow analysis of people and objects in public facilities and exhibition halls.

図2は、図1に示した位置推定部113の内部構成を示すブロック図である。図2において、位置推定部113は、情報分離部201、運動パラメータ選択部202、分布更新部203、分布パラメータ保持部204、及び、最尤位置算出部205から構成される。   FIG. 2 is a block diagram showing an internal configuration of the position estimation unit 113 shown in FIG. In FIG. 2, the position estimation unit 113 includes an information separation unit 201, a motion parameter selection unit 202, a distribution update unit 203, a distribution parameter holding unit 204, and a maximum likelihood position calculation unit 205.

情報分離部201は、検出部101から出力されたID情報及び位置情報を通信部111を介して取得し、取得したID情報及び位置情報を運動パラメータ選択部202に出力し、位置情報を分布更新部203に出力する。   The information separation unit 201 acquires the ID information and position information output from the detection unit 101 via the communication unit 111, outputs the acquired ID information and position information to the motion parameter selection unit 202, and updates the distribution of the position information. The data is output to the unit 203.

運動パラメータ選択部202は、情報分離部201から出力されたID情報及び位置情報をそれぞれ分離し、ID情報に対応する移動物体の属性情報と、位置情報に対応するフロアの属性情報とをデータベース部112から取得する。運動パラメータ選択部202は、取得した属性情報に基づいて、最適な運動パラメータを選択して分布更新部203に出力する。運動パラメータは、移動物体がどのような運動を行っているかを表すパラメータであり、ここでは、移動物体の移動速度の平均と、移動速度の分散を意味する。なお、ここで分離されたID情報は、移動物体を識別するための最終的なIDである必要はなく、最終的なIDに一意に変換可能な情報であればどのような値であってもよい。   The movement parameter selection unit 202 separates the ID information and the position information output from the information separation unit 201, and the database unit stores the attribute information of the moving object corresponding to the ID information and the attribute information of the floor corresponding to the position information. 112. The exercise parameter selection unit 202 selects an optimal exercise parameter based on the acquired attribute information, and outputs it to the distribution update unit 203. The motion parameter is a parameter representing what kind of motion the moving object is performing, and here means the average of the moving speed of the moving object and the variance of the moving speed. The ID information separated here does not need to be a final ID for identifying a moving object, and can be any value as long as it is information that can be uniquely converted into a final ID. Good.

分布更新部203は、分布パラメータ保持部204から一つ前の時刻における移動物体の位置の確率分布を表す分布パラメータ(移動物体の位置の分布の平均及び分散)と、情報分離部201から出力された位置情報(座標位置)と、運動パラメータ選択部202から出力された運動パラメータ(移動物体の速度の分布の平均及び分散)とを取得する。分布更新部203は、取得した移動物体の位置の確率分布を表す分布パラメータ、位置情報及び運動パラメータに基づいて、現在時刻における移動物体の位置の確率分布を表す分布パラメータを求め、分布パラメータ保持部204に出力する。つまり、分布更新部203は、正規分布に基づいて、移動物体の位置の分布の平均及び分散を更新する。なお、時刻t=0における移動物体の位置の分布パラメータは、分布パラメータ保持部204に初期値としてあらかじめ格納されているとする。   The distribution updating unit 203 outputs from the distribution parameter holding unit 204 distribution parameters (average and variance of the moving object position distribution) representing the probability distribution of the moving object position at the previous time, and the information separating unit 201. The obtained position information (coordinate position) and the motion parameter (average and variance of the velocity distribution of the moving object) output from the motion parameter selection unit 202 are acquired. The distribution updating unit 203 obtains a distribution parameter representing the probability distribution of the position of the moving object at the current time based on the acquired distribution parameter representing the probability distribution of the position of the moving object, the position information, and the motion parameter, and a distribution parameter holding unit To 204. That is, the distribution updating unit 203 updates the average and variance of the moving object position distribution based on the normal distribution. It is assumed that the distribution parameter of the position of the moving object at time t = 0 is stored in advance in the distribution parameter holding unit 204 as an initial value.

分布パラメータ保持部204は、移動物体の位置の分布パラメータを保持し、分布更新部203及び最尤位置算出部205に出力する。また、分布パラメータ保持部204は、分布更新部203の出力を受け取り、保持している分布パラメータ(移動物体の位置の分布の平均及び分散)を置き換える。また、初期状態においては、分布パラメータの初期値を保持している。   The distribution parameter holding unit 204 holds the distribution parameter of the position of the moving object, and outputs it to the distribution update unit 203 and the maximum likelihood position calculation unit 205. The distribution parameter holding unit 204 receives the output of the distribution updating unit 203 and replaces the held distribution parameters (average and variance of the distribution of the position of the moving object). In the initial state, the initial value of the distribution parameter is held.

最尤位置算出部205は、分布パラメータ保持部204から移動物体の位置の分布パラメータを取得し、移動物体の位置として最も確率が高い位置(座標位置)を求め、最尤位置として算出し、位置表示部114に出力する。   The maximum likelihood position calculation unit 205 acquires the distribution parameter of the position of the moving object from the distribution parameter holding unit 204, obtains the position (coordinate position) with the highest probability as the position of the moving object, calculates the position as the maximum likelihood position, The data is output to the display unit 114.

ここからの説明は、運動パラメータ選択部202の運動パラメータの選択方法についてである。各パラメータの値は、観測対象となるモデルを複数設定し、モデル毎に事前に決めておき、変換テーブルとして運動パラメータ選択部202が保持する。   The description from here is about the method of selecting the exercise parameter of the exercise parameter selection unit 202. A plurality of models to be observed are set for each parameter value, determined in advance for each model, and stored in the motion parameter selection unit 202 as a conversion table.

運動パラメータの選択方法は、主に次の3つが考えられる。1つには、移動物体の属性情報に基づいて選択する方法、2つには、移動物体が移動するフロアの属性情報に基づいて選択する方法、3つには、移動物体の移動履歴に基づいて選択する方法である。以下、これら3つの選択方法についてそれぞれ説明する。   There are mainly the following three methods for selecting motion parameters. One is a selection method based on the attribute information of the moving object, two is a selection method based on the attribute information of the floor on which the moving object moves, and three is based on the movement history of the moving object. It is a method to select. Hereinafter, each of these three selection methods will be described.

最初に説明する方法は、移動物体の属性情報に基づいて、運動パラメータを選択する方法である。図3は、移動物体の属性情報の一例を示す図である。ここでは、移動物体が人であることを想定する。図3に示すように、移動物体の属性情報は、ID情報に性別、年齢及び分類がそれぞれ対応付けられたものである。なお、分類は、例えば、一般的な統計手法(例えばクラスタリング分析、主成分分析等)による値を用いる。   The method described first is a method of selecting a motion parameter based on attribute information of a moving object. FIG. 3 is a diagram illustrating an example of attribute information of a moving object. Here, it is assumed that the moving object is a person. As shown in FIG. 3, the attribute information of the moving object is obtained by associating the sex, age, and classification with the ID information. For the classification, for example, a value obtained by a general statistical method (for example, clustering analysis, principal component analysis, etc.) is used.

運動パラメータ選択部202は、情報分離部201からID情報を取得し、取得したID情報に基づいて、データベース部112に記憶された移動物体の属性情報を検索して対応する属性情報を取得する。   The motion parameter selection unit 202 acquires ID information from the information separation unit 201, searches the attribute information of the moving object stored in the database unit 112 based on the acquired ID information, and acquires corresponding attribute information.

運動パラメータ選択部202は、予め保持している変換テーブルを用いて、取得した属性情報から移動物体の速度の平均と速度の分散を取得する。運動パラメータ選択部202は、取得した値を用いて移動物体の現在の時刻の運動パラメータを更新し、分布更新部203に出力する。なお、変換テーブルとしては、図4に示すように、性別、年齢を軸とした二次元テーブルで個々の要素に運動パラメータが設定されたものである。例えば、お年寄りの場合は、移動速度の平均が低く(移動速度が遅い)、分散も狭い。また、子供の場合は、移動速度の平均が速く、分散も広い。変換テーブルは、このような値が経験則や履歴などから事前に設定されている。   The motion parameter selection unit 202 acquires the average speed of the moving object and the variance of the speed from the acquired attribute information using a conversion table held in advance. The motion parameter selection unit 202 updates the motion parameter of the moving object at the current time using the acquired value, and outputs it to the distribution update unit 203. As shown in FIG. 4, the conversion table is a two-dimensional table with gender and age as axes, and motion parameters are set for individual elements. For example, an elderly person has a low average moving speed (slow moving speed) and a narrow variance. In addition, for children, the average moving speed is fast and the variance is wide. In the conversion table, such values are set in advance based on rules of thumb and history.

次に、移動物体が移動するフロアの属性情報に基づいて運動パラメータを選択する方法について説明する。図5は、フロアの属性情報の一例を示す図である。ここでは、フロアを一定の区画(ブロック毎)に分割し、分割した個々の領域を識別するフロア領域情報によってフロア内の領域を特定する。図5に示すように、フロアの属性情報は、フロア領域情報に平均滞留時間、移動速度の平均、フロアタイプ(ここでは分類)、移動速度の分散がそれぞれ対応付けられたものである。なお、平均滞留時間は、過去にこの領域を通過した移動物体の平均滞留時間を示す。また、移動速度の平均は、過去にこの領域を通過した移動物体の平均通過速度を示す。また、フロアタイプは、この領域の特徴を表す情報であり、ここでは一例として図3に示した分類によって表す。この場合、フロアタイプは、この領域を通過又は長時間滞留した全移動物体のうち、最も多い分類が設定される。さらに移動速度の分散は、この領域を通過した移動物体の通過速度の分散を示す。   Next, a method for selecting motion parameters based on the attribute information of the floor on which the moving object moves will be described. FIG. 5 is a diagram illustrating an example of floor attribute information. Here, the floor is divided into fixed sections (each block), and the areas in the floor are specified by the floor area information for identifying the divided individual areas. As shown in FIG. 5, the floor attribute information is obtained by associating floor area information with average residence time, average of moving speed, floor type (classification here), and distribution of moving speed. The average residence time indicates the average residence time of a moving object that has passed through this region in the past. The average moving speed indicates the average passing speed of a moving object that has passed through this area in the past. The floor type is information representing the characteristics of this area, and is represented by the classification shown in FIG. 3 as an example here. In this case, the floor type is set with the most classification among all moving objects that have passed through this area or stayed for a long time. Further, the dispersion of the moving speed indicates the dispersion of the passing speed of the moving object that has passed through this region.

運動パラメータ選択部202は、情報分離部201から位置情報を取得し、取得した位置情報に基づいて、データベース部112に記憶されたフロア領域情報を検索して対応するフロアの属性情報を取得する。   The exercise parameter selection unit 202 acquires the position information from the information separation unit 201, and searches the floor area information stored in the database unit 112 based on the acquired position information to acquire the corresponding floor attribute information.

運動パラメータ選択部202は、取得した移動速度の平均と分散とに基づいて、移動物体の現在の時刻の運動パラメータを更新し、分布更新部203に出力する。   The motion parameter selection unit 202 updates the motion parameter of the moving object at the current time based on the acquired average and variance of the moving speed, and outputs the updated motion parameter to the distribution update unit 203.

なお、運動パラメータ選択部202は、移動速度の平均と分散と同時に取得したID情報に基づいてデータベース部112から取得した移動物体の分類と、フロアのタイプとが一致しない場合がある。このとき、運動パラメータ選択部202は、位置推定部112が、分類に対応する運動パラメータ、または事前に保持しているデフォルトの運動パラメータを適用する。これにより、運動パラメータ選択部202は、予め運動パターンが予測可能な移動物体や分散を大きく外れることが予想される移動物体に対して、適切な運動パラメータを適用することができる。   The motion parameter selection unit 202 may not match the classification of the moving object acquired from the database unit 112 based on the ID information acquired simultaneously with the average and variance of the moving speed and the floor type. At this time, the motion parameter selection unit 202 applies the motion parameter corresponding to the classification or the default motion parameter held in advance by the position estimation unit 112. Accordingly, the motion parameter selection unit 202 can apply appropriate motion parameters to a moving object whose motion pattern can be predicted in advance or a moving object that is expected to deviate greatly from the variance.

次に、移動物体の移動履歴に基づいて運動パラメータを選択する方法について説明する。図6は、移動物体の移動履歴の一例を示す図である。図6に示すように、移動物体の移動履歴としては、ID情報にフロア位置情報、移動先、確度がそれぞれ対応付けられている。なお、ID情報は、過去にこの領域を通過した移動物体を示す。また、フロア位置情報は、フロア内の特定位置を識別する情報である。また、移動先は、移動物体がフロア内の特定位置を通過した速度と移動方向を示す。さらに、確度は、移動物体がフロア内の特定位置を通過した回数を100としたとき、移動先が示す速度で移動した回数を示す。   Next, a method for selecting a motion parameter based on the movement history of a moving object will be described. FIG. 6 is a diagram illustrating an example of a movement history of a moving object. As shown in FIG. 6, as the movement history of the moving object, floor position information, a movement destination, and accuracy are associated with ID information. The ID information indicates a moving object that has passed through this area in the past. The floor position information is information for identifying a specific position within the floor. Further, the movement destination indicates the speed and moving direction at which the moving object has passed a specific position in the floor. Further, the accuracy indicates the number of times the moving object has moved at the speed indicated by the destination when the number of times that the moving object has passed the specific position on the floor is 100.

運動パラメータ選択部202は、情報分離部201から取得した位置情報に基づいて、データベース部112に記憶された移動物体の移動履歴のフロア位置情報を検索して、履歴から算出した移動先の確率分布を表すパラメータを取得する。運動パラメータ選択部202は、取得したパラメータから現時点での速度の平均と分散を運動パラメータとして更新し、分布更新部203に出力する。   The movement parameter selection unit 202 searches the floor position information of the movement history of the moving object stored in the database unit 112 based on the position information acquired from the information separation unit 201, and calculates the probability distribution of the movement destination calculated from the history. Get the parameter that represents. The motion parameter selection unit 202 updates the current average speed and variance as motion parameters from the acquired parameters, and outputs them to the distribution update unit 203.

なお、移動物体の移動履歴は、特定の移動物体の情報ではなく、過去の複数の移動物体の平均であってもよい。   Note that the movement history of a moving object may be the average of a plurality of moving objects in the past, instead of information on a specific moving object.

運動パラメータ選択部202は、上記3つの選択方法のうちいずれを用いるかは、位置推定方法の利用ケースによって予めいずれかを選択してもよい。例えば、移動に関するフロアの制約(例えば、階段や動く歩道等の進行方向や進行速度)がない場合は、移動物体の属性に基づいて運動パラメータを選択することが考えられる。また、展示会などにおいて、人の移動速度(滞留、停滞時間)などに関する履歴がある場合は、属性情報やフロア情報に優先して、履歴に基づいて運動パラメータを選択することが考えられる。また、運動パラメータ選択部202は、上記3つの選択方法を動的に切り替えてもよく、この場合は、選択方法を適用する優先順位を場所や移動物体毎に設定する方法がある。ちなみに、運動パラメータ選択部202は、上記3つの方法を組み合わせてもよい。   The exercise parameter selection unit 202 may select which of the above three selection methods is used in advance depending on the use case of the position estimation method. For example, when there is no floor restriction on movement (for example, the traveling direction or traveling speed of a staircase or a moving sidewalk), it is conceivable to select a motion parameter based on the attribute of the moving object. Further, when there is a history regarding the movement speed (staying time, stagnation time) of a person at an exhibition or the like, it is conceivable to select an exercise parameter based on the history in preference to attribute information or floor information. In addition, the motion parameter selection unit 202 may dynamically switch between the above three selection methods. In this case, there is a method of setting a priority order to apply the selection method for each place or moving object. Incidentally, the motion parameter selection unit 202 may combine the above three methods.

以下の説明は、移動物体の位置推定処理についてである。ここでは、上記第1の運動パラメータの選択方法を例に、図4〜図13を用いて説明する。   The following description is about moving object position estimation processing. Here, the method for selecting the first motion parameter will be described as an example with reference to FIGS.

分布更新部203は、分布パラメータ保持部204から一つ前の時刻における移動物体の位置の分布に関するパラメータと、情報分離部201から移動物体の現在の観測値と、運動パラメータ選択部202から運動パラメータとを取得する。続いて、分布更新部203は、それらを用いて移動物体の現在の時刻における位置の分布を表すパラメータを計算し、分布パラメータ保持部204に出力する。   The distribution update unit 203 is a parameter related to the distribution of the position of the moving object at the previous time from the distribution parameter holding unit 204, the current observation value of the moving object from the information separation unit 201, and the motion parameter from the motion parameter selection unit 202. And get. Subsequently, the distribution updating unit 203 calculates parameters representing the position distribution of the moving object at the current time using them, and outputs them to the distribution parameter holding unit 204.

分布更新部203は、運動パラメータ選択部202から運動パラメータである移動物体の速度の平均と速度の分散を取得する。さらに、分布更新部203は、時刻t=tにおいて、対象となる移動物体の位置の分布パラメータとして、移動物体の位置の平均μ、分散λ を分布パラメータ保持部204から取得する。 The distribution updating unit 203 acquires the average speed and the variance of the speed of the moving object, which are the motion parameters, from the motion parameter selection unit 202. Further, the distribution updating unit 203 acquires, from the distribution parameter holding unit 204, the average μ t of the moving object position and the variance λ t 2 as the distribution parameters of the position of the target moving object at time t = t.

なお、時刻t=0における移動物体の位置の分布パラメータは、分布パラメータ保持部204に初期値としてあらかじめ格納されているとする。分布パラメータの初期値として、好適には、μ=0,λ =+∞とする。 It is assumed that the distribution parameter of the position of the moving object at time t = 0 is stored in advance in the distribution parameter holding unit 204 as an initial value. The initial values of the distribution parameters are preferably μ t = 0 and λ 0 2 = + ∞.

このとき、分布更新部203は、時刻t=t+1で、観測値yt+1を情報分離部201から取得する。次に、分布更新部203は、時刻t=t+1における移動物体の位置xt+1の分布のパラメータとして、移動物体の位置の平均μt+1、分散λt+1 を次式(1)により計算する。

Figure 2010139325
At this time, the distribution updating unit 203 acquires the observation value y t + 1 from the information separating unit 201 at time t = t + 1. Next, the distribution updating unit 203 calculates the average μ t + 1 and the variance λ t + 1 2 of the moving object positions as the parameters of the distribution of the moving object position x t + 1 at time t = t + 1 by the following equation (1).
Figure 2010139325

ただし、σは、観測モデルにおける分散、v、τ は、運動パラメータ選択部202において選択された時刻tでの対象の移動速度の平均及び分散である。(なお、観測値は、真の値の周りに平均0、分散σの分布に従って観測されるとする) However, σ 2 is the variance in the observation model, and v t and τ t 2 are the average and variance of the moving speed of the object at time t selected by the motion parameter selection unit 202. (Note that the observed values are observed according to the distribution of mean 0 and variance σ 2 around the true value)

分布更新部203は、上式で得られたパラメータである移動物体の位置の平均μt+1と、分散λt+1 とを分布パラメータ保持部204に格納する。 The distribution updating unit 203 stores the average μ t + 1 of the moving object positions and the variance λ t + 1 2 obtained by the above equation in the distribution parameter holding unit 204.

最尤位置算出部205は、分布パラメータ保持部204から移動物体の位置の分布パラメータを取得し、移動物体の位置として最も確率が高い位置を求め、最尤位置として算出し、位置表示部114に出力する。具体的には、最尤位置算出部205は、分布パラメータ保持部204に保持されたパラメータである時刻t=t+1における移動物体の位置の分布の平均μt+1と、分散λt+1 を取得する。次に、最尤位置算出部205は、μt+1を時刻t=t+1における移動物体の位置の最尤値として計算し、求めた最尤位置μt+1を位置表示部114に出力する。 The maximum likelihood position calculation unit 205 acquires the distribution parameter of the position of the moving object from the distribution parameter holding unit 204, obtains the position with the highest probability as the position of the moving object, calculates the position as the maximum likelihood position, and outputs the position to the position display unit 114. Output. Specifically, the maximum likelihood position calculation unit 205 acquires the average μ t + 1 of the distribution of the position of the moving object at time t = t + 1 and the variance λ t + 1 2 that are parameters stored in the distribution parameter storage unit 204. Next, the maximum likelihood position calculation unit 205 calculates μ t + 1 as the maximum likelihood value of the position of the moving object at time t = t + 1, and outputs the calculated maximum likelihood position μ t + 1 to the position display unit 114.

以下、急いで歩く人の位置のシミュレーション例において、IDパラメータを利用して選択される運動モデルを利用した位置推定例を示す。図4は、人が急いで歩くときの速度の平均値及び標準偏差を性別、年齢別に示し、運動パラメータとしてデータベース部112に格納されているとする。   Hereinafter, in a simulation example of the position of a person walking in a hurry, an example of position estimation using a motion model selected using an ID parameter will be shown. FIG. 4 shows the average value and standard deviation of the speed when a person walks in a hurry, classified by gender and age, and is stored in the database unit 112 as an exercise parameter.

今、60歳の男性の時刻t=tにおける真の位置が、図7のように得られているとする(図7は、サンプル数1000のシミュレーション結果)。このとき、図4の表によれば、60歳男性の移動速度は、平均1.92(m/s)、標準偏差0.21であり、時刻t=t+1の真の位置は、シミュレーションにより、例えば図8のように得られる。   Assume that the true position of a 60-year-old male at time t = t is obtained as shown in FIG. 7 (FIG. 7 is a simulation result of 1000 samples). At this time, according to the table of FIG. 4, the moving speed of a 60-year-old male is 1.92 (m / s) on average, and the standard deviation is 0.21, and the true position at time t = t + 1 is calculated by simulation. For example, it is obtained as shown in FIG.

観測モデルとして、観測値が真の値の周りに平均0、分散636の正規分布に従って分布するというモデルを仮定すると、このときの観測値は、例えば図9のように得られる。このとき、60歳男性の移動速度モデルに基づいて、各観測値をもとに上記更新式から得られる時刻t=t+1のときの位置の最尤値の分布は、図10のようになる。   Assuming a model in which observed values are distributed around a true value according to a normal distribution with mean 0 and variance 636, the observed value at this time is obtained as shown in FIG. 9, for example. At this time, based on the moving speed model of a 60-year-old male, the distribution of the maximum likelihood value at the position at time t = t + 1 obtained from the above update formula based on each observation value is as shown in FIG.

本実施の形態により得られた最尤値と、この最尤値に対応する真の位置とを比較して得られる誤差の分布は、図11のようになり、平均は16.1となる。   The error distribution obtained by comparing the maximum likelihood value obtained by this embodiment with the true position corresponding to this maximum likelihood value is as shown in FIG. 11, and the average is 16.1.

一方、従来技術による一般的な移動速度モデルに基づいて、各観測値を基に上記更新式から得られる時刻t=t+1のときの最尤値の分布は、図12のようになり、誤差の分布は、図13のようになり、平均は18.4である。なお、一般的な移動速度モデルは、平均2.24m/s、標準偏差0.69と仮定する。   On the other hand, based on a general moving speed model according to the prior art, the distribution of maximum likelihood values at time t = t + 1 obtained from the above update formula based on each observation value is as shown in FIG. The distribution is as shown in FIG. 13 and the average is 18.4. It is assumed that a general moving speed model has an average of 2.24 m / s and a standard deviation of 0.69.

以上のように、本実施の形態によれば、移動物体のID情報に基づいて、運動パラメータを選択し、選択した前記運動パラメータを用いて、移動物体の異なる時点における複数の観測データから移動物体の位置の尤度分布を算出し、算出した尤度分布から移動物体の位置を算出することにより、移動物体の位置を高精度に推定することができる。   As described above, according to the present embodiment, a motion parameter is selected based on ID information of a moving object, and a moving object is obtained from a plurality of observation data at different time points of the moving object using the selected motion parameter. It is possible to estimate the position of the moving object with high accuracy by calculating the likelihood distribution of the position of, and calculating the position of the moving object from the calculated likelihood distribution.

本発明にかかる位置推定装置及び位置推定方法は、セキュリティ管理システム、安全管理システム等に適用できる。   The position estimation device and the position estimation method according to the present invention can be applied to a security management system, a safety management system, and the like.

本発明の実施の形態1に係る位置推定システムの構成を示すブロック図The block diagram which shows the structure of the position estimation system which concerns on Embodiment 1 of this invention. 図1に示した位置推定部の内部構成を示すブロック図The block diagram which shows the internal structure of the position estimation part shown in FIG. 移動物体の属性情報の一例を示す図The figure which shows an example of the attribute information of a moving object 変換テーブルの一例を示す図The figure which shows an example of a conversion table フロアの属性情報の一例を示す図The figure which shows an example of the attribute information of a floor 移動物体の移動履歴の一例を示す図The figure which shows an example of the movement history of a moving object 時刻t=tにおける真の位置のシミュレーション結果を示す図The figure which shows the simulation result of the true position in the time t = t 時刻t=t+1における真の位置のシミュレーション結果を示す図The figure which shows the simulation result of the true position in the time t = t + 1 時刻t=t+1における位置の観測値のシミュレーション結果を示す図The figure which shows the simulation result of the observed value of the position in time t = t + 1 時刻t=t+1における位置の最尤値の分布を示す図The figure which shows distribution of the maximum likelihood value of the position in time t = t + 1 時刻t=t+1における位置の最尤値と真の位置との誤差の分布を示す図The figure which shows distribution of the error of the maximum likelihood value of a position in time t = t + 1, and a true position 一般的な移動速度モデルに基づく、時刻t=t+1における位置の最尤値の分布を示す図The figure which shows distribution of the maximum likelihood value of the position in time t = t + 1 based on a general moving speed model 一般的な移動速度モデルに基づく、時刻t=t+1における位置の最尤値と真の位置との誤差の分布を示す図The figure which shows distribution of the error of the maximum likelihood value of a position in time t = t + 1 and a true position based on a general moving speed model

符号の説明Explanation of symbols

101 検出部
111 通信部
112 データベース部
113 位置推定部
114 位置表示部
201 情報分離部
202 運動パラメータ選択部
203 分布更新部
204 分布パラメータ保持部
205 最尤位置算出部
DESCRIPTION OF SYMBOLS 101 Detection part 111 Communication part 112 Database part 113 Position estimation part 114 Position display part 201 Information separation part 202 Motion parameter selection part 203 Distribution update part 204 Distribution parameter holding part 205 Maximum likelihood position calculation part

Claims (5)

移動物体の移動速度の平均と移動速度の分散とを含む運動パラメータを選択する運動パラメータ選択部と、
選択された前記運動パラメータを用いて、前記移動物体の異なる時点における複数の観測データから前記移動物体の位置の確率分布を算出する分布更新部と、
算出された前記移動物体の位置の確率分布から前記移動物体の位置として最も確率が高い位置を算出する最尤位置算出部と、
を具備する位置推定装置。
A motion parameter selector for selecting motion parameters including an average of moving speeds of moving objects and dispersion of moving speeds;
A distribution updating unit that calculates a probability distribution of the position of the moving object from a plurality of observation data at different time points of the moving object, using the selected motion parameter;
A maximum likelihood position calculation unit that calculates a position having the highest probability as the position of the moving object from the calculated probability distribution of the position of the moving object;
A position estimation apparatus comprising:
前記運動パラメータ選択部は、前記移動物体の属性に基づいて、運動パラメータを選択する請求項1に記載の位置推定装置。   The position estimation device according to claim 1, wherein the motion parameter selection unit selects a motion parameter based on an attribute of the moving object. 前記運動パラメータ選択部は、前記移動物体が移動する場所の属性に基づいて、運動パラメータを選択する請求項1に記載の位置推定装置。   The position estimation device according to claim 1, wherein the motion parameter selection unit selects a motion parameter based on an attribute of a place where the moving object moves. 前記運動パラメータ選択部は、前記移動物体の移動履歴に基づいて、運動パラメータを選択する請求項1に記載の位置推定装置。   The position estimation device according to claim 1, wherein the motion parameter selection unit selects a motion parameter based on a movement history of the moving object. 移動物体の移動速度の平均と移動速度の分散とを含む運動パラメータを選択する運動パラメータ選択工程と、
選択された前記運動パラメータを用いて、前記移動物体の異なる時点における複数の観測データから前記移動物体の位置の確率分布を算出する分布更新工程と、
算出された前記移動物体の位置の確率分布から前記移動物体の位置として最も確率が高い位置を算出する最尤位置算出工程と、
を具備する位置推定方法。
A motion parameter selection step for selecting motion parameters including an average of the moving speed of the moving object and a variance of the moving speed;
A distribution update step of calculating a probability distribution of the position of the moving object from a plurality of observation data at different time points of the moving object using the selected motion parameter;
A maximum likelihood position calculating step of calculating a position having the highest probability as the position of the moving object from the calculated probability distribution of the position of the moving object;
A position estimation method comprising:
JP2008314779A 2008-12-10 2008-12-10 Position estimation apparatus and position estimation method Pending JP2010139325A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008314779A JP2010139325A (en) 2008-12-10 2008-12-10 Position estimation apparatus and position estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008314779A JP2010139325A (en) 2008-12-10 2008-12-10 Position estimation apparatus and position estimation method

Publications (1)

Publication Number Publication Date
JP2010139325A true JP2010139325A (en) 2010-06-24

Family

ID=42349589

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008314779A Pending JP2010139325A (en) 2008-12-10 2008-12-10 Position estimation apparatus and position estimation method

Country Status (1)

Country Link
JP (1) JP2010139325A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013072842A (en) * 2011-09-29 2013-04-22 Internatl Business Mach Corp <Ibm> System and device for detecting position of object
JP2016024704A (en) * 2014-07-23 2016-02-08 Kddi株式会社 User specification device, user specification method and program
JP2016162270A (en) * 2015-03-03 2016-09-05 三菱電機株式会社 Proximity detection device and proximity detection method
CN107133646A (en) * 2017-05-03 2017-09-05 山东合天智汇信息技术有限公司 A kind of method and system by human behavior track identification emphasis personnel
WO2019202965A1 (en) * 2018-04-20 2019-10-24 株式会社オートネットワーク技術研究所 In-vehicle updating device, in-vehicle updating system, updating processing method, and updating processing program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013072842A (en) * 2011-09-29 2013-04-22 Internatl Business Mach Corp <Ibm> System and device for detecting position of object
US9128187B2 (en) 2011-09-29 2015-09-08 International Business Machines Corporation Detection of a position of an object
JP2016024704A (en) * 2014-07-23 2016-02-08 Kddi株式会社 User specification device, user specification method and program
JP2016162270A (en) * 2015-03-03 2016-09-05 三菱電機株式会社 Proximity detection device and proximity detection method
CN107133646A (en) * 2017-05-03 2017-09-05 山东合天智汇信息技术有限公司 A kind of method and system by human behavior track identification emphasis personnel
CN107133646B (en) * 2017-05-03 2019-09-17 山东合天智汇信息技术有限公司 A kind of method and system by human behavior track identification emphasis personnel
WO2019202965A1 (en) * 2018-04-20 2019-10-24 株式会社オートネットワーク技術研究所 In-vehicle updating device, in-vehicle updating system, updating processing method, and updating processing program
CN111989658A (en) * 2018-04-20 2020-11-24 株式会社自动网络技术研究所 Vehicle-mounted updating device, vehicle-mounted updating system, updating processing method, and updating processing program
US11314501B2 (en) 2018-04-20 2022-04-26 Autonetworks Technologies, Ltd. On-board update device, on-board update system, update process method, and update process program
CN111989658B (en) * 2018-04-20 2024-03-01 株式会社自动网络技术研究所 Vehicle-mounted update device, vehicle-mounted update system, update processing method, and update processing program

Similar Documents

Publication Publication Date Title
CN109271832B (en) People stream analysis method, people stream analysis device, and people stream analysis system
US10970558B2 (en) People flow estimation device, people flow estimation method, and recording medium
US8306748B2 (en) Location enhancement system and method based on topology constraints
JP6236448B2 (en) Sensor arrangement determination device and sensor arrangement determination method
US8990049B2 (en) Building structure discovery and display from various data artifacts at scene
Ronchi et al. New approaches to evacuation modelling for fire safety engineering applications
CN104750768B (en) Method and system for identification, monitoring and ranking event from social media
US20190012607A1 (en) Apparatus and method for occupancy detection
US10846538B2 (en) Image recognition system and image recognition method to estimate occurrence of an event
CN109556607A (en) A method of quickly processing localization for Mobile Robot &#34; kidnapping &#34; problem
JP2010139325A (en) Position estimation apparatus and position estimation method
CN114692940A (en) System and method for intelligent route selection and autonomous volume occupancy measurement based on vehicle occupancy and based on user preferences
Yang et al. When and where: Predicting human movements based on social spatial-temporal events
JP2004213098A (en) Congestion prediction system, congestion prediction method and congestion prediction program
US20190216661A1 (en) Wheelchair user support mapping system
JP2010250775A (en) Crime prevention device and program
JP5044459B2 (en) Sensor network system
CN112013860A (en) Safe travel route planning and managing method and device
JP7447915B2 (en) Processing equipment, processing method and program
JP6828132B1 (en) Accident occurrence prediction system and accident occurrence prediction method
Khider et al. A novel movement model for pedestrians suitable for personal navigation
Rothmeier et al. Comparison of Machine Learning and Rule-based Approaches for an Optical Fall Detection System
JP2021071967A (en) Response support system, method, and program
CN114067436B (en) Fall detection method and system based on wearable sensor and video monitoring
JP7435356B2 (en) Track prediction device, track prediction method, and program