JP2013253779A - Article position estimation system, article position estimation method, and article position estimation program - Google Patents
Article position estimation system, article position estimation method, and article position estimation program Download PDFInfo
- Publication number
- JP2013253779A JP2013253779A JP2010223500A JP2010223500A JP2013253779A JP 2013253779 A JP2013253779 A JP 2013253779A JP 2010223500 A JP2010223500 A JP 2010223500A JP 2010223500 A JP2010223500 A JP 2010223500A JP 2013253779 A JP2013253779 A JP 2013253779A
- Authority
- JP
- Japan
- Prior art keywords
- observation
- unit
- value
- entry
- exit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/16—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
Description
本発明は、センサなどの観測装置の観測範囲内に存在する人物又は動物などの物体の位置を推定する物体位置推定システム、物体位置推定方法、及び物体位置推定プログラムに関する。 The present invention relates to an object position estimation system, an object position estimation method, and an object position estimation program that estimate the position of an object such as a person or an animal that exists within an observation range of an observation device such as a sensor.
従来、物体の位置を検出する技術として、タグリーダ(RFID測位装置)とカメラ(防犯カメラ)の測位データを比較(重ね合わせ)し、タグリーダとカメラの両測位データが揃っている箇所にはタグを所持した人物が存在し、カメラの測位データしか無い箇所にはタグを所持していない不審者がいると判断しているものがあった(特許文献1参照)。 Conventionally, as a technology for detecting the position of an object, the positioning data of a tag reader (RFID positioning device) and a camera (security camera) are compared (overlapped), and a tag is attached to a location where both the positioning data of the tag reader and the camera are aligned. There is a person who possesses a person and judges that there is a suspicious person who does not have a tag at a place where only the positioning data of the camera is present (see Patent Document 1).
しかしながら、特許文献1では、カメラは、検出した人物の追跡機能及びID識別機能を持たないため、タグを所持していない不審者が複数人存在した場合、前記不審者がどの位置から侵入し、どのような軌跡を辿って、どの位置から退去して行ったのかを判断できないという課題を有していた。
However, in
そこで、本発明は、前記課題を解決するもので、タグを所持していない人物が複数人存在した場合においても、前記各人物の進入位置もしくは現在(物体位置推定処理を行うときの)位置もしくは退去位置を判定することのできる物体位置推定システム、物体位置推定方法、及び物体位置推定プログラムを提供することを目的とする。 Therefore, the present invention solves the above-described problem, and even when there are a plurality of persons who do not have a tag, the position of each person or the current position (when the object position estimation process is performed) An object of the present invention is to provide an object position estimation system, an object position estimation method, and an object position estimation program capable of determining a leaving position.
前記目的を達成するために、本発明は以下のように構成する。 In order to achieve the above object, the present invention is configured as follows.
本発明の第1態様によれば、環境内に存在する複数の物体を観測し、前記複数の物体のそれぞれの物体の観測位置及び各物体に対するIDの尤度情報を、観測値として出力する観測装置と、
前記各物体の推定位置と観測位置とに基づいて、前記各観測値の前記各物体に対する位置の尤度情報を算出する位置尤度算出部と、
前記IDの尤度情報と位置の尤度情報とに基づいて、前記観測値と前記各物体の推定位置との相関値を算出する相関値算出部と、
前記相関値に基づいて、前記観測装置の観測範囲内に進入した物体又は前記観測範囲内から退去した物体の候補を検出する入退物体候補検出部と、
前記入退物体候補検出部の出力結果に基づいて、前記観測装置の前記観測範囲内に進入した物体又は前記観測装置の前記観測範囲内から退去した物体を判定する入退物体判定部と、
前記入退物体判定部の判定結果に基づき、前記各物体の推定位置及びIDの尤度情報及び位置の尤度情報に基づいて、前記観測値が得られた時刻における前記各物体の位置における存在確率を前記各物体の推定位置として算出する物体位置推定部と、
を備えることを特徴とする物体位置推定システムを提供する。
According to the first aspect of the present invention, the observation is performed by observing a plurality of objects existing in the environment, and outputting the observation position of each of the plurality of objects and the likelihood information of the ID for each object as an observation value. Equipment,
A position likelihood calculating unit that calculates likelihood information of the position of each observation value with respect to each object based on the estimated position and the observation position of each object;
A correlation value calculation unit that calculates a correlation value between the observed value and the estimated position of each object based on the likelihood information of the ID and the likelihood information of the position;
Based on the correlation value, an entry / exit object candidate detection unit that detects a candidate for an object that has entered the observation range of the observation apparatus or an object that has left the observation range;
Based on the output result of the entry / exit object candidate detection unit, an entry / exit object determination unit that determines an object that has entered the observation range of the observation device or an object that has left the observation range of the observation device;
Based on the determination result of the entry / exit object determination unit, based on the estimated position of each object, the likelihood information of the ID, and the likelihood information of the position, the presence at the position of each object at the time when the observed value was obtained An object position estimating unit that calculates a probability as an estimated position of each object;
An object position estimation system is provided.
本発明の第10態様によれば、環境内に存在する複数の物体を観測装置でそれぞれ観測して前記複数の物体のそれぞれの物体の観測位置及び各物体に対するIDの尤度情報を、観測値として取得したのち、
位置尤度算出部により前記各物体の推定位置と観測位置とに基づいて、前記各観測値の前記各物体に対する位置の尤度情報を算出し、
相関値算出部により、前記IDの尤度情報と位置の尤度情報とに基づいて、前記観測値と前記各物体の推定位置との相関値を算出し、
入退物体候補検出部により、前記相関値に基づいて、前記観測装置の観測範囲内に進入した物体又は前記観測範囲内から退去した物体の候補を検出し、
入退物体判定部により、前記入退物体候補検出部の出力結果に基づいて、前記観測装置の前記観測範囲内に進入した物体又は前記観測装置の前記観測範囲内から退去した物体を判定し、
物体位置推定部により、前記入退物体判定部の判定結果に基づき、前記各物体の推定位置及びIDの尤度情報及び位置の尤度情報に基づいて、前記観測値が得られた時刻における前記各物体の位置における存在確率を前記各物体の推定位置として算出することを特徴とする物体位置推定方法を提供する。
According to the tenth aspect of the present invention, a plurality of objects existing in the environment are respectively observed by the observation device, and the observation position of each of the plurality of objects and the likelihood information of the ID for each object are observed values. After getting as
Based on the estimated position and the observed position of each object by the position likelihood calculating unit, the position likelihood information for each object of each observed value is calculated,
A correlation value calculation unit calculates a correlation value between the observed value and the estimated position of each object based on the likelihood information of the ID and the likelihood information of the position,
Based on the correlation value, the entry / exit object candidate detection unit detects an object that has entered the observation range of the observation apparatus or an object candidate that has left the observation range,
Based on the output result of the entry / exit object candidate detection unit, the entry / exit object determination unit determines an object that has entered the observation range of the observation device or an object that has left the observation range of the observation device,
The object position estimation unit, based on the determination result of the entry / exit object determination unit, the estimated position of each object and the likelihood information of the ID and the likelihood information of the position at the time when the observed value was obtained An object position estimation method is provided, wherein the existence probability at the position of each object is calculated as an estimated position of each object.
本発明の第11態様によれば、コンピュータに、
環境内に存在する複数の物体を観測装置でそれぞれ観測して前記複数の物体のそれぞれの物体の観測位置及び各物体に対するIDの尤度情報を、観測値として取得したのち、
位置尤度算出部により前記各物体の推定位置と観測位置とに基づいて、前記各観測値の前記各物体に対する位置の尤度情報を算出する機能と、
相関値算出部により、前記IDの尤度情報と位置の尤度情報とに基づいて、前記観測値と前記各物体の推定位置との相関値を算出する機能と、
入退物体候補検出部により、前記相関値に基づいて、前記観測装置の観測範囲内に進入した物体又は前記観測範囲内から退去した物体の候補を検出する機能と、
入退物体判定部により、前記入退物体候補検出部の出力結果に基づいて、前記観測装置の前記観測範囲内に進入した物体又は前記観測装置の前記観測範囲内から退去した物体を判定する機能と、
物体位置推定部により、前記入退物体判定部の判定結果に基づき、前記各物体の推定位置及びIDの尤度情報及び位置の尤度情報に基づいて、前記観測値が得られた時刻における前記各物体の位置における存在確率を前記各物体の推定位置として算出する機能と、
を実現させるための物体位置推定プログラムを提供する。
According to an eleventh aspect of the present invention, a computer
After observing a plurality of objects existing in the environment with an observation device and obtaining the observation position of each of the plurality of objects and ID likelihood information for each object as observation values,
A function for calculating position likelihood information of each observation value for each object based on the estimated position and observation position of each object by a position likelihood calculating unit;
A function for calculating a correlation value between the observed value and the estimated position of each object based on the likelihood information of the ID and the likelihood information of the position by a correlation value calculating unit;
Based on the correlation value, an entry / exit object candidate detection unit detects a candidate for an object that has entered the observation range of the observation device or an object that has left the observation range;
Function for determining an object that has entered the observation range of the observation device or an object that has left the observation range of the observation device based on the output result of the entry / exit object candidate detection unit by the entry / exit object determination unit When,
The object position estimation unit, based on the determination result of the entry / exit object determination unit, the estimated position of each object and the likelihood information of the ID and the likelihood information of the position at the time when the observed value was obtained A function of calculating the existence probability at the position of each object as the estimated position of each object;
An object position estimation program for realizing is provided.
本構成によって、タグを所持していない人物が複数人存在した場合においても、前記各人物の進入位置もしくは現在位置もしくは退去位置をID付で推定することができる。 According to this configuration, even when there are a plurality of persons who do not have a tag, it is possible to estimate the entry position, the current position, or the exit position of each person with an ID.
本発明の物体位置推定システム、物体位置推定方法、及び物体位置推定プログラムによれば、タグの所持、未所持に関わらず、複数人物の進入位置もしくは現在(物体位置推定処理を行うときの)位置もしくは退去位置を推定することができる。 According to the object position estimation system, the object position estimation method, and the object position estimation program of the present invention, regardless of whether the tag is possessed or not possessed, a plurality of persons' approach positions or current positions (when the object position estimation process is performed) Alternatively, the leaving position can be estimated.
以下に、本発明にかかる実施の形態を図面に基づいて詳細に説明する。 Embodiments according to the present invention will be described below in detail with reference to the drawings.
以下、図面を参照して本発明における実施形態を詳細に説明する前に、本発明の種々の態様について説明する。 DESCRIPTION OF EMBODIMENTS Hereinafter, various embodiments of the present invention will be described before detailed description of embodiments of the present invention with reference to the drawings.
本発明の第1態様によれば、環境内に存在する複数の物体を観測し、前記複数の物体のそれぞれの物体の観測位置及び各物体に対するIDの尤度情報を、観測値として出力する観測装置と、
前記各物体の推定位置と観測位置とに基づいて、前記各観測値の前記各物体に対する位置の尤度情報を算出する位置尤度算出部と、
前記IDの尤度情報と位置の尤度情報とに基づいて、前記観測値と前記各物体の推定位置との相関値を算出する相関値算出部と、
前記相関値に基づいて、前記観測装置の観測範囲内に進入した物体又は前記観測範囲内から退去した物体の候補を検出する入退物体候補検出部と、
前記入退物体候補検出部の出力結果に基づいて、前記観測装置の前記観測範囲内に進入した物体又は前記観測装置の前記観測範囲内から退去した物体を判定する入退物体判定部と、
前記入退物体判定部の判定結果に基づき、前記各物体の推定位置及びIDの尤度情報及び位置の尤度情報に基づいて、前記観測値が得られた時刻における前記各物体の位置における存在確率を前記各物体の推定位置として算出する物体位置推定部と、
を備えることを特徴とする物体位置推定システムを提供する。
According to the first aspect of the present invention, the observation is performed by observing a plurality of objects existing in the environment, and outputting the observation position of each of the plurality of objects and the likelihood information of the ID for each object as an observation value. Equipment,
A position likelihood calculating unit that calculates likelihood information of the position of each observation value with respect to each object based on the estimated position and the observation position of each object;
A correlation value calculation unit that calculates a correlation value between the observed value and the estimated position of each object based on the likelihood information of the ID and the likelihood information of the position;
Based on the correlation value, an entry / exit object candidate detection unit that detects a candidate for an object that has entered the observation range of the observation apparatus or an object that has left the observation range;
Based on the output result of the entry / exit object candidate detection unit, an entry / exit object determination unit that determines an object that has entered the observation range of the observation device or an object that has left the observation range of the observation device;
Based on the determination result of the entry / exit object determination unit, based on the estimated position of each object, the likelihood information of the ID, and the likelihood information of the position, the presence at the position of each object at the time when the observed value was obtained An object position estimating unit that calculates a probability as an estimated position of each object;
An object position estimation system is provided.
本発明の第2態様によれば、前記入退物体候補検出部は、
前記相関値に基づいて、前記観測装置の観測範囲内に進入した物体の候補を検出する進入物体候補検出部と、
前記相関値に基づいて、前記観測装置の観測範囲内から退去した物体の候補を検出する退去物体候補検出部と、
を備えている、第1の態様に記載の物体位置推定システムを提供する。
According to the second aspect of the present invention, the entry / exit object candidate detection unit includes:
Based on the correlation value, an approaching object candidate detection unit that detects a candidate for an object that has entered the observation range of the observation device;
Based on the correlation value, a retreated object candidate detection unit that detects a candidate for a retreated object from within the observation range of the observation device;
An object position estimation system according to the first aspect is provided.
本発明の第3態様によれば、前記観測値を、前記各物体が観測された時刻と共に記録する観測履歴データベースと、
前記各物体の推定位置の算出結果を、前記各物体が観測された時刻と共に記録する位置推定履歴データベースと、
をさらに備えている、第1又は2の態様に記載の物体位置推定システムを提供する。
According to the third aspect of the present invention, an observation history database that records the observation values together with the time at which each object was observed;
A position estimation history database that records the calculation result of the estimated position of each object together with the time when each object was observed;
The object position estimation system according to the first or second aspect is further provided.
本発明の第4態様によれば、前記観測装置は複数備えられており、
前記進入物体候補検出部は、
前記観測装置毎の観測値数と物体の推定位置数とを比較する第1推定位置数比較部と、
前記第1推定位置数比較部での比較結果に基づき前記観測値数が前記物体の推定位置数よりも多かった場合、前記観測値数と前記物体の推定位置数の差分数を前記観測装置が検出した進入物体候補数として算出する進入物体候補数算出部と、
各観測値について、相関値の最大値が低い順に、前記進入物体候補数算出部で算出された前記進入物体候補数分だけ、前記観測値の観測位置に進入物体を検出したと判断する進入物体判断部とを備えるとともに、
前記退去物体候補検出部は、
前記観測装置毎の観測値数と物体の推定位置数を比較する第2推定位置数比較部と、
前記第2推定位置数比較部での比較結果に基づき前記物体の推定位置数が前記観測値数よりも多かった場合、前記物体の推定位置数と前記観測値数の差分数を前記観測装置が検出した退去物体候補数として算出する退去物体候補数算出部と、
各物体の推定位置について、相関値の最大値が低い順に、前記退去物体候補数算出部で算出された前記退去物体候補数分だけ、前記物体が退去したと判断する退去物体判断部とを備えることを特徴とする第2の態様に記載の物体位置推定システムを提供する。
According to a fourth aspect of the present invention, a plurality of the observation devices are provided,
The approaching object candidate detection unit is
A first estimated position number comparison unit that compares the number of observed values for each observation device with the estimated number of positions of an object;
When the number of observed values is larger than the number of estimated positions of the object based on the comparison result in the first estimated position number comparing unit, the observation device determines the difference number between the number of observed values and the estimated number of positions of the object. An approaching object candidate number calculating unit that calculates the number of detected approaching object candidates;
For each observation value, an approaching object that determines that an approaching object has been detected at the observation position of the observation value by the number of approaching object candidate counts calculated by the approaching object candidate number calculation unit in order of increasing correlation value. A determination unit, and
The leaving object candidate detection unit
A second estimated position number comparison unit that compares the number of observation values for each observation device with the estimated number of positions of the object;
When the number of estimated positions of the object is larger than the number of observed values based on the comparison result in the second estimated position number comparing unit, the observation device calculates the difference number between the estimated position number of the object and the number of observed values. A retreat object candidate number calculation unit that calculates the number of detected retirement object candidates;
For each estimated position of each object, a retired object determining unit that determines that the object has retreated by the number of retired object candidates calculated by the retired object candidate number calculating unit in descending order of the maximum correlation value. An object position estimation system according to the second aspect is provided.
本発明の第5態様によれば、少なくとも一つ以上の観測装置がカメラで構成され、
少なくとも別の一つ以上の観測装置がタグリーダで構成され、
更に、前記タグリーダの観測値及び前記各物体の推定位置に基づいてタグ有物体の入退を判定し、判定結果を前記位置推定履歴データベースに記録する入退タグ判定部を備え、
前記相関値算出部及び前記入退物体候補検出部検出部及び入退物体判定部は、前記カメラが出力した観測値と、以前に前記入退物体判定部によって進入したと判断された物体の推定位置のみを用いることを特徴とする第1〜4のいずれか1つの態様に記載の物体位置推定システムを提供する。
According to the fifth aspect of the present invention, at least one observation device is constituted by a camera,
At least one other observation device is composed of a tag reader,
Further, it includes an entry / exit tag determination unit that determines entry / exit of a tagged object based on the observation value of the tag reader and the estimated position of each object, and records the determination result in the position estimation history database,
The correlation value calculation unit, the entry / exit object candidate detection unit detection unit, and the entry / exit object determination unit estimate the observation value output by the camera and the object previously determined to have entered by the entry / exit object determination unit. An object position estimation system according to any one of the first to fourth aspects, wherein only the position is used.
本発明の第6態様によれば、前記入退物体判定部は、
前記入退物体候補検出部が前記観測装置毎に出力した進入物体候補数の平均値又は最大値を、進入物体数として算出する進入物体数算出部と、
前記進入物体候補検出部が検出した全ての進入物体を、クラスタ数が、前記進入物体数算出部で算出された前記進入物体数となるように位置に関してクラスタリングする第1クラスタリング部と、
前記第1クラスタリング部でクラスタリングしたクラスタに属する各進入物体の観測値に含まれるID尤度について、ID毎に和を算出するID尤度和算出部と、
前記ID尤度和算出部で算出されかつ推定位置が存在しない物体に対するID尤度の和の中で、ID尤度が最も値の高いIDの物体が前記クラスタの平均位置に進入したと判定する物体進入判定部と、
前記入退物体候補検出部が前記観測装置毎に出力した退去物体候補数の平均値又は最大値を、退去物体数として算出する退去物体数算出部と、
前記退去物体候補検出部が検出した全ての退去物体を、クラスタ数が、前記退去物体数算出部で算出された前記退去物体数となるように位置に関してクラスタリングする第2クラスタリング部と、
前記第2クラスタリング部でクラスタリングした各クラスタの平均位置に退去物体が存在すると判定する退去物体存在判定部と
を備えることを特徴とする第1〜3の何れか1つの態様に記載の物体位置推定システムを提供する。
According to the sixth aspect of the present invention, the entry / exit object determination unit comprises:
An entering object number calculating unit for calculating an average value or a maximum value of the number of entering object candidates output by the entry / exit object candidate detecting unit for each observation device;
A first clustering unit that clusters all the entering objects detected by the entering object candidate detecting unit with respect to positions such that the number of clusters is the number of entering objects calculated by the entering object number calculating unit;
An ID likelihood sum calculating unit that calculates a sum for each ID for the ID likelihood included in the observed values of the approaching objects belonging to the cluster clustered by the first clustering unit;
It is determined that the ID object having the highest ID likelihood has entered the average position of the cluster among the sums of ID likelihoods for the object that is calculated by the ID likelihood sum calculation unit and has no estimated position. An object entry determination unit;
A moving object number calculating unit for calculating an average value or a maximum value of the number of moving object candidates output for each observation device by the moving object candidate detecting unit;
A second clustering unit that clusters all the leaving objects detected by the leaving object candidate detection unit with respect to positions such that the number of clusters is the number of leaving objects calculated by the leaving object number calculation unit;
The object position estimation according to any one of the first to third aspects, further comprising: a retreated object presence determination unit that determines that a retired object exists at an average position of each cluster clustered by the second clustering unit. Provide a system.
本発明の第7態様によれば、少なくとも一つ以上の観測装置がカメラで構成され、
前記カメラから前記観測値としてとして出力する各物体に対するIDの尤度情報には、前記観測履歴データベースに記録された前記観測履歴に含まれている物体の他に、前記観測履歴に含まれていない物体のIDの尤度情報が含められていることを特徴とする第3の態様に記載の物体位置推定システムを提供する。
According to the seventh aspect of the present invention, at least one observation device is constituted by a camera,
The likelihood information of the ID for each object output as the observation value from the camera is not included in the observation history in addition to the object included in the observation history recorded in the observation history database. The object position estimation system according to the third aspect is characterized in that likelihood information of an object ID is included.
本発明の第8態様によれば、前記入退物体候補検出部は、物体の推定位置が一つも存在していない場合、各観測値の観測位置に進入物体を検出したと判断することを特徴とする第1〜7の何れか1つの態様に記載の物体位置推定システムを提供する。 According to an eighth aspect of the present invention, the entry / exit object candidate detection unit determines that an entry object has been detected at the observation position of each observation value when no estimated position of the object exists. The object position estimation system according to any one of the first to seventh aspects is provided.
本発明の第9態様によれば、前記入退物体候補検出部は、前記観測装置が観測した結果、観測値が1個も取得できなかった場合、全ての物体が前記観測装置の観測範囲内から退去したと判断することを特徴とする第1〜8の何れか1つの態様に記載の物体位置推定システムを提供する。 According to the ninth aspect of the present invention, the entry / exit object candidate detection unit, when no observation value is acquired as a result of observation by the observation device, all objects are within the observation range of the observation device. The object position estimation system according to any one of the first to eighth aspects is characterized in that it is determined that the user has left.
本発明の第10態様によれば、環境内に存在する複数の物体を観測装置でそれぞれ観測して前記複数の物体のそれぞれの物体の観測位置及び各物体に対するIDの尤度情報を、観測値として取得したのち、
位置尤度算出部により前記各物体の推定位置と観測位置とに基づいて、前記各観測値の前記各物体に対する位置の尤度情報を算出し、
相関値算出部により、前記IDの尤度情報と位置の尤度情報とに基づいて、前記観測値と前記各物体の推定位置との相関値を算出し、
入退物体候補検出部により、前記相関値に基づいて、前記観測装置の観測範囲内に進入した物体又は前記観測範囲内から退去した物体の候補を検出し、
入退物体判定部により、前記入退物体候補検出部の出力結果に基づいて、前記観測装置の前記観測範囲内に進入した物体又は前記観測装置の前記観測範囲内から退去した物体を判定し、
物体位置推定部により、前記入退物体判定部の判定結果に基づき、前記各物体の推定位置及びIDの尤度情報及び位置の尤度情報に基づいて、前記観測値が得られた時刻における前記各物体の位置における存在確率を前記各物体の推定位置として算出することを特徴とする物体位置推定方法を提供する。
According to the tenth aspect of the present invention, a plurality of objects existing in the environment are respectively observed by the observation device, and the observation position of each of the plurality of objects and the likelihood information of the ID for each object are observed values. After getting as
Based on the estimated position and the observed position of each object by the position likelihood calculating unit, the position likelihood information for each object of each observed value is calculated,
A correlation value calculation unit calculates a correlation value between the observed value and the estimated position of each object based on the likelihood information of the ID and the likelihood information of the position,
Based on the correlation value, the entry / exit object candidate detection unit detects an object that has entered the observation range of the observation apparatus or an object candidate that has left the observation range,
Based on the output result of the entry / exit object candidate detection unit, the entry / exit object determination unit determines an object that has entered the observation range of the observation device or an object that has left the observation range of the observation device,
The object position estimation unit, based on the determination result of the entry / exit object determination unit, the estimated position of each object and the likelihood information of the ID and the likelihood information of the position at the time when the observed value was obtained An object position estimation method is provided, wherein the existence probability at the position of each object is calculated as an estimated position of each object.
本発明の第11態様によれば、コンピュータに、
環境内に存在する複数の物体を観測装置でそれぞれ観測して前記複数の物体のそれぞれの物体の観測位置及び各物体に対するIDの尤度情報を、観測値として取得したのち、
位置尤度算出部により前記各物体の推定位置と観測位置とに基づいて、前記各観測値の前記各物体に対する位置の尤度情報を算出する機能と、
相関値算出部により、前記IDの尤度情報と位置の尤度情報とに基づいて、前記観測値と前記各物体の推定位置との相関値を算出する機能と、
入退物体候補検出部により、前記相関値に基づいて、前記観測装置の観測範囲内に進入した物体又は前記観測範囲内から退去した物体の候補を検出する機能と、
入退物体判定部により、前記入退物体候補検出部の出力結果に基づいて、前記観測装置の前記観測範囲内に進入した物体又は前記観測装置の前記観測範囲内から退去した物体を判定する機能と、
物体位置推定部により、前記入退物体判定部の判定結果に基づき、前記各物体の推定位置及びIDの尤度情報及び位置の尤度情報に基づいて、前記観測値が得られた時刻における前記各物体の位置における存在確率を前記各物体の推定位置として算出する機能と、
を実現させるための物体位置推定プログラムを提供する。
According to an eleventh aspect of the present invention, a computer
After observing a plurality of objects existing in the environment with an observation device and obtaining the observation position of each of the plurality of objects and ID likelihood information for each object as observation values,
A function for calculating position likelihood information of each observation value for each object based on the estimated position and observation position of each object by a position likelihood calculating unit;
A function for calculating a correlation value between the observed value and the estimated position of each object based on the likelihood information of the ID and the likelihood information of the position by a correlation value calculating unit;
Based on the correlation value, an entry / exit object candidate detection unit detects a candidate for an object that has entered the observation range of the observation device or an object that has left the observation range;
Function for determining an object that has entered the observation range of the observation device or an object that has left the observation range of the observation device based on the output result of the entry / exit object candidate detection unit by the entry / exit object determination unit When,
The object position estimation unit, based on the determination result of the entry / exit object determination unit, the estimated position of each object and the likelihood information of the ID and the likelihood information of the position at the time when the observed value was obtained A function of calculating the existence probability at the position of each object as the estimated position of each object;
An object position estimation program for realizing is provided.
以下、本発明の実施の形態について、図面を参照しながら説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(第1実施形態)
本発明の第1実施形態にかかる物体位置推定システム(装置)90では、閉じた環境の一例である部屋に対して、カメラとUWB(Ultra Wide Band)(超広帯域無線)タグリーダ(以下、単に、タグリーダと称する。)を設置することによって、タグを所持していない物体の一例としての人物が複数人存在した場合においても、前記各人物の進入位置もしくは現在(物体位置推定処理を行うときの)位置もしくは退去位置をID付で推定している。
(First embodiment)
In the object position estimation system (apparatus) 90 according to the first embodiment of the present invention, a camera and a UWB (Ultra Wide Band) tag reader (hereinafter simply referred to as a “closed environment”) are used. By installing a tag reader), even when there are a plurality of persons as an example of an object that does not have a tag, the approach position or the current (when performing the object position estimation process) of each person. The position or the leaving position is estimated with an ID.
図1Aは、本発明の第1実施形態に係る物体位置推定装置90の構成を示した図である。
FIG. 1A is a diagram showing a configuration of an object
本発明の第1実施形態に係る物体位置推定装置90は、観測装置100の一例としてのカメラ101と、観測装置100の別の例としてのタグリーダ102と、物体位置推定処理部91とを備える。物体位置推定処理部91は、入退タグ判定部104と、物体位置推定部105と、位置尤度算出部107と、相関値算出部108と、入退物体候補検出部92(進入物体候補検出部109と、退去物体候補検出部110)と、入退物体判定部111と、を備える。さらに、前記物体位置推定装置90は、観測履歴データベース103と、位置推定履歴データベース106とを備えていても良い。もちろん、前記物体位置推定装置90としては、観測履歴データベース103と位置推定履歴データベース106とを備えずに、必要な情報を通信などの手段により、物体位置推定装置90の外部のデータベースより取得できるように構成してもよい。必要な情報を外部データベースから取得できるようにするとともに、必要に応じて、各部材の内部記憶部などにより必要な情報を保持するように構成してもよい。
The object
観測装置100の例であるカメラ101とタグリーダ102は、各々、所定の観測周期(例えば100msなど)毎に、部屋内の観測エリア内を観測する。そして、カメラ101とタグリーダ102は、観測エリア内に存在する人の検出を行い、検出結果である人の検出位置(観測位置)と人のID尤度(IDの尤度情報)とを観測値として、観測履歴データベース103に記録する。
The
入退タグ判定部104は、観測履歴データベース103と位置推定履歴データベース106とに記録された情報を基に、タグを所持した人の観測エリア内への進入と退去を判定する。
The entry / exit
位置尤度算出部107は、観測履歴データベース103に記録された各観測値に対して、観測エリア内に現在(位置尤度算出時に)存在していると推定されている人毎に位置尤度を算出する。
The position
相関値算出部108は、観測履歴データベース103に記録された各観測値に対して、位置推定履歴データベース106の情報を基に、観測エリア内に現在(相関値算出時に)存在していると推定されている人毎に相関値を算出する。
The correlation
入退物体候補検出部92は、1つの部で構成してもよいが、進入物体候補検出部109と、退去物体候補検出部110との2つに分けて構成してもよい。一例として、以下の説明では、進入物体候補検出部109と、退去物体候補検出部110との2つに分けて構成する例について説明する。
The entry / exit object
進入物体候補算出部109は、相関値算出部108での算出結果に基づき、観測エリア内に進入した人の候補を算出する。退去物体候補算出部110は、相関値算出部108での算出結果に基づき、観測エリア内から退去した人の候補を算出する。
The approaching object
入退判定部111は、進入物体候補算出部109及び退去物体候補算出部110が出力した結果を、位置推定履歴データベース106に記録する。
The entry /
物体位置推定部105は、位置推定履歴データベース106に記録された情報を基に、観測エリア内に存在する人の位置の推定を行う。
The object
図2に、閉じた環境の一例である生活環境の具体的な例としての部屋201を示す。この部屋201は、本発明の第一実施形態に係る物体位置推定システム90の構成要素である観測装置100の一例としてのカメラ101と観測装置100の別の例としてのタグリーダ102とをそれぞれ備えている。直方体の部屋201の四角形の天井の中央付近には、真下に向けられたカメラ101とタグリーダ102とが設置されている。部屋201内には、タグ203Aを所持した人202Aと、タグ203Bを所持した人202Bと、タグ203を所持していない人203Cが、部屋201に出入りしていると仮定する。尚、部屋201に出入りする人の数に制限は無く、任意の一人を示す場合には、代表的に人202として説明を行う。同様に、任意の一つのタグを示す場合には、この任意のタグをタグ203として説明を行っている。また、閉じた環境である部屋201内への出入口の例として、ドア204Aと、ドア204Bと、ドア204Cとが配置されている。以後、任意の一つのドアを示す場合には、代表的にドア204として説明を行う。
FIG. 2 shows a
以下、図3の物体位置推定システム90の物体位置推定処理のフローチャートに対応させながら、図1A及び図1Bと図2とを用いて、各構成要素について説明する。尚、図3は、前記物体位置推定システム90の全体処理を示すフローチャートである。
Hereinafter, each component will be described using FIG. 1A, FIG. 1B, and FIG. 2 while corresponding to the flowchart of the object position estimation process of the object
<観測装置の説明>
ステップS301の処理において、観測装置100は、所定の観測周期(例えば100msなど)毎に、部屋201内を観測する。そして、観測装置100は、部屋201内に存在する人202の検出を行い、検出結果である人202の検出位置と人202のID尤度とを観測値として観測履歴データベース103に記録する。
<Explanation of observation equipment>
In the process of step S301, the
ID尤度とは、検出した物体(例えば、ここでは人202)がどのIDの物体であるらしいか、を確率的に表したものである。例えば、タグリーダ102ではIDを確実に識別することが可能なので、タグリーダ102が物体Aのタグを検出した場合、ID尤度は物体Aである確率が1、その他の物体である確率が0となる。一方で、カメラ101の場合は、ID識別結果が物体Aであったとしても、画像処理によるID識別間違いの可能性が含まれるため、実際に検出していた物体がAであることを確実に保証することはできない。例えば、カメラ101の識別結果が物体Aであっても、物体A以外の物体(物体B,物体Cなど)を検出していた可能性がある。このような場合、ID尤度は、カメラ101の識別対象となり得る全ての物体に対して割り振られた確率値となる。例えば、物体Aである確率が0.8であり、物体Bである確率が0.1であり、物体Cである確率が0.1である、というように、ID尤度が決定される。尚、これは、ID尤度を決定する一例であり、本発明はこれに限るものではない。
The ID likelihood is a probability representation of which ID the detected object (for example, the
<カメラの説明>
以下、前記観測装置100に一例としてカメラ101を用いるときの人202の検出位置とID尤度との具体的な算出方法について説明する。ここでは、前記カメラ101は、図1Bに示すように、観測部(撮像部)101aと、画像処理部101bと、ID識別処理部101cと、内部記憶部(記憶部)101Sとを備える。
<Explanation of camera>
Hereinafter, a specific method for calculating the detection position of the
カメラ101を用いて人202を検出するには、前記カメラ101の画像処理部101cが、カメラ101が取得した画像データを画像処理する必要がある。その方法として、例えば、背景差分法を用いることができる。その方法は次のようなものである。画像処理部101bが、カメラ101で予め撮像して用意しておいた背景画像データと、カメラ101で撮像した現在(人検出時)の画像データとを比較する。前述の背景画像データとは、人202が存在していないときの環境、例えば部屋201の背景画像のデータである。その後、画像処理部101bが、画素値が異なる領域を差分領域として取り出す。そして、前記差分領域を人202であるとして画像処理部101bで検出する。ただし、画像データにはノイズが混じっている可能性があるため、画像処理部101bにて、前記差分領域が人202に対して十分に小さいと判断できる場合には、画像処理部101bにて、前記差分領域は人202ではないと判断しても良い。ここで、差分領域が人302に対して十分に小さい場合とは、前記差分領域の画素数が、人202と認識可能な最低画素数を基に予め設定した閾値以下である場合が考えられる。
In order to detect the
カメラ101が、天井から天井面に垂直に地面を見下ろすように設置されているとすると、画像処理部101bは、カメラ101で取得した前記差分領域の重心位置を人202の検出位置として処理する。尚、画像処理部101bにおける、カメラ座標系における画素の位置から部屋201におけるXY座標系への変換は、予めカメラキャリブレーションを行っておくことで実現できる。
Assuming that the
<カメラID尤度算出:色>
また、前記カメラ101のID識別処理部101cが、前記差分領域に対してID識別処理を行うことによって、検出した人202のID尤度を求める。ID識別処理部101cは、図1Bにおいて詳細に示すように、比較部101cbと、算出部101cdと、追跡成功確率取得部101ceと、データアソシエーション値取得部101cfと、ID尤度割振部101cgと、加算部101chとで構成されている。そのID尤度を求める方法として、例えば色特徴量のマッチングを行う方法がある。具体的には、内部記憶部101Sにて、識別対象とする人202の色の特徴量を予め記憶しておく。そして、ID識別処理部101cの比較部101cbが、前記差分領域に含まれる色特徴の成分の比率を比較する。図4に、部屋201に出入り可能な3人の人物(それぞれのIDをTAG_01、TAG_02、TAG_03とする。)の色特徴量の比率が記録された色特徴量テーブルの例を示す。この色特徴量テーブルは、内部記憶部101Sに記憶されている。図4の色特徴量テーブルによると、例えばTAG_01の人物は、R(赤)成分が0.65であり、G(緑)成分が0.2であり、B(青)成分が0.15である。ここで、前記差分領域の色特徴量の比率が、R成分が0.12であり、Gが成分0.2であり、B成分が0.68であったと仮定する。このとき、ID識別処理部101cの比較部101cbが、前記色特徴量テーブルに記録された各人物の色特徴量の成分の比率と、前記差分領域の色特徴量の成分の比率を比較する。そして、ID識別処理部101cの算出部101cdが、マッチング率を算出する。TAG_01の人物に関しては、R成分が0.12でマッチングし、G成分が0.2でマッチングし、B成分が0.15でマッチングしており、計0.47でマッチングしている。同様に、TAG_02の人物に関しては、計0.9でマッチングし、TAG_03の人物に関しては、計0.42でマッチングしている。例えば、前述のID識別処理部101cの算出部101cdで算出されたマッチング率をID尤度とすることができる。つまり、前記差分領域において検出された人202のIDは、TAG_01に対するID尤度が0.47となり、TAG_02に対するID尤度が0.9となり、TAG_03に対するID尤度が0.42となる。このID尤度算出の処理を、検出した全ての人202に対してID識別処理部101cで行う。尚、色特徴量テーブルはカメラ101の内部記憶部101Sに記録されているものとする。
<Camera ID likelihood calculation: Color>
Further, the ID
<カメラID尤度算出:追跡>
しかし、人202が着ている服が毎日異なるなど、予め前記色特徴量テーブルを作成しておくことが困難な場合が考えられる。このような場合、ID識別処理部101cが、人202の追跡状態に応じてID尤度を決定しても良い。図6のフローチャート及び図7のカメラ観測状況及び図8のデータアソシエーション状況に対応させながら具体的に説明を行う。
<Camera ID likelihood calculation: tracking>
However, there may be a case where it is difficult to create the color feature amount table in advance, for example, the clothes worn by the
ステップS601の処理では、カメラ101が部屋201内を観測し、N個の観測値(差分領域)を検出している。ただし、N>0でかつNは整数である。図7のカメラ観測状況の例を見てみると、時刻2010:3:3:14:23:28:000では、カメラ101は2個の観測値を検出しており(観測値CAM_01,CAM_02を参照。)、N=2となる。尚、差分領域の検出方法については上述した通りである。
In the process of step S601, the
ステップS602の処理では、カメラ101のID識別処理部101cが位置推定履歴データベース106を参照し、現在(ステップS602の処理を行うとき)、部屋201内に存在していると推定されている人202の数(M)を取得している。ただし、M>0でかつMは整数である。尚、位置推定履歴データベース106についての詳細は後述する。また、図6のフローチャートを用いた説明は、M=2として行う。
In the process of step S602, the ID
以降、ステップS601の処理で得られた前記各観測値に対して処理を行う。尚、ループ1における「A」は、前記各観測値に対するインデックス番号を表しており、同一時刻に得られた観測値内において、観測値が得られた順番に、0から番号がインクリメントされるように割り振られている。
Thereafter, the process is performed on the observed values obtained in the process of step S601. Note that “A” in
次いで、ステップS603の処理では、ID識別処理部101cの比較部101cbが、カメラ101にて検出された前記観測値の色の特徴量の比率を取得している。図7のカメラ観測状況の例を見てみると、観測値CAM_01は、R成分:G成分:B成分=0.3:0.6:0.1の比率となっている。
Next, in the process of step S603, the comparison unit 101cb of the ID
ステップS604の処理では、前記観測値が、それぞれ追跡中の観測値であるか否かをID識別処理部101cの算出部101cdで判断している。尚、追跡中か否かのID識別処理部101cの算出部101cdで判断は、ステップS602でID識別処理部101cの算出部101cdで取得した色の特徴量のマッチングにて行う。マッチング処理方法の説明については色特徴量を用いたID尤度算出方法と同等であるため省略する。例えば、観測値CAM_01の場合、時刻2010:3:3:14:23:28:000以前に観測値が得られていないため、観測値CAM_01は、追跡中の観測値では無いとID識別処理部101cの算出部101cdによって判断される(ステップS605へ進む)。また、観測値CAM_03の場合、まず、ID識別処理部101cの算出部101cdが、前回観測値(CAM_01,CAM_02)の色の特徴量とマッチングする観測値があるか否かを判断する。具体的には、ID識別処理部101cの算出部101cdが、閾値以上且つマッチング率の最も高い前回観測値があると判断する場合に、観測値CAM_03は、追跡中の観測値であるとID識別処理部101cの算出部101cdによって判断される。前記閾値を0.8と設定していた場合、観測値CAM_03は、観測値CAM_01を追跡中であるとID識別処理部101cの算出部101cdによって判断される(ステップS606へ進む)。また、前記閾値を0.95と設定していた場合、観測値CAM_03は条件に見合う前回観測値が存在しないため、追跡中の観測値では無いとID識別処理部101cの算出部101cdによって判断される(ステップS605へ進む)。尚、前記閾値は経験的に設定する値となる。
In the process of step S604, the calculation unit 101cd of the ID
ステップS605の処理では、ID識別処理部101cの算出部101cdによって、ステップS604の処理において追跡中では無いと判断した観測値のID尤度に、現在タグが検出している人202全てのID尤度が割り当てられる。より具体的には、前述の通り、ID識別処理部101cの算出部101cdが、追跡中の観測値であるかどうかを判断する。そして、ID識別処理部101cの算出部101cdが、現在タグが検出している人202の人数M分の1を、現在タグが検出している人202それぞれのID尤度として割り当てる。
In the process of step S605, the ID likelihood of all the
ステップS606の処理では、ID識別処理部101cの追跡成功確率取得部101ceが、カメラ101の観測値の追跡成功確率(P)を取得している。ただし、P>0である。前記追跡成功確率は、事前実験を行い予め求めておいたものを使用しても良い。また、ステップS604の処理において、追跡中と判断した前回観測値とのマッチング率を追跡成功確率として用いても良い。
In the process of step S606, the tracking success probability acquisition unit 101ce of the ID
次いで、ステップS607の処理では、ID識別処理部101cのデータアソシエーション値取得部101cfが、追跡元となっている観測値に割り振られているデータアソシエーション値を取得している。尚、データアソシエーション値とは、物体位置推定部105の処理を行う過程でID識別処理部101cのデータアソシエーション値取得部101cfにより算出される値である。また、前記観測値は、どの人202を検出して得られた観測値であるかを、確率的に表す値である。尚、物体位置推定部105についての説明は後述する。図7によると、観測値CAM_03の追跡元の観測値は、CAM_01であり(上述したように色特徴量により判断)である。更に図8によると、観測値CAM_01のTAG_01に対するデータアソシエーション値が0.3であり、TAG_02に対するデータアソシエーション値が0.7である。
Next, in the process of step S607, the data association value acquisition unit 101cf of the ID
次いで、ステップS608の処理では、ステップS604の処理で追跡中と判断された観測値について、各人202に対するID尤度に、(P/データアソシエーション値)をID識別処理部101cのID尤度割振部101cgで割り振っている。追跡成功確率(P)が0.8であったと仮定すると、観測値CAM_03の場合は、TAG_01に対するID尤度に(0.3/0.8)がID識別処理部101cのID尤度割振部101cgで割り振られ、TAG_02に対するID尤度に(0.7/0.8)がID識別処理部101cのID尤度割振部101cgで割り振られる。
Next, in the process of step S608, (P / data association value) is assigned to the ID likelihood of each
次いで、ステップS609の処理では、ステップS608の処理で割り振った各人202に対するID尤度に、((1−P)/M)をID識別処理部101cの加算部101chで加算している。観測値CAM_03の場合は、TAG_01、TAG_02に対するID尤度にそれぞれ((1−0.8)/2)をID識別処理部101cの加算部101chで加算している。
Next, in the process of step S609, ((1-P) / M) is added to the ID likelihood for each
<タグリーダの説明>
以下、前記観測装置100にタグリーダ102を用いるときの人202の検出位置とID尤度との具体的な算出方法について説明する。タグリーダ102は内部記憶部102Sを備えるように構成されている。
<Description of tag reader>
Hereinafter, a specific calculation method of the detection position of the
図2においてタグリーダ102を一例として用いる場合、人202の検出位置は、例えば、三点測量の原理を用いて決定することができる。具体的には、タグリーダ102の構成要素としての各アンテナの設置位置を、タグリーダ102の内部記憶部102Sなどに予め記憶させておく。そして、各アンテナの設置位置を中心として、各アンテナにより検出されたタグ203までの距離を半径とした球体を描く。このとき、各アンテナによって描かれた球面が最も多く重なり合う位置を、人202が所有しているタグ203の存在する位置とする。そして、タグリーダ102は、この位置を人202が存在する位置と判断する。
When the
上述した通り、タグリーダ102は、タグ203に記録された人202のIDを、タグ203から直接読み取ることができる。これにより、人202のID尤度は、人202のIDである確率が1とすることができる。タグ203に人202のIDを記録しない場合は、例えばタグIDから人202のID尤度を決定できる人ID変換テーブルを用いても良い。人ID変換テーブルの例を図5に示す。図5の人ID変換テーブルでは、例えば、タグID=T4のタグを検出した場合、人ID=TAG_01の人を検出したことを示している。人ID変換テーブルは、タグリーダ102の内部記憶部102Sに記録していても良い。また、外部のデータベース(図示せず)などに記録しておき、必要に応じて、タグリーダ102が前記外部のデータベースから、必要な情報を取得して人202のID尤度を決定するようにしても良い。
As described above, the
<観測履歴データベースの説明>
図9に観測履歴データベース106の一例を示す。図9に示す観測履歴データベース106は、観測IDと、観測時刻と、検出位置と、ID尤度とがそれぞれ記録可能となっている。観測IDとは、どの観測装置100が何時検出した観測値かを識別するために示すIDである。観測時刻とは、観測値を取得した時刻である。尚、各観測装置100は、内部にタイマー(図示せず)を備えているものとする。検出位置とは、各観測装置が人202を検出した位置であり、図2の部屋201のXY座標系における位置とする。ID尤度とは、検出した人202がどのIDの人物であるらしいかを確率的に表したものである。
<Explanation of observation history database>
FIG. 9 shows an example of the
例えば、観測ID=TAGR_01は、時刻2010:3:3:14:23:27:900に座標(280,720)で取得された観測値であって、検出したタグからTAG_01のID尤度が1であることを示している。尚、図9において、観測ID=TAGR_08,CAM_09の検出位置とID尤度には「−」が記録されているが、これは観測した結果、人202を検出することができなかったことを表している。
For example, observation ID = TAGR_01 is an observation value acquired at coordinates (280, 720) at time 2010: 3: 3: 14: 23: 27: 900, and the ID likelihood of TAG_01 is 1 from the detected tag. It is shown that. In FIG. 9, “−” is recorded in the detection position and ID likelihood of observation ID = TAGR_08, CAM_09. This indicates that the
尚、カメラ101とタグリーダ102は、一例として100msec周期で観測を行っているものとし、観測履歴データベース106へも、一例として100msec毎に観測値が記録されている。また、図9中の「・・・」は、観測値を省略していることを意味する(実際には、観測履歴データベース106に記録されている)。
Note that the
<入退タグ判定部>
ステップS302の処理において、入退タグ判定部104は、観測履歴データベース103と位置推定履歴データベース106とに記録された情報を基に、タグ203を所持した人202の部屋201への進入と退去を判定する。上述した通り、タグリーダ102は、人202(が所持するタグ203)の識別ミスをしない。そのため、入退タグ判定部104は、タグリーダ102が取得したIDの人物が部屋201内に存在すると判定する。また、入退タグ判定部104は、タグリーダ102が取得できなかったIDの人物が部屋201内に存在しないと判定する。以下、ステップS302の処理を詳しく説明する。
<Entry / exit tag determination unit>
In the process of step S302, the entry / exit
図9に示す観測履歴データベース106と、図10に示すフローチャートを用いて、入退タグ判定部104による進入タグ判定の説明を行う。
With reference to the
ステップS1001の処理では、タグリーダ102がN個の観測値を取得している。図9に示す観測履歴データベース103を見ると、時刻2010:3:3:14:23:27:900では、タグリーダ102は、N=2個の観測値を取得していることが分かる。
In the process of step S1001, the
次いで、ステップS1002の処理では、入退タグ判定部104が、現在(進入タグ判定の処理、例えば、ステップS1002の処理を行うとき)、部屋201内に存在すると推定されている人物のIDを、位置推定履歴データベース106を参照することによって取得している。
Next, in the process of step S1002, the entry / exit
以降、ステップS1001の処理で得られた前記各観測値に対して処理を行う。尚、ループ1における「A」は、前記各観測値に対するインデックス番号を表しており、同一時刻に得られた観測値内において、観測値が得られた順番に、0から番号がインクリメントされるように割り振られている。
Thereafter, the process is performed on each observation value obtained in the process of step S1001. Note that “A” in
次いで、ステップS1003の処理では、入退タグ判定部104が、ステップS1001とS1002とで取得した情報を基に、検出されたタグ203が示す人202のIDが、部屋201内に存在すると推定されているか否かを判定している。具体的には、タグ203を検出した時刻2010:3:3:14:23:27:900の直前の時刻(前回の観測装置100の一例であるタグリーダ102の観測時刻)に、位置推定履歴データベース106が前記IDの人物の推定位置の情報を有しているか否かが、入退タグ判定部104によって判定される。入退タグ判定部104によって、前記IDの人物が存在していないと判定された場合、処理はステップS1004に進む。入退タグ判定部104によって、前記IDの人物が存在していると判定された場合、次の観測値に対してステップS1003の処理を行う。
Next, in the process of step S1003, based on the information acquired by the entrance / exit
ループ1の後、処理を終了する。
After
一方、ステップS1004の処理では、入退タグ判定部104が、検出されたタグ203が示す人202のIDとタグ203が検出された位置の情報とを位置推定履歴データベース106に記録している。図12に、図9の観測ID=TAGR_01とTAGR_02の観測値を用いて、入退タグ判定部104が進入タグ判定を行った結果を示す。この結果は、位置推定履歴データベース106に記憶されるデータの一例を示している。図12の位置推定履歴データベース106には、観測IDに記録されている時刻(タグ203が検出された時刻)と、タグ203が存在する推定位置が記録されている。尚、前記推定位置は、タグリーダ102の位置誤差特性に基づいて決定される。図12の例に示すタグリーダ102の場合、タグ203を検出した位置を平均位置として、分散20cmのガウス分布に則ったタグ203が示す人物が存在する確率があることを示している。尚、前記位置誤差特性は予め事前実験などを行うことによって把握してあるものとする。また、図12中の、N(0,Q)は、平均0、分散Qのガウス分布を表している。その後、ループ1に進む。
On the other hand, in the process of step S1004, the entry / exit
次に、図11に示すフローチャートを用いて、入退タグ判定部104による退去タグ判定の説明を行う。
Next, the exit tag determination by the entrance / exit
ステップS1101の処理では、タグリーダ102が観測値を取得している。
In the process of step S1101, the
ステップS1102の処理では、入退タグ判定部104が、現在(退去タグ判定の処理、例えば、ステップS1102の処理を行うとき)、部屋201内に存在すると推定されているタグを所持した人202のID数を、位置推定履歴データベース106を参照することによって取得している。
In the process of step S1102, the entry / exit
以降、ステップS1001の処理で得られた前記各観測値に対して処理を行う。尚、ループ1における「A」は、前記各観測値に対するインデックス番号を表しており、同一時刻に得られた観測値内において、観測値が得られた順番に、0から番号がインクリメントされるように割り振られている。
Thereafter, the process is performed on each observation value obtained in the process of step S1001. Note that “A” in
次いで、ステップS1103の処理では、入退タグ判定部104が、ステップS1101とS1102とで取得した情報を基に、現在(退去タグ判定の処理、例えば、ステップS1103の処理を行うとき)、部屋201内に存在すると推定されている人202のIDを示すタグ203を、タグリーダ102が検出しているか否かを判定している。具体的には、タグ203を検出した時刻の直前の時刻(前回の観測装置100の一例であるタグリーダ102の観測時刻)に、入退タグ判定部104が、位置推定履歴データベース106に記録されているタグIDを示すタグ203がタグリーダ102で検出されているか否かを判定する。前記タグIDを示すタグ203がタグリーダ102で検出されていないと入退タグ判定部104で判定された場合、処理はステップS1104に進む。前記タグIDを示すタグ203がタグリーダ102で検出されていると入退タグ判定部104で判定された場合、次の観測値に対してステップS1003の処理を行う。
Next, in the process of step S1103, the entrance / exit
ループ1の後、処理を終了する。
After
一方、ステップS1104の処理では、ステップS1103の処理において、入退タグ判定部104は、タグリーダ102が検出していないと判定されたタグ203が示す人202が、部屋201から退去したと判定する。人202が退去して部屋201内には存在しないことを、例えば、「−」などという記号を用いて表現するように、位置推定履歴データベース106に記録しても良い。図13に、人202が部屋201に存在していない状況を表現した位置推定履歴データベース106を示す。
On the other hand, in the process of step S1104, in the process of step S1103, the entry / exit
尚、タグリーダ102がタグ203を検出ミスする可能性が存在する場合、例えば、ステップS1103の処理をN回連続でNOと入退タグ判定部104で判定された人202に対して、退去したと入退タグ判定部104で判定するようにしても良い。ここで、N>0でかつNは整数である。
If there is a possibility that the
<位置尤度算出部の説明>
図3のステップS303の処理において、位置尤度算出部107は、観測履歴データベース103の各観測値に対して、位置推定履歴データベース106の情報を基に、現在(物体位置推定処理、例えば、ステップS303の処理を行うとき)、部屋201内に存在していると推定されている人202毎に位置尤度を算出する。
<Description of Position Likelihood Calculation Unit>
In the process of step S303 in FIG. 3, the position
位置尤度とは、現在(観測装置100が観測値を取得した時刻)、位置推定履歴データベース106の推定されている各人202の位置に基づいて、新たに観測された人202の位置(観測位置)に関して、その人202がどのIDの人202であるらしいか、を確率的に表したものである。例えば、1次元座標上の「10」の位置に人Aが存在すると推定され、「20」の位置に人Bが存在すると推定され、「40」の位置に人Cが存在すると推定されていたとする。この状況において、「0」の位置に人を検出したとする。このときの位置尤度は、例えば、位置尤度算出部107により、位置推定履歴データベース106の各人A,B,Cの推定位置からの距離の逆数を取り、正規化を行うことで、位置尤度算出部107により算出することができる。このとき、位置尤度算出部107が、人Aである確率が0.58、人Bである確率が0.28、人Cである確率が0.14と算出する。尚、これは位置尤度を決定する一例であり、本発明はこれに限るものではない。例えば、推定中の人202の(予測分布における)分散共分散行列を考慮した(式1)に基づいて位置尤度算出部107が位置尤度を求めても良い。POS_LLとは、位置尤度のことである。xは観測位置であり、μは人202の推定位置である。またσは、人202の予測分布における分散である。尚、予測分布の詳細については、物体位置推定部105にて説明する。
The position likelihood is the position (observation) of the newly observed
<相関値算出部の説明>
次いで、ステップS304の処理において、相関値算出部108は、観測履歴データベース103に記録された各観測値に対して、位置推定履歴データベース106の情報を基に、現在(物体位置推定処理、例えば、ステップS304の処理を行うとき)、部屋201内に存在していると推定されている人202毎に相関値を算出する。
<Description of Correlation Value Calculation Unit>
Next, in the process of step S304, the correlation
相関値とは、各観測値に対して、現在(観測装置100が観測値を取得した時刻)、推定されている各人202の中のどの人202を検出することによって得られた観測値であるか、を確率的に表したものである。具体的には、相関値は、IDの尤度と位置の尤度を掛けた値であり、(観測値数×人物数)分の相関値を相関値算出部108で計算することとなる。図15に、時刻2010:3:3:14:23:28:000に取得されたカメラ101の観測値と人202との相関値の例を示す。
The correlation value is an observation value obtained by detecting which
<進入物体候補算出部の説明>
ステップS305の処理において、進入物体候補算出部109は、相関値算出部108での算出結果に基づき、部屋201内に進入した人202の候補を算出する。進入物体候補算出部109は、図1Cに示すように、第1推定位置数比較部109aと、進入物体候補数算出部109bと、進入物体判断部109cとを備えている。第1推定位置数比較部109aは、観測装置毎の観測値数と物体の推定位置数とを比較する。進入物体候補数算出部109bは、前記第1推定位置数比較部109aでの比較結果に基づき観測値数が物体の推定位置数よりも多かった場合、観測値数と物体の推定位置数の差分数を観測装置100が検出した進入物体候補数として算出する。進入物体判断部109cは、各観測値について、相関値の最大値が低い順に、進入物体候補数算出部109bで算出された進入物体候補数分だけ、観測値の観測位置に進入物体を検出したと判断する。ここで、物体の推定位置数とは、観測値が得られた時刻において、位置推定履歴データベース106に推定位置が記録されている物体の個数を意味する。観測値が得られた時刻の位置推定結果は、まだ、位置推定履歴データベース106に記録されていないため(位置推定は、最後の処理のステップS308であるため)、前回観測値が得られた時刻での推定結果がある物体数を表している。よって、具体的な例では、位置推定履歴データベース106に「−」と記録されている物体は数に含まないことになる。
<Description of the approaching object candidate calculation unit>
In the process of step S <b> 305, the approaching object
具体的な処理内容を、図9の観測履歴データベース103と図14の位置推定履歴データベース106と図15の相関値の例を用いて説明する。
Specific processing contents will be described using the
先ず、進入物体候補算出部109の第1推定位置数比較部109aが、観測履歴データベース103から相関値算出部108を介して、カメラ101の観測値数を取得する。例えば、図9の観測履歴データベース103に示すように、時刻2010:3:3:14:23:28:000では、カメラ101は、3個の観測値(CAM_03,CAM_04,CAM_05)を取得している。これを、観測履歴データベース103から相関値算出部108を介して第1推定位置数比較部109aが取得する。
First, the first estimated position
次に、現在(物体位置推定処理、例えば、ステップS305の処理を行うとき)、第1推定位置数比較部109aが、位置推定履歴データベース106から相関値算出部108を介して、推定中の人202の数を取得する。例えば、図14の位置推定履歴データベース106に示すように、時刻2010:3:3:14:23:27:900では、2人の人物(TAG_01,TAG_02)が部屋201内にいると推定されている(時刻2010:3:3:14:23:28:000の観測値が得られた時点における最新の位置推定結果は、時刻2010:3:3:14:23:27:900のものであるという意味である)。
Next, at the present time (when performing the object position estimation process, for example, the process of step S305), the first estimated position
このとき、第1推定位置数比較部109aで取得した情報を基に、進入物体候補算出部109の進入物体候補数算出部109bが、人202の数に対して、観測値数が1個多いことを算出する。そして、進入物体候補数算出部109bが、部屋201内に人202が1人進入してきたことを判断することができる。
At this time, based on the information acquired by the first estimated position
進入物体候補数算出部109bが、人202の進入を判断すると、次に、進入物体候補算出部109の進入物体判断部109cにより、人202毎に最も相関値の高くなっている観測値を検出して対応付ける。図15の相関値の例では、TAG_01は観測値CAM_03と進入物体判断部109cで対応付けられる。TAG_02は観測値CAM_04と進入物体判断部109cで対応付けられる。観測値CAM_05は、どの人202とも進入物体判断部109cで対応付けられていない。
When the approaching object candidate
その後、進入物体判断部109cが、どの人202とも対応付けられなかった観測値(CAM_05)を、部屋201内へ新規に進入してきた人202を観測して得られた観測値であると判断する。そして、観測値CAM_05の位置に、タグ203を所持していない人202が存在する可能性があることを、進入物体候補算出部109の進入物体判断部109cから入退物体判定部111に伝える。
Thereafter, the approaching
ここで、部屋201内に人202が初めて進入してきた場合について説明する。この場合、部屋201内には人202が存在していないと推定されている。そのため、観測値が得られたとしても、人202の推定位置が存在しないため、相関値算出部108で相関値が計算できない。そこで、部屋201内に1人も人202が存在していない場合に限り、カメラ101の観測値が得られた場合には、入退物体判定部111が、前記観測値は、全て、部屋201内へ新規に進入してきた人202であると判定する。図19に、カメラ101のみの観測値が記録されている観測履歴データベース103の一例を示す。これは、図19の観測履歴データベース103は、タグリーダ102が機能していないことを示している。時刻2010:3:3:14:23:27:900に観測値(CAM_11)と観測値(CAM_12)とが得られた状況において、人202の推定位置は存在していないため、観測値(CAM_11)と観測値(CAM_12)が得られた2箇所の位置(観測位置)に、それぞれ部屋201内へ進入してきた人202(NONTAG_01とNONTAG_02)が存在すると入退物体判定部111によって判定できる。ここで、「NONTAG_01」及び「NONTAG_02)」とは、それぞれ、タグ203を所持していない人202のIDを意味している。詳細は後述するが、実際に、NONTAG_01とNONTAG_02の追加を判定するのは、入退物体判定部111である。時刻2010:3:3:14:23:28:000になると人202の推定位置が存在するため、上述した通り各人202の推定位置との相関値に基づき対応付けを行い、対応付けが行われなかった観測値を、部屋201内へ新規に進入してきた人202を観測して得られた観測値であると入退物体判定部111で判定することができる。
Here, a case where a
以上のことから、タグリーダ102の観測値が存在しない状況においても、動作は可能である。つまり、図1Aの構成図におけるタグリーダ102と入退タグ判定部104を省いた状況においても、本物体位置推定装置90は動作が可能ということである。
From the above, the operation is possible even in the situation where the observation value of the
<退去物体候補算出部の説明>
ステップS306の処理において、退去物体候補算出部110は、相関値算出部108での算出結果に基づき、部屋201内から退去した人202の候補を算出する。具体的な処理内容を、図9の観測履歴データベース103と図14の位置推定履歴データベース106と図15の相関値の例を用いて説明する。退去物体候補算出部110は、図1Dに示すように、第2推定位置数比較部110aと、退去物体候補数算出部110bと、退去物体判断部110cとを備える。第2推定位置数比較部110aは、観測装置毎の観測値数と物体の推定位置数を比較する。退去物体候補数算出部110bは、第2推定位置数比較部110aでの比較結果に基づき物体の推定位置数が観測値数よりも多かった場合、物体の推定位置数と観測値数の差分数を観測装置100が検出した退去物体候補数として算出する。退去物体判断部110cは、各物体の推定位置について、相関値の最大値が低い順に、退去物体候補数算出部110bで算出された退去物体候補数分だけ、物体が退去したと判断する。
<Description of the leaving object candidate calculation unit>
In the process of step S306, the leaving object
先ず、カメラ101の観測値数を、観測履歴データベース103から相関値算出部108を介して退去物体候補算出部110の第2推定位置数比較部110aが取得する。例えば、図9の観測履歴データベース103に示すように、時刻2010:3:3:14:23:29:900では、カメラ101は、2個の観測値(CAM_01,CAM_02)を取得している。これを、観測履歴データベース103から相関値算出部108を介して第2推定位置数比較部110aが取得する。
First, the number of observation values of the
次に、現在(物体位置推定処理、例えば、ステップS306の処理を行うとき)、推定中の人202の数を、位置推定履歴データベース106から相関値算出部108を介して第2推定位置数比較部110aで取得する。例えば、図14の位置推定履歴データベース106に示すように、時刻2010:3:3:14:23:28:000では、3人の人物(TAG_01,TAG_02,NONTAG_01)が部屋201内にいると推定されている。すなわち、ここでは、タグ203を所持している二人の人202(それらのIDは「TAG_01」,「」TAG_02)と、タグ203を所持していない一人の人202(IDは「NONTAG_01」)とが部屋201内にいると推定されている。
Next, the number of
このとき、退去物体候補算出部110の退去物体候補数算出部110bが、人202の数に対して、観測値数が1個少ないことを算出する。そして、退去物体候補数算出部110bが、部屋201内から人202が1人退去したことを判断する。
At this time, the leaving object candidate
退去物体候補数算出部110bが、人202の退去を判断すると、次に、退去物体候補算出部110の退去物体判断部110cが、観測値毎に最も相関値の高くなっている人202を検出して対応付ける。図16の相関値の例では、観測値CAM_06はTAG_01と退去物体判断部110cによって対応付けられ、観測値CAM_07はTAG_02と退去物体判断部110cによって対応付けられる。人202(NONTAG_01)は、どの観測値とも退去物体判断部110cで対応付けられていない。
When the moving object candidate
その後、退去物体判断部110cが、どの観測値とも対応付けられなかった人202(NONTAG_01)を、部屋201から退去した人202であると判定する。そして、退去物体候補算出部110の退去物体判断部110cが、前記人202(NONTAG_01)が部屋201から退去した可能性があることを入退判定部111に伝える。
Thereafter, the leaving
ここで、部屋201内から人202が全員退去した直後の場合について説明する。この場合、人202が全員部屋201から退去し、観測値が得られないため、相関値算出部108において相関値が計算できない。そこで、観測値が1個も取得できていない場合に限り、入退物体判定部111が、全ての人202を、部屋201から退去した人202であると判定する。
Here, a case immediately after all the
<入退物体判定部の説明>
ステップS307の処理において、入退判定部111は、進入物体候補算出部109及び退去物体候補算出部110が出力した結果を、位置推定履歴データベース106に記録する。
<Description of entry / exit object determination unit>
In the process of step S307, the entry /
例えば、図9の時刻2010:3:3:14:23:28:000において、部屋201に新規に進入した人202を観測して取得された観測値と判断された観測値CAM_005の情報を、進入物体候補算出部109から入退判定部111が受け取ったとする。
For example, at time 2010: 3: 3: 14: 23: 28: 00 in FIG. 9, information on the observation value CAM_005 determined to be an observation value obtained by observing a
すると、入退判定部111は、未だ位置推定履歴データベース106に記録されたことのない、タグ203を所持していない人202を表すIDを決定する。例えば、位置推定履歴データベース106を入退判定部111が参照し、未だ使用されていないIDを入退判定部111が算出して決定する。図9に示すように、時刻2010:3:3:14:23:27:900時点ではタグ203を所持していない人202を表すIDは記録されていないため、入退判定部111が、部屋201に新規に進入してきた人202を表すIDをNONTAG_01であると決定する。次回観測以降、入退判定部111が、タグ203を所持していない人202を表すIDを、NONTAG_02,NONTAG_03,・・・と決定することができる。
Then, the entry /
部屋201に進入してきた人202のIDが入退判定部111によって決定されると、前記IDの人202が、観測値CAM_005が観測された位置を平均位置とした、分散15cmのガウス分布に従い存在する可能性がある。そのため、入退判定部111が、前記IDの人202を位置推定履歴データベース106に記録する(図14参照)。
When the ID of the
図9に示すように、更に次の時刻2010:3:3:14:23:29:900において、部屋201から退去した人202(NONTAG_01)の情報を、入退判定部111が退去物体候補算出部110から受け取ったとする。
As shown in FIG. 9, at the next time 2010: 3: 3: 14: 23: 29: 900, the entry /
すると、入退判定部111は、NONTAG_01が示す人202は部屋201から退去したことを、位置推定履歴データベース106に記録する(例えば、図14に示すように、「−」の記号などを用いることで、人202が部屋201内に存在しないことを示すことができる)。
Then, the entry /
ここで、カメラ101には、人202の検出ミスと人202以外の物体を人202として検出してしまう過検出の問題がある。また、タグリーダ102にもタグ203の検出ミスの可能性が存在する。このような場合、進入物体候補検出部109から2回連続で同じ観測値(色特徴量等により同一人物を観測して得られたと判断できる観測値)が進入候補として挙がってきている場合にのみ、前記観測値を入退物体判定部111の処理に使用するなどとすることができる。また、同様に、退去物体候補検出部110から2回連続で同じ人202(例えば、NONTAG_01など)が退去候補として挙がってきている場合にのみ、前記人202を入退物体判定部111の処理に使用するとしても良い。
Here, the
ここで、カメラ101が2台設置されており、互いに重複する観測範囲を持っていた場合について説明する。この場合、上記の方法では、1台目のカメラと2台目のカメラが共に、人202の部屋201への進入を観測した場合、各カメラの観測値に基づいて進入物体数が2人となってしまう。そこで、カメラ101が、互いに重複する観測範囲を持っていた場合については、入退判定部111を図1Eに示すように、進入物体数算出部111aと、第1クラスタリング部111bと、ID尤度和算出部111cと、物体進入判定部111dとを備えるように構成する。
Here, a case where two
進入物体数算出部111aは、入退物体候補検出部92が観測装置毎に出力した進入物体候補数の平均値又は最大値を、進入物体数として算出する。
The approaching object
第1クラスタリング部111bは、進入物体候補検出部109が検出した全ての進入物体を、クラスタ数が、進入物体数算出部111aで算出された進入物体数となるように位置に関してクラスタリングする。
The
ID尤度和算出部111cは、第1クラスタリング部111bでクラスタリングしたクラスタに属する各進入物体の観測値に含まれるID尤度について、ID毎に和を算出する。
The ID likelihood
物体進入判定部111dは、ID尤度和算出部111cで算出されかつ推定位置が存在しない物体に対するID尤度の和の中で、ID尤度が最も値の高いIDの物体がクラスタの平均位置に進入したと判定する。
The object
以下、これらの構成要素の動作について説明する。 Hereinafter, the operation of these components will be described.
例えば、第1カメラ101Aが座標1〜10までを観測範囲とし、第2カメラ101Bが座標6〜15までを観測範囲としている場合を考える(説明を簡単にするため、1次元で説明を行う)。つまり、第1カメラ101Aのみが観測している範囲(1〜5)と、第1カメラ101Aと第2カメラ101Bとが互いに重複する観測範囲(6〜10)と、第2カメラ101Bのみが観測している範囲(11〜15)とが存在することとなる。
For example, consider a case in which the first camera 101A has an observation range from
このとき、先ず、各観測している範囲(観測範囲)内で観測された観測値と、対応する観測範囲内に存在すると推定されている人202との間でのみ、前記相関値を相関値算出部108で算出する。そして、相関値算出部108で算出された前記相関値に基づいて、進入物体候補算出部109と退去物体候補算出部110とで、部屋201への進入物体と部屋201からの退去物体をそれぞれ判定する。
At this time, first, the correlation value is calculated only between the observed value observed in each observed range (observed range) and the
前記重複する観測範囲における部屋201への進入物体の判定方法について説明する。
A method for determining an object entering the
前記重複する観測範囲で取得されている観測値に対して、各カメラ101A,101Bが取得した観測値に基づいて判定された、進入物体候補数の平均値を入退判定部111の進入物体数算出部111aで算出する。例えば、第1カメラ101Aの観測値によって2個の進入物体候補が出力され、第2カメラ101Bの観測値によって4個の進入物体候補が出力された場合、進入物体数算出部111aにより、進入物体候補数の平均値は3個(=(2+4)/2)となる。このとき、重複する観測範囲において、進入物体を観測して得られたものであると判定された観測値は合計で6個(=(2+4))ある。この6個の観測値を、位置に関して3個のクラスタになるようにクラスタリングを入退判定部111の第1クラスタリング部111bで行う。そして、第1クラスタリング部111bでのクラスタリング終了後、各クラスタに属する観測値の重心位置を進入物体の存在する位置として入退判定部111のID尤度和算出部111cで算出して、入退判定部111の物体進入判定部111dで判定する。ここで、進入物体候補数の平均値を用いる理由は、第1(第2)カメラ101A(101B)の検出ミスと過検出との可能性を考慮したためである。
The average number of approaching object candidates determined based on the observation values acquired by the cameras 101A and 101B with respect to the observation values acquired in the overlapping observation range is the number of entering objects of the entrance /
前記重複する観測範囲における、部屋201からの退去物体の判定方法について説明する。退去物体候補算出部110が、第1カメラ101Aと第2カメラ101Bの両観測値において、同じ人202を示すIDを退去候補物体として出力した場合に、前記IDが示す人202を退去物体であると判断する。また、部屋201内に3台以上のカメラ101が設置されていた場合、退去物体候補算出部110が、各カメラ観測値の過半数において、同じ人202を示すIDを退去候補物体として出力した場合に、前記IDが示す人202を退去物体であると判断しても良い。
A method for determining an object that has left the
前記重複する観測範囲以外における部屋201への進入物体の判定、及び部屋201からの退去物体の判定方法に関しては、カメラが1台のケースにおいて説明した方法と同じで良い。
The method for determining an object entering the
<物体位置推定部の説明>
ステップS308の処理において、物体位置推定部105は、位置推定履歴データベース106に記録された情報を基に、部屋201内に存在する人202の位置の推定を行う。
<Description of the object position estimation unit>
In the process of step S308, the object
具体的には、どの人202を見て得られた観測値なのかを決定するアソシエーション問題を物体位置推定部105が解き、人202の位置の更新に使用する観測値を物体位置推定部105が決定する。その後、カルマンフィルタなどに代表されるベイズフィルタリングの処理を物体位置推定部105で行うことによって、物体位置推定部105が人202の位置の推定(更新)を行うこととなる。
Specifically, the
アソシエーション問題の解法であるが、まず、エビデンス値を物体位置推定部105にて算出する。尚、エビデンス値とは、上述した相関値と同等である(説明の便宜上、用語を使い分けているだけである)。次に、算出したエビデンス値を(各観測値について、全てのIDへのエビデンス値の和が1となるように)正規化しアソシエーション値を物体位置推定部105にて得る。そして、各人202について、アソシエーション値が最大となる観測値のみを物体位置推定部105にて使用し、物体位置推定部105がカルマンフィルタなどにより位置の推定を行う。尚、これは、位置の推定に利用する観測値を決定する一例であり、本発明はこれに限るものではない。例えば、使用する観測値は、アソシエーション値が閾値以上となる観測値としても良い。また、観測値は全て使用し、位置の推定を行う際にアソシエーション値で位置の更新量に重みを付ける様にしても良い。アソシエーション値による重み付け方法に関しては後述する。
As a method for solving the association problem, first, an evidence value is calculated by the object
以下に、カルマンフィルタについての説明を行う。 Hereinafter, the Kalman filter will be described.
カルマンフィルタとは、物体位置推定システムの状態(本発明の第1実施形態においては、例えば、物体の位置)の情報、及び、カメラ101の観測値の双方にノイズが含まれるという仮定の基に、尤もらしい物体位置推定システム90の状態を物体位置推定部105によって推定するものである。
The Kalman filter is based on the assumption that both the information of the state of the object position estimation system (for example, the position of the object in the first embodiment of the present invention) and the observation value of the
図17に、物体位置推定処理にカルマンフィルタを利用した例を示す。縦軸は確率、横軸は物体の位置を表す。 FIG. 17 shows an example in which a Kalman filter is used for object position estimation processing. The vertical axis represents the probability, and the horizontal axis represents the position of the object.
物体が(式2)に表されるような移動を行うとき、カメラ101は、(式3)で求められる観測値1703を得ることができる。ここで、Aは物体の運動モデル、xは物体の物体位置、vは移動の際に生じるプロセスノイズを表している。また、yは観測値、Hは物体位置xと観測値yを対応付ける観測モデル、wは観測ノイズ、tは時間を表している。よって、Atは時間tでの物体の運動モデル、xt、xt−1はそれぞれ時間t及び時間t−1での物体位置、vtは時間tでの、移動の際に生じるプロセスノイズを表している。また、ytは時間tでの観測値、Htは時間tでの物体位置xtと観測値ytを対応付ける観測モデル、wtは時間tでの観測ノイズである。
When the object moves as represented by (Expression 2), the
ここで、プロセスノイズv及び観測ノイズwは、白色ガウスノイズとすると、p(w)は(式4)のように表されるとともに、p(v)は(式5)のように表される。尚、N(0,Q)は、平均0、分散Qのガウス分布を表している。N(0,R)も同様に、平均0、分散Rのガウス分布を表している。 Here, when the process noise v and the observation noise w are white Gaussian noises, p (w) is expressed as (Equation 4) and p (v) is expressed as (Equation 5). . N (0, Q) represents a Gaussian distribution with an average of 0 and a variance of Q. N (0, R) similarly represents a Gaussian distribution with an average of 0 and a variance of R.
観測値1703が得られると、現在(物体位置推定処理を行うとき)、得られている物体の位置に関する事前確率分布1701(以後、「事前分布」と呼ぶ。)を物体位置推定部105で更新し、予測確率分布1702(以後、「予測分布」と呼ぶ。)を物体位置推定部105で作成する。(式6)で予測分布1702の平均(位置)を物体位置推定部105で求め、(式7)で予測分布902の分散を物体位置推定部105で求めることができる。尚、xa|bは時刻bの情報を基にした時刻aのxの推定値を表す。例えば、(式6)の「xt|t−1」は時刻t−1の情報を基にした時刻tの物体位置xの推定値を表しており、(式7)の「Pdt|t−1」は時刻t−1の情報を基にした時刻tのPdの推定値を表している。また、「Pdt−1|t−1」は時刻t−1の情報を基にした時刻t−1のPdの推定値を表している。ここで、Pdは分布の分散を表している。Qtは時刻tの分散を表している。
When the
予測分布1702が物体位置推定部105で得られると、観測値1703と予測分布1702とから事後分布1704を物体位置推定部105で求める。(式8)で事後分布の平均(位置)を物体位置推定部105で求め、(式9)で事後分布の分散を物体位置推定部105で求めることができる。ここで、Kはカルマンゲインと呼ばれる値であり、(式10)にて物体位置推定部105で求められる。カルマンゲインは更新量を決定する値である。観測値の精度が良い(分散Rが非常に小さい)場合には、更新量を大きくするため、カルマンゲインの値は大きくなる。逆に、事前分布の精度が良い(分散Pdが非常に小さい)場合には、更新量を小さくするため、カルマンゲインの値は小さくなる。(式8)のKtは時刻tのカルマンゲインを表している。「xt|t」は時刻tの情報を基にした時刻tの物体位置xの推定値を表している。(式9)の「Pdt|t」は時刻tの情報を基にした時刻tの分布の分散Pdの推定値を表している。Rtは時刻tの分散Rを表している。
When the predicted
尚、アソシエーション値で人202の位置の更新量に重み付けを行う場合、(式10)を以下の(式11)に物体位置推定部105で置き換えれば良い。D人202は人202に対するアソシエーション値を表す。
When weighting the update amount of the position of the
尚、全ての観測値を用いて人202の位置を更新するには、前記処理を観測値の数だけ繰り返す必要がある。
In order to update the position of the
以上のように、物体位置推定部105によって得られた人202の位置の推定結果を、位置推定履歴データベース106に記録する。図14に物体位置推定部105の推定結果の例を示す。
As described above, the estimation result of the position of the
図18に、本発明の前記実施形態にかかる物体位置推定装置90を用いた監視システムの表示装置(例えば、モニターなどのディスプレイなど)95が映し出した人202の移動軌跡の例を示す。前記移動軌跡毎に人202を示すID(すなわち、TAG_01,TAG_02,NONTAG_01,NONTAG_02)が付与されている。また、前記ID(すなわち、TAG_01,TAG_02,NONTAG_01,NONTAG_02)が示す人202が観測装置100の観測範囲内のどの位置から進入し、どのような軌跡を辿り、現在(物体位置推処理を行うとき)、どの位置に存在するのかが目視で確認可能となっている。表示する軌跡は、現在(物体位置推処理を行うとき)、観測範囲内に存在すると推定されている人202の軌跡のみを表示しても良いし、ユーザが指定したIDの軌跡のみでも良い。更に、時間を指定することによって、過去観測範囲内に存在していた人202の軌跡を表示させても良い。
FIG. 18 shows an example of the movement trajectory of the
特に、この図18では、NONTAG_01,NONTAG_02のIDをそれぞれ有しかつタグを所持していない人202、言い換えれば、不審者とみなしうる人が、観測装置100の観測範囲内のどの位置から進入し、どのような軌跡を辿り、現在(物体位置推処理を行うとき)、どの位置に存在するのかが目視で確認可能となっている。これにより、不審者(タグを所持していない人物)の検知、及びその逃走経路の推定などを容易に行うことができる。
In particular, in FIG. 18, a
もちろん、本発明としては、表示装置95に代えて、又は、表示装置95に加えて、必要な装置に対して前記物体位置推定結果の情報を出力可能な出力装置96を備えるようにしてもよい。
Of course, the present invention may include an
前記実施形態又は変形例において、物体位置推定の対象となる物体は、人物にか限定されるものではなく、動物又は物品でもよい。 In the embodiment or the modified example, the object for which the object position is to be estimated is not limited to a person but may be an animal or an article.
なお、前記様々な実施形態のうちの任意の実施形態を適宜組み合わせることにより、それぞれの有する効果を奏するようにすることができる。 It is to be noted that, by appropriately combining any of the various embodiments, the effects possessed by them can be produced.
本発明に係る物体位置推定システム、物体位置推定方法、及び物体位置推定プログラムは、タグを所持していない人物のセンシング範囲内への進入、追跡、及び退去までを推定することができる。よって、進入者に予めタグを付与しておくことが困難な店舗内での顧客の動線管理、又は、オフィスなどにおける不審者(タグを所持していない人物)の検知、及びその逃走経路の推定などに関して特に有用である。 The object position estimation system, the object position estimation method, and the object position estimation program according to the present invention can estimate until a person who does not have a tag enters, tracks, and leaves a sensing range. Therefore, it is difficult to give a tag to an ingress person in advance, the flow management of a customer in the store, or the detection of a suspicious person (person who does not have a tag) in an office, etc. and its escape route This is particularly useful for estimation.
90 物体位置推定装置
91 物体位置推定処理部
92 入退物体候補検出部
95 表示装置
96 出力装置
100 観測装置
101 カメラ
101b 画像処理部
101c ID識別処理部
101cb 比較部
101cd 算出部
101ce 追跡成功確率取得部
101cf データアソシエーション値取得部
101cg ID尤度割振部
101ch 加算部
101S 記憶部(カメラの内部記憶部)
102 Ultra Wide Band タグリーダ
103 観測履歴データベース
104 入退タグ判定部
105 物体位置推定部
106 位置推定履歴データベース
107 位置尤度算出部
108 相関値算出部
109 進入物体候補検出部
110 退去物体候補検出部
111 入退物体判定部
201 部屋
202 人
202A 人(タグ所持人物1)
202B 人(タグ所持人物2)
202C 人(タグ未所持人物1)
203 タグ
203A タグ(タグ所持人物1所持)
203B タグ(タグ所持人物2所持)
204A ドア(1)
204B ドア(2)
204C ドア(3)
1701 事前分布
1702 予測分布
1703 観測値
1704 事後分布
90 object
102 Ultra Wide
202B (person with tag 2)
202C people (tag not possessed person 1)
203
203B tag (with 2 tag holders)
204A Door (1)
204B Door (2)
204C Door (3)
1701
Claims (11)
前記各物体の推定位置と観測位置とに基づいて、前記各観測値の前記各物体に対する位置の尤度情報を算出する位置尤度算出部と、
前記IDの尤度情報と位置の尤度情報とに基づいて、前記観測値と前記各物体の推定位置との相関値を算出する相関値算出部と、
前記相関値に基づいて、前記観測装置の観測範囲内に進入した物体又は前記観測範囲内から退去した物体の候補を検出する入退物体候補検出部と、
前記入退物体候補検出部の出力結果に基づいて、前記観測装置の前記観測範囲内に進入した物体又は前記観測装置の前記観測範囲内から退去した物体を判定する入退物体判定部と、
前記入退物体判定部の判定結果に基づき、前記各物体の推定位置及びIDの尤度情報及び位置の尤度情報に基づいて、前記観測値が得られた時刻における前記各物体の位置における存在確率を前記各物体の推定位置として算出する物体位置推定部と、
を備えることを特徴とする物体位置推定システム。 An observation device that observes a plurality of objects existing in the environment, and outputs the observation position of each of the plurality of objects and the likelihood information of the ID for each object as an observation value;
A position likelihood calculating unit that calculates likelihood information of the position of each observation value with respect to each object based on the estimated position and the observation position of each object;
A correlation value calculation unit that calculates a correlation value between the observed value and the estimated position of each object based on the likelihood information of the ID and the likelihood information of the position;
Based on the correlation value, an entry / exit object candidate detection unit that detects a candidate for an object that has entered the observation range of the observation apparatus or an object that has left the observation range;
Based on the output result of the entry / exit object candidate detection unit, an entry / exit object determination unit that determines an object that has entered the observation range of the observation device or an object that has left the observation range of the observation device;
Based on the determination result of the entry / exit object determination unit, based on the estimated position of each object, the likelihood information of the ID, and the likelihood information of the position, the presence at the position of each object at the time when the observed value was obtained An object position estimating unit that calculates a probability as an estimated position of each object;
An object position estimation system comprising:
前記相関値に基づいて、前記観測装置の観測範囲内に進入した物体の候補を検出する進入物体候補検出部と、
前記相関値に基づいて、前記観測装置の観測範囲内から退去した物体の候補を検出する退去物体候補検出部と、
を備えている、請求項1に記載の物体位置推定システム。 The entry / exit object candidate detection unit includes:
Based on the correlation value, an approaching object candidate detection unit that detects a candidate for an object that has entered the observation range of the observation device;
Based on the correlation value, a retreated object candidate detection unit that detects a candidate for a retreated object from within the observation range of the observation device;
The object position estimation system according to claim 1, comprising:
前記各物体の推定位置の算出結果を、前記各物体が観測された時刻と共に記録する位置推定履歴データベースと、
をさらに備えている、請求項1又は2に記載の物体位置推定システム。 An observation history database that records the observed values together with the time at which each object was observed;
A position estimation history database that records the calculation result of the estimated position of each object together with the time when each object was observed;
The object position estimation system according to claim 1 or 2, further comprising:
前記進入物体候補検出部は、
前記観測装置毎の観測値数と物体の推定位置数とを比較する第1推定位置数比較部と、
前記第1推定位置数比較部での比較結果に基づき前記観測値数が前記物体の推定位置数よりも多かった場合、前記観測値数と前記物体の推定位置数の差分数を前記観測装置が検出した進入物体候補数として算出する進入物体候補数算出部と、
各観測値について、相関値の最大値が低い順に、前記進入物体候補数算出部で算出された前記進入物体候補数分だけ、前記観測値の観測位置に進入物体を検出したと判断する進入物体判断部とを備えるとともに、
前記退去物体候補検出部は、
前記観測装置毎の観測値数と物体の推定位置数を比較する第2推定位置数比較部と、
前記第2推定位置数比較部での比較結果に基づき前記物体の推定位置数が前記観測値数よりも多かった場合、前記物体の推定位置数と前記観測値数の差分数を前記観測装置が検出した退去物体候補数として算出する退去物体候補数算出部と、
各物体の推定位置について、相関値の最大値が低い順に、前記退去物体候補数算出部で算出された前記退去物体候補数分だけ、前記物体が退去したと判断する退去物体判断部とを備えることを特徴とする請求項2に記載の物体位置推定システム。 A plurality of the observation devices are provided,
The approaching object candidate detection unit is
A first estimated position number comparison unit that compares the number of observed values for each observation device with the estimated number of positions of an object;
When the number of observed values is larger than the number of estimated positions of the object based on the comparison result in the first estimated position number comparing unit, the observation device determines the difference number between the number of observed values and the estimated number of positions of the object. An approaching object candidate number calculating unit that calculates the number of detected approaching object candidates;
For each observation value, an approaching object that determines that an approaching object has been detected at the observation position of the observation value by the number of approaching object candidate counts calculated by the approaching object candidate number calculation unit in order of increasing correlation value. A determination unit, and
The leaving object candidate detection unit
A second estimated position number comparison unit that compares the number of observation values for each observation device with the estimated number of positions of the object;
When the number of estimated positions of the object is larger than the number of observed values based on the comparison result in the second estimated position number comparing unit, the observation device calculates the difference number between the estimated position number of the object and the number of observed values. A retreat object candidate number calculation unit that calculates the number of detected retirement object candidates;
For each estimated position of each object, a retired object determining unit that determines that the object has retreated by the number of retired object candidates calculated by the retired object candidate number calculating unit in descending order of the maximum correlation value. The object position estimation system according to claim 2.
少なくとも別の一つ以上の観測装置がタグリーダで構成され、
更に、前記タグリーダの観測値及び前記各物体の推定位置に基づいてタグ有物体の入退を判定し、判定結果を前記位置推定履歴データベースに記録する入退タグ判定部を備え、
前記相関値算出部及び前記入退物体候補検出部検出部及び入退物体判定部は、前記カメラが出力した観測値と、以前に前記入退物体判定部によって進入したと判断された物体の推定位置のみを用いることを特徴とする請求項1〜4のいずれか1つに記載の物体位置推定システム。 At least one observation device is composed of a camera,
At least one other observation device is composed of a tag reader,
Further, it includes an entry / exit tag determination unit that determines entry / exit of a tagged object based on the observation value of the tag reader and the estimated position of each object, and records the determination result in the position estimation history database,
The correlation value calculation unit, the entry / exit object candidate detection unit detection unit, and the entry / exit object determination unit estimate the observation value output by the camera and the object previously determined to have entered by the entry / exit object determination unit. The object position estimation system according to any one of claims 1 to 4, wherein only the position is used.
前記入退物体候補検出部が前記観測装置毎に出力した進入物体候補数の平均値又は最大値を、進入物体数として算出する進入物体数算出部と、
前記進入物体候補検出部が検出した全ての進入物体を、クラスタ数が、前記進入物体数算出部で算出された前記進入物体数となるように位置に関してクラスタリングする第1クラスタリング部と、
前記第1クラスタリング部でクラスタリングしたクラスタに属する各進入物体の観測値に含まれるID尤度について、ID毎に和を算出するID尤度和算出部と、
前記ID尤度和算出部で算出されかつ推定位置が存在しない物体に対するID尤度の和の中で、ID尤度が最も値の高いIDの物体が前記クラスタの平均位置に進入したと判定する物体進入判定部と、
前記入退物体候補検出部が前記観測装置毎に出力した退去物体候補数の平均値又は最大値を、退去物体数として算出する退去物体数算出部と、
前記退去物体候補検出部が検出した全ての退去物体を、クラスタ数が、前記退去物体数算出部で算出された前記退去物体数となるように位置に関してクラスタリングする第2クラスタリング部と、
前記第2クラスタリング部でクラスタリングした各クラスタの平均位置に退去物体が存在すると判定する退去物体存在判定部と
を備えることを特徴とする請求項1〜3の何れか1つに記載の物体位置推定システム。 The entry / exit object determination unit includes:
An entering object number calculating unit for calculating an average value or a maximum value of the number of entering object candidates output by the entry / exit object candidate detecting unit for each observation device;
A first clustering unit that clusters all the entering objects detected by the entering object candidate detecting unit with respect to positions such that the number of clusters is the number of entering objects calculated by the entering object number calculating unit;
An ID likelihood sum calculating unit that calculates a sum for each ID for the ID likelihood included in the observed values of the approaching objects belonging to the cluster clustered by the first clustering unit;
It is determined that the ID object having the highest ID likelihood has entered the average position of the cluster among the sums of ID likelihoods for the object that is calculated by the ID likelihood sum calculation unit and has no estimated position. An object entry determination unit;
A moving object number calculating unit for calculating an average value or a maximum value of the number of moving object candidates output for each observation device by the moving object candidate detecting unit;
A second clustering unit that clusters all the leaving objects detected by the leaving object candidate detection unit with respect to positions such that the number of clusters is the number of leaving objects calculated by the leaving object number calculation unit;
The object position estimation according to any one of claims 1 to 3, further comprising a leaving object presence determination unit that determines that a leaving object exists at an average position of each cluster clustered by the second clustering unit. system.
前記カメラから前記観測値としてとして出力する各物体に対するIDの尤度情報には、前記観測履歴データベースに記録された前記観測履歴に含まれている物体の他に、前記観測履歴に含まれていない物体のIDの尤度情報が含められていることを特徴とする請求項3に記載の物体位置推定システム。 At least one observation device is composed of a camera,
The likelihood information of the ID for each object output as the observation value from the camera is not included in the observation history in addition to the object included in the observation history recorded in the observation history database. The object position estimation system according to claim 3, wherein likelihood information of an object ID is included.
位置尤度算出部により前記各物体の推定位置と観測位置とに基づいて、前記各観測値の前記各物体に対する位置の尤度情報を算出し、
相関値算出部により、前記IDの尤度情報と位置の尤度情報とに基づいて、前記観測値と前記各物体の推定位置との相関値を算出し、
入退物体候補検出部により、前記相関値に基づいて、前記観測装置の観測範囲内に進入した物体又は前記観測範囲内から退去した物体の候補を検出し、
入退物体判定部により、前記入退物体候補検出部の出力結果に基づいて、前記観測装置の前記観測範囲内に進入した物体又は前記観測装置の前記観測範囲内から退去した物体を判定し、
物体位置推定部により、前記入退物体判定部の判定結果に基づき、前記各物体の推定位置及びIDの尤度情報及び位置の尤度情報に基づいて、前記観測値が得られた時刻における前記各物体の位置における存在確率を前記各物体の推定位置として算出することを特徴とする物体位置推定方法。 After observing a plurality of objects existing in the environment with an observation device and obtaining the observation position of each of the plurality of objects and ID likelihood information for each object as observation values,
Based on the estimated position and the observed position of each object by the position likelihood calculating unit, the position likelihood information for each object of each observed value is calculated,
A correlation value calculation unit calculates a correlation value between the observed value and the estimated position of each object based on the likelihood information of the ID and the likelihood information of the position,
Based on the correlation value, the entry / exit object candidate detection unit detects an object that has entered the observation range of the observation apparatus or an object candidate that has left the observation range,
Based on the output result of the entry / exit object candidate detection unit, the entry / exit object determination unit determines an object that has entered the observation range of the observation device or an object that has left the observation range of the observation device,
The object position estimation unit, based on the determination result of the entry / exit object determination unit, the estimated position of each object and the likelihood information of the ID and the likelihood information of the position at the time when the observed value was obtained An object position estimation method, wherein the existence probability at the position of each object is calculated as an estimated position of each object.
環境内に存在する複数の物体を観測装置でそれぞれ観測して前記複数の物体のそれぞれの物体の観測位置及び各物体に対するIDの尤度情報を、観測値として取得したのち、
位置尤度算出部により前記各物体の推定位置と観測位置とに基づいて、前記各観測値の前記各物体に対する位置の尤度情報を算出する機能と、
相関値算出部により、前記IDの尤度情報と位置の尤度情報とに基づいて、前記観測値と前記各物体の推定位置との相関値を算出する機能と、
入退物体候補検出部により、前記相関値に基づいて、前記観測装置の観測範囲内に進入した物体又は前記観測範囲内から退去した物体の候補を検出する機能と、
入退物体判定部により、前記入退物体候補検出部の出力結果に基づいて、前記観測装置の前記観測範囲内に進入した物体又は前記観測装置の前記観測範囲内から退去した物体を判定する機能と、
物体位置推定部により、前記入退物体判定部の判定結果に基づき、前記各物体の推定位置及びIDの尤度情報及び位置の尤度情報に基づいて、前記観測値が得られた時刻における前記各物体の位置における存在確率を前記各物体の推定位置として算出する機能と、
を実現させるための物体位置推定プログラム。 On the computer,
After observing a plurality of objects existing in the environment with an observation device and obtaining the observation position of each of the plurality of objects and ID likelihood information for each object as observation values,
A function for calculating position likelihood information of each observation value for each object based on the estimated position and observation position of each object by a position likelihood calculating unit;
A function for calculating a correlation value between the observed value and the estimated position of each object based on the likelihood information of the ID and the likelihood information of the position by a correlation value calculating unit;
Based on the correlation value, an entry / exit object candidate detection unit detects a candidate for an object that has entered the observation range of the observation device or an object that has left the observation range;
Function for determining an object that has entered the observation range of the observation device or an object that has left the observation range of the observation device based on the output result of the entry / exit object candidate detection unit by the entry / exit object determination unit When,
The object position estimation unit, based on the determination result of the entry / exit object determination unit, the estimated position of each object and the likelihood information of the ID and the likelihood information of the position at the time when the observed value was obtained A function of calculating the existence probability at the position of each object as the estimated position of each object;
Object position estimation program to realize.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010223500A JP2013253779A (en) | 2010-10-01 | 2010-10-01 | Article position estimation system, article position estimation method, and article position estimation program |
PCT/JP2011/005452 WO2012042864A1 (en) | 2010-10-01 | 2011-09-28 | Object location estimation system, object location estimation device, object location estimation method, and object location estimation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010223500A JP2013253779A (en) | 2010-10-01 | 2010-10-01 | Article position estimation system, article position estimation method, and article position estimation program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013253779A true JP2013253779A (en) | 2013-12-19 |
Family
ID=45892353
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010223500A Pending JP2013253779A (en) | 2010-10-01 | 2010-10-01 | Article position estimation system, article position estimation method, and article position estimation program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2013253779A (en) |
WO (1) | WO2012042864A1 (en) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005250692A (en) * | 2004-03-02 | 2005-09-15 | Softopia Japan Foundation | Method for identifying object, method for identifying mobile object, program for identifying object, program for identifying mobile object, medium for recording program for identifying object, and medium for recording program for identifying traveling object |
WO2007074671A1 (en) * | 2005-12-28 | 2007-07-05 | Matsushita Electric Industrial Co., Ltd. | Object detecting device, object detecting method and object detecting computer program |
JP2010118039A (en) * | 2008-10-16 | 2010-05-27 | Mitsubishi Electric Corp | Mobile object detector |
JP2010123069A (en) * | 2008-11-21 | 2010-06-03 | Panasonic Corp | Sensing data retrieval device and retrieval image creation method |
WO2010103584A1 (en) * | 2009-03-09 | 2010-09-16 | パナソニック株式会社 | Device for detecting entry and/or exit monitoring device, and method for detecting entry and/or exit |
-
2010
- 2010-10-01 JP JP2010223500A patent/JP2013253779A/en active Pending
-
2011
- 2011-09-28 WO PCT/JP2011/005452 patent/WO2012042864A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2012042864A1 (en) | 2012-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4852765B2 (en) | Estimating connection relationship between distributed cameras and connection relationship estimation program | |
WO2018116488A1 (en) | Analysis server, monitoring system, monitoring method, and program | |
US7139409B2 (en) | Real-time crowd density estimation from video | |
US20180300887A1 (en) | System and process for detecting, tracking and counting human objects of interest | |
JP4709943B2 (en) | Object position estimation system, object position estimation apparatus, object position estimation method, and object position estimation program | |
US8149278B2 (en) | System and method for modeling movement of objects using probabilistic graphs obtained from surveillance data | |
US7127083B2 (en) | Video surveillance system with object detection and probability scoring based on object class | |
US7148912B2 (en) | Video surveillance system in which trajectory hypothesis spawning allows for trajectory splitting and/or merging | |
US20050104727A1 (en) | Video surveillance system that detects predefined behaviors based on movement through zone patterns | |
JP5147036B2 (en) | POSITION ESTIMATION DEVICE, POSITION ESTIMATION METHOD, AND POSITION ESTIMATION PROGRAM | |
JP2010191620A (en) | Method and system for detecting suspicious person | |
Papaioannou et al. | Tracking people in highly dynamic industrial environments | |
AU2015203666A1 (en) | Methods and systems for controlling a camera to perform a task | |
CN112150514A (en) | Pedestrian trajectory tracking method, device and equipment of video and storage medium | |
US20050105764A1 (en) | Video surveillance system with connection probability computation that is a function of object size | |
US20050104959A1 (en) | Video surveillance system with trajectory hypothesis scoring based on at least one non-spatial parameter | |
Papaioannou et al. | Accurate positioning via cross-modality training | |
KR102519151B1 (en) | Moving line tracking system and method for arrival hall of liability to crime travelers | |
JP5718632B2 (en) | Part recognition device, part recognition method, and part recognition program | |
KR101446422B1 (en) | Video security system and method | |
US20190122228A1 (en) | Examination device | |
JP4985742B2 (en) | Imaging system, method and program | |
WO2012042864A1 (en) | Object location estimation system, object location estimation device, object location estimation method, and object location estimation program | |
Patel et al. | Vehicle tracking and monitoring in surveillance video | |
JP6558178B2 (en) | Nuisance agent estimation system, control method and control program for nuisance agent estimation system |