JP2013253779A - Article position estimation system, article position estimation method, and article position estimation program - Google Patents

Article position estimation system, article position estimation method, and article position estimation program Download PDF

Info

Publication number
JP2013253779A
JP2013253779A JP2010223500A JP2010223500A JP2013253779A JP 2013253779 A JP2013253779 A JP 2013253779A JP 2010223500 A JP2010223500 A JP 2010223500A JP 2010223500 A JP2010223500 A JP 2010223500A JP 2013253779 A JP2013253779 A JP 2013253779A
Authority
JP
Japan
Prior art keywords
observation
unit
value
entry
exit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010223500A
Other languages
Japanese (ja)
Inventor
Toru Tanigawa
徹 谷川
Katsuyoshi Yamagami
勝義 山上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2010223500A priority Critical patent/JP2013253779A/en
Priority to PCT/JP2011/005452 priority patent/WO2012042864A1/en
Publication of JP2013253779A publication Critical patent/JP2013253779A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an article position estimation system capable of determining an entry position, a current position or an exit position of a person having no tag in a case where there exist plurality of such persons.SOLUTION: An article position estimation system includes: a camera 101 and a tag reader 102 as observation devices for obtaining an observation value by detecting an observation-target article existing in an environment; a positional likelihood calculation part 104 for calculating a positional likelihood of each observation value being the article; an article position estimation part 105 for estimating the position of the article; a correlation value calculation part 107 for calculating a correlation value between an observation value and the article; an entry/exit article candidate detection part 92 for detecting an article candidate that has entered into or exited from an observation zone for each observation device; and an entry/exit article determination part 110 for determining an article that has entered into or exited from the environment.

Description

本発明は、センサなどの観測装置の観測範囲内に存在する人物又は動物などの物体の位置を推定する物体位置推定システム、物体位置推定方法、及び物体位置推定プログラムに関する。   The present invention relates to an object position estimation system, an object position estimation method, and an object position estimation program that estimate the position of an object such as a person or an animal that exists within an observation range of an observation device such as a sensor.

従来、物体の位置を検出する技術として、タグリーダ(RFID測位装置)とカメラ(防犯カメラ)の測位データを比較(重ね合わせ)し、タグリーダとカメラの両測位データが揃っている箇所にはタグを所持した人物が存在し、カメラの測位データしか無い箇所にはタグを所持していない不審者がいると判断しているものがあった(特許文献1参照)。   Conventionally, as a technology for detecting the position of an object, the positioning data of a tag reader (RFID positioning device) and a camera (security camera) are compared (overlapped), and a tag is attached to a location where both the positioning data of the tag reader and the camera are aligned. There is a person who possesses a person and judges that there is a suspicious person who does not have a tag at a place where only the positioning data of the camera is present (see Patent Document 1).

特開2006−311111号公報JP 2006-311111 A

しかしながら、特許文献1では、カメラは、検出した人物の追跡機能及びID識別機能を持たないため、タグを所持していない不審者が複数人存在した場合、前記不審者がどの位置から侵入し、どのような軌跡を辿って、どの位置から退去して行ったのかを判断できないという課題を有していた。   However, in Patent Document 1, since the camera does not have a function of tracking a detected person and an ID identification function, when there are a plurality of suspicious persons who do not have a tag, from which position the suspicious person enters, There was a problem that it was impossible to determine what kind of trajectory was traced and from which position the car left.

そこで、本発明は、前記課題を解決するもので、タグを所持していない人物が複数人存在した場合においても、前記各人物の進入位置もしくは現在(物体位置推定処理を行うときの)位置もしくは退去位置を判定することのできる物体位置推定システム、物体位置推定方法、及び物体位置推定プログラムを提供することを目的とする。   Therefore, the present invention solves the above-described problem, and even when there are a plurality of persons who do not have a tag, the position of each person or the current position (when the object position estimation process is performed) An object of the present invention is to provide an object position estimation system, an object position estimation method, and an object position estimation program capable of determining a leaving position.

前記目的を達成するために、本発明は以下のように構成する。   In order to achieve the above object, the present invention is configured as follows.

本発明の第1態様によれば、環境内に存在する複数の物体を観測し、前記複数の物体のそれぞれの物体の観測位置及び各物体に対するIDの尤度情報を、観測値として出力する観測装置と、
前記各物体の推定位置と観測位置とに基づいて、前記各観測値の前記各物体に対する位置の尤度情報を算出する位置尤度算出部と、
前記IDの尤度情報と位置の尤度情報とに基づいて、前記観測値と前記各物体の推定位置との相関値を算出する相関値算出部と、
前記相関値に基づいて、前記観測装置の観測範囲内に進入した物体又は前記観測範囲内から退去した物体の候補を検出する入退物体候補検出部と、
前記入退物体候補検出部の出力結果に基づいて、前記観測装置の前記観測範囲内に進入した物体又は前記観測装置の前記観測範囲内から退去した物体を判定する入退物体判定部と、
前記入退物体判定部の判定結果に基づき、前記各物体の推定位置及びIDの尤度情報及び位置の尤度情報に基づいて、前記観測値が得られた時刻における前記各物体の位置における存在確率を前記各物体の推定位置として算出する物体位置推定部と、
を備えることを特徴とする物体位置推定システムを提供する。
According to the first aspect of the present invention, the observation is performed by observing a plurality of objects existing in the environment, and outputting the observation position of each of the plurality of objects and the likelihood information of the ID for each object as an observation value. Equipment,
A position likelihood calculating unit that calculates likelihood information of the position of each observation value with respect to each object based on the estimated position and the observation position of each object;
A correlation value calculation unit that calculates a correlation value between the observed value and the estimated position of each object based on the likelihood information of the ID and the likelihood information of the position;
Based on the correlation value, an entry / exit object candidate detection unit that detects a candidate for an object that has entered the observation range of the observation apparatus or an object that has left the observation range;
Based on the output result of the entry / exit object candidate detection unit, an entry / exit object determination unit that determines an object that has entered the observation range of the observation device or an object that has left the observation range of the observation device;
Based on the determination result of the entry / exit object determination unit, based on the estimated position of each object, the likelihood information of the ID, and the likelihood information of the position, the presence at the position of each object at the time when the observed value was obtained An object position estimating unit that calculates a probability as an estimated position of each object;
An object position estimation system is provided.

本発明の第10態様によれば、環境内に存在する複数の物体を観測装置でそれぞれ観測して前記複数の物体のそれぞれの物体の観測位置及び各物体に対するIDの尤度情報を、観測値として取得したのち、
位置尤度算出部により前記各物体の推定位置と観測位置とに基づいて、前記各観測値の前記各物体に対する位置の尤度情報を算出し、
相関値算出部により、前記IDの尤度情報と位置の尤度情報とに基づいて、前記観測値と前記各物体の推定位置との相関値を算出し、
入退物体候補検出部により、前記相関値に基づいて、前記観測装置の観測範囲内に進入した物体又は前記観測範囲内から退去した物体の候補を検出し、
入退物体判定部により、前記入退物体候補検出部の出力結果に基づいて、前記観測装置の前記観測範囲内に進入した物体又は前記観測装置の前記観測範囲内から退去した物体を判定し、
物体位置推定部により、前記入退物体判定部の判定結果に基づき、前記各物体の推定位置及びIDの尤度情報及び位置の尤度情報に基づいて、前記観測値が得られた時刻における前記各物体の位置における存在確率を前記各物体の推定位置として算出することを特徴とする物体位置推定方法を提供する。
According to the tenth aspect of the present invention, a plurality of objects existing in the environment are respectively observed by the observation device, and the observation position of each of the plurality of objects and the likelihood information of the ID for each object are observed values. After getting as
Based on the estimated position and the observed position of each object by the position likelihood calculating unit, the position likelihood information for each object of each observed value is calculated,
A correlation value calculation unit calculates a correlation value between the observed value and the estimated position of each object based on the likelihood information of the ID and the likelihood information of the position,
Based on the correlation value, the entry / exit object candidate detection unit detects an object that has entered the observation range of the observation apparatus or an object candidate that has left the observation range,
Based on the output result of the entry / exit object candidate detection unit, the entry / exit object determination unit determines an object that has entered the observation range of the observation device or an object that has left the observation range of the observation device,
The object position estimation unit, based on the determination result of the entry / exit object determination unit, the estimated position of each object and the likelihood information of the ID and the likelihood information of the position at the time when the observed value was obtained An object position estimation method is provided, wherein the existence probability at the position of each object is calculated as an estimated position of each object.

本発明の第11態様によれば、コンピュータに、
環境内に存在する複数の物体を観測装置でそれぞれ観測して前記複数の物体のそれぞれの物体の観測位置及び各物体に対するIDの尤度情報を、観測値として取得したのち、
位置尤度算出部により前記各物体の推定位置と観測位置とに基づいて、前記各観測値の前記各物体に対する位置の尤度情報を算出する機能と、
相関値算出部により、前記IDの尤度情報と位置の尤度情報とに基づいて、前記観測値と前記各物体の推定位置との相関値を算出する機能と、
入退物体候補検出部により、前記相関値に基づいて、前記観測装置の観測範囲内に進入した物体又は前記観測範囲内から退去した物体の候補を検出する機能と、
入退物体判定部により、前記入退物体候補検出部の出力結果に基づいて、前記観測装置の前記観測範囲内に進入した物体又は前記観測装置の前記観測範囲内から退去した物体を判定する機能と、
物体位置推定部により、前記入退物体判定部の判定結果に基づき、前記各物体の推定位置及びIDの尤度情報及び位置の尤度情報に基づいて、前記観測値が得られた時刻における前記各物体の位置における存在確率を前記各物体の推定位置として算出する機能と、
を実現させるための物体位置推定プログラムを提供する。
According to an eleventh aspect of the present invention, a computer
After observing a plurality of objects existing in the environment with an observation device and obtaining the observation position of each of the plurality of objects and ID likelihood information for each object as observation values,
A function for calculating position likelihood information of each observation value for each object based on the estimated position and observation position of each object by a position likelihood calculating unit;
A function for calculating a correlation value between the observed value and the estimated position of each object based on the likelihood information of the ID and the likelihood information of the position by a correlation value calculating unit;
Based on the correlation value, an entry / exit object candidate detection unit detects a candidate for an object that has entered the observation range of the observation device or an object that has left the observation range;
Function for determining an object that has entered the observation range of the observation device or an object that has left the observation range of the observation device based on the output result of the entry / exit object candidate detection unit by the entry / exit object determination unit When,
The object position estimation unit, based on the determination result of the entry / exit object determination unit, the estimated position of each object and the likelihood information of the ID and the likelihood information of the position at the time when the observed value was obtained A function of calculating the existence probability at the position of each object as the estimated position of each object;
An object position estimation program for realizing is provided.

本構成によって、タグを所持していない人物が複数人存在した場合においても、前記各人物の進入位置もしくは現在位置もしくは退去位置をID付で推定することができる。   According to this configuration, even when there are a plurality of persons who do not have a tag, it is possible to estimate the entry position, the current position, or the exit position of each person with an ID.

本発明の物体位置推定システム、物体位置推定方法、及び物体位置推定プログラムによれば、タグの所持、未所持に関わらず、複数人物の進入位置もしくは現在(物体位置推定処理を行うときの)位置もしくは退去位置を推定することができる。   According to the object position estimation system, the object position estimation method, and the object position estimation program of the present invention, regardless of whether the tag is possessed or not possessed, a plurality of persons' approach positions or current positions (when the object position estimation process is performed) Alternatively, the leaving position can be estimated.

本発明の第1実施形態に係る物体位置推定システムの構成を示すブロック図The block diagram which shows the structure of the object position estimation system which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る物体位置推定システムのカメラの構成を示すブロック図The block diagram which shows the structure of the camera of the object position estimation system which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る物体位置推定システムの進入物体候補算出部の構成を示すブロック図The block diagram which shows the structure of the approaching object candidate calculation part of the object position estimation system which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る物体位置推定システムの退去物体候補算出部の構成を示すブロック図The block diagram which shows the structure of the leaving object candidate calculation part of the object position estimation system which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る物体位置推定システムの入退判定部の構成を示すブロック図The block diagram which shows the structure of the entrance / exit determination part of the object position estimation system which concerns on 1st Embodiment of this invention. 本発明の前記第1実施形態に係る物体位置推定システムでの観測対象が存在する環境である生活空間としての部屋における観測状況を説明する図The figure explaining the observation condition in the room as a living space which is the environment where the observation target exists in the object position estimation system according to the first embodiment of the present invention. 本発明の第1実施形態に係る物体位置推定システムの処理を示すフローチャートThe flowchart which shows the process of the object position estimation system which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る物体位置推定システムの観測装置の一例であるカメラでID尤度の算出を行うための色特徴量テーブルの図The figure of the color feature-value table for calculating ID likelihood with the camera which is an example of the observation apparatus of the object position estimation system which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る物体位置推定システムの観測装置の一例であるタグリーダでタグIDから人物IDを取得するために必要な人物ID変換テーブルの図The figure of a person ID conversion table required in order to acquire person ID from tag ID with the tag reader which is an example of the observation apparatus of the object position estimation system which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る物体位置推定システムの観測装置の一例であるカメラでID尤度の算出処理を示すフローチャートThe flowchart which shows the calculation process of ID likelihood with the camera which is an example of the observation apparatus of the object position estimation system which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る物体位置推定システムの観測装置の一例であるカメラの観測状況を示す図The figure which shows the observation condition of the camera which is an example of the observation apparatus of the object position estimation system which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る物体位置推定システムのデータアソシエーション値の算出状況を示す図The figure which shows the calculation condition of the data association value of the object position estimation system which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る物体位置推定システムの観測履歴データベースの一例を示す図The figure which shows an example of the observation history database of the object position estimation system which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る物体位置推定システムの観測装置の一例であるタグリーダによるセンシング範囲内への進入判定処理を示すフローチャートThe flowchart which shows the approach determination process in the sensing range by the tag reader which is an example of the observation apparatus of the object position estimation system which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る物体位置推定システムの観測装置の一例であるタグリーダによるセンシング範囲外への退去判定処理を示すフローチャートThe flowchart which shows the leaving determination process outside the sensing range by the tag reader which is an example of the observation apparatus of the object position estimation system which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る物体位置推定システムの位置推定履歴データベースの一例を示す図The figure which shows an example of the position estimation log | history database of the object position estimation system which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る物体位置推定システムの位置推定履歴データベースの一例を示す図The figure which shows an example of the position estimation log | history database of the object position estimation system which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る物体位置推定システムの位置推定履歴データベースの一例を示す図The figure which shows an example of the position estimation log | history database of the object position estimation system which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る物体位置推定システムの相関値の算出状況の一例を示す図The figure which shows an example of the calculation condition of the correlation value of the object position estimation system which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る物体位置推定システムの相関値の算出状況の一例を示す図The figure which shows an example of the calculation condition of the correlation value of the object position estimation system which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る物体位置推定システムのカルマンフィルタによる物体位置推定の例を示す図The figure which shows the example of the object position estimation by the Kalman filter of the object position estimation system which concerns on 1st Embodiment of this invention. 本発明の第1実施形態にかかる物体位置推定システムを用いた監視システムの表示装置が映し出した人の移動軌跡の例を示す図The figure which shows the example of the movement locus | trajectory of the person which the display apparatus of the monitoring system using the object position estimation system concerning 1st Embodiment of this invention projected. 本発明の第1実施形態にかかる物体位置推定システムにおいてカメラのみの観測値が記録されている観測履歴データベースの一例を示す図The figure which shows an example of the observation history database in which the observation value only of a camera is recorded in the object position estimation system concerning 1st Embodiment of this invention.

以下に、本発明にかかる実施の形態を図面に基づいて詳細に説明する。   Embodiments according to the present invention will be described below in detail with reference to the drawings.

以下、図面を参照して本発明における実施形態を詳細に説明する前に、本発明の種々の態様について説明する。   DESCRIPTION OF EMBODIMENTS Hereinafter, various embodiments of the present invention will be described before detailed description of embodiments of the present invention with reference to the drawings.

本発明の第1態様によれば、環境内に存在する複数の物体を観測し、前記複数の物体のそれぞれの物体の観測位置及び各物体に対するIDの尤度情報を、観測値として出力する観測装置と、
前記各物体の推定位置と観測位置とに基づいて、前記各観測値の前記各物体に対する位置の尤度情報を算出する位置尤度算出部と、
前記IDの尤度情報と位置の尤度情報とに基づいて、前記観測値と前記各物体の推定位置との相関値を算出する相関値算出部と、
前記相関値に基づいて、前記観測装置の観測範囲内に進入した物体又は前記観測範囲内から退去した物体の候補を検出する入退物体候補検出部と、
前記入退物体候補検出部の出力結果に基づいて、前記観測装置の前記観測範囲内に進入した物体又は前記観測装置の前記観測範囲内から退去した物体を判定する入退物体判定部と、
前記入退物体判定部の判定結果に基づき、前記各物体の推定位置及びIDの尤度情報及び位置の尤度情報に基づいて、前記観測値が得られた時刻における前記各物体の位置における存在確率を前記各物体の推定位置として算出する物体位置推定部と、
を備えることを特徴とする物体位置推定システムを提供する。
According to the first aspect of the present invention, the observation is performed by observing a plurality of objects existing in the environment, and outputting the observation position of each of the plurality of objects and the likelihood information of the ID for each object as an observation value. Equipment,
A position likelihood calculating unit that calculates likelihood information of the position of each observation value with respect to each object based on the estimated position and the observation position of each object;
A correlation value calculation unit that calculates a correlation value between the observed value and the estimated position of each object based on the likelihood information of the ID and the likelihood information of the position;
Based on the correlation value, an entry / exit object candidate detection unit that detects a candidate for an object that has entered the observation range of the observation apparatus or an object that has left the observation range;
Based on the output result of the entry / exit object candidate detection unit, an entry / exit object determination unit that determines an object that has entered the observation range of the observation device or an object that has left the observation range of the observation device;
Based on the determination result of the entry / exit object determination unit, based on the estimated position of each object, the likelihood information of the ID, and the likelihood information of the position, the presence at the position of each object at the time when the observed value was obtained An object position estimating unit that calculates a probability as an estimated position of each object;
An object position estimation system is provided.

本発明の第2態様によれば、前記入退物体候補検出部は、
前記相関値に基づいて、前記観測装置の観測範囲内に進入した物体の候補を検出する進入物体候補検出部と、
前記相関値に基づいて、前記観測装置の観測範囲内から退去した物体の候補を検出する退去物体候補検出部と、
を備えている、第1の態様に記載の物体位置推定システムを提供する。
According to the second aspect of the present invention, the entry / exit object candidate detection unit includes:
Based on the correlation value, an approaching object candidate detection unit that detects a candidate for an object that has entered the observation range of the observation device;
Based on the correlation value, a retreated object candidate detection unit that detects a candidate for a retreated object from within the observation range of the observation device;
An object position estimation system according to the first aspect is provided.

本発明の第3態様によれば、前記観測値を、前記各物体が観測された時刻と共に記録する観測履歴データベースと、
前記各物体の推定位置の算出結果を、前記各物体が観測された時刻と共に記録する位置推定履歴データベースと、
をさらに備えている、第1又は2の態様に記載の物体位置推定システムを提供する。
According to the third aspect of the present invention, an observation history database that records the observation values together with the time at which each object was observed;
A position estimation history database that records the calculation result of the estimated position of each object together with the time when each object was observed;
The object position estimation system according to the first or second aspect is further provided.

本発明の第4態様によれば、前記観測装置は複数備えられており、
前記進入物体候補検出部は、
前記観測装置毎の観測値数と物体の推定位置数とを比較する第1推定位置数比較部と、
前記第1推定位置数比較部での比較結果に基づき前記観測値数が前記物体の推定位置数よりも多かった場合、前記観測値数と前記物体の推定位置数の差分数を前記観測装置が検出した進入物体候補数として算出する進入物体候補数算出部と、
各観測値について、相関値の最大値が低い順に、前記進入物体候補数算出部で算出された前記進入物体候補数分だけ、前記観測値の観測位置に進入物体を検出したと判断する進入物体判断部とを備えるとともに、
前記退去物体候補検出部は、
前記観測装置毎の観測値数と物体の推定位置数を比較する第2推定位置数比較部と、
前記第2推定位置数比較部での比較結果に基づき前記物体の推定位置数が前記観測値数よりも多かった場合、前記物体の推定位置数と前記観測値数の差分数を前記観測装置が検出した退去物体候補数として算出する退去物体候補数算出部と、
各物体の推定位置について、相関値の最大値が低い順に、前記退去物体候補数算出部で算出された前記退去物体候補数分だけ、前記物体が退去したと判断する退去物体判断部とを備えることを特徴とする第2の態様に記載の物体位置推定システムを提供する。
According to a fourth aspect of the present invention, a plurality of the observation devices are provided,
The approaching object candidate detection unit is
A first estimated position number comparison unit that compares the number of observed values for each observation device with the estimated number of positions of an object;
When the number of observed values is larger than the number of estimated positions of the object based on the comparison result in the first estimated position number comparing unit, the observation device determines the difference number between the number of observed values and the estimated number of positions of the object. An approaching object candidate number calculating unit that calculates the number of detected approaching object candidates;
For each observation value, an approaching object that determines that an approaching object has been detected at the observation position of the observation value by the number of approaching object candidate counts calculated by the approaching object candidate number calculation unit in order of increasing correlation value. A determination unit, and
The leaving object candidate detection unit
A second estimated position number comparison unit that compares the number of observation values for each observation device with the estimated number of positions of the object;
When the number of estimated positions of the object is larger than the number of observed values based on the comparison result in the second estimated position number comparing unit, the observation device calculates the difference number between the estimated position number of the object and the number of observed values. A retreat object candidate number calculation unit that calculates the number of detected retirement object candidates;
For each estimated position of each object, a retired object determining unit that determines that the object has retreated by the number of retired object candidates calculated by the retired object candidate number calculating unit in descending order of the maximum correlation value. An object position estimation system according to the second aspect is provided.

本発明の第5態様によれば、少なくとも一つ以上の観測装置がカメラで構成され、
少なくとも別の一つ以上の観測装置がタグリーダで構成され、
更に、前記タグリーダの観測値及び前記各物体の推定位置に基づいてタグ有物体の入退を判定し、判定結果を前記位置推定履歴データベースに記録する入退タグ判定部を備え、
前記相関値算出部及び前記入退物体候補検出部検出部及び入退物体判定部は、前記カメラが出力した観測値と、以前に前記入退物体判定部によって進入したと判断された物体の推定位置のみを用いることを特徴とする第1〜4のいずれか1つの態様に記載の物体位置推定システムを提供する。
According to the fifth aspect of the present invention, at least one observation device is constituted by a camera,
At least one other observation device is composed of a tag reader,
Further, it includes an entry / exit tag determination unit that determines entry / exit of a tagged object based on the observation value of the tag reader and the estimated position of each object, and records the determination result in the position estimation history database,
The correlation value calculation unit, the entry / exit object candidate detection unit detection unit, and the entry / exit object determination unit estimate the observation value output by the camera and the object previously determined to have entered by the entry / exit object determination unit. An object position estimation system according to any one of the first to fourth aspects, wherein only the position is used.

本発明の第6態様によれば、前記入退物体判定部は、
前記入退物体候補検出部が前記観測装置毎に出力した進入物体候補数の平均値又は最大値を、進入物体数として算出する進入物体数算出部と、
前記進入物体候補検出部が検出した全ての進入物体を、クラスタ数が、前記進入物体数算出部で算出された前記進入物体数となるように位置に関してクラスタリングする第1クラスタリング部と、
前記第1クラスタリング部でクラスタリングしたクラスタに属する各進入物体の観測値に含まれるID尤度について、ID毎に和を算出するID尤度和算出部と、
前記ID尤度和算出部で算出されかつ推定位置が存在しない物体に対するID尤度の和の中で、ID尤度が最も値の高いIDの物体が前記クラスタの平均位置に進入したと判定する物体進入判定部と、
前記入退物体候補検出部が前記観測装置毎に出力した退去物体候補数の平均値又は最大値を、退去物体数として算出する退去物体数算出部と、
前記退去物体候補検出部が検出した全ての退去物体を、クラスタ数が、前記退去物体数算出部で算出された前記退去物体数となるように位置に関してクラスタリングする第2クラスタリング部と、
前記第2クラスタリング部でクラスタリングした各クラスタの平均位置に退去物体が存在すると判定する退去物体存在判定部と
を備えることを特徴とする第1〜3の何れか1つの態様に記載の物体位置推定システムを提供する。
According to the sixth aspect of the present invention, the entry / exit object determination unit comprises:
An entering object number calculating unit for calculating an average value or a maximum value of the number of entering object candidates output by the entry / exit object candidate detecting unit for each observation device;
A first clustering unit that clusters all the entering objects detected by the entering object candidate detecting unit with respect to positions such that the number of clusters is the number of entering objects calculated by the entering object number calculating unit;
An ID likelihood sum calculating unit that calculates a sum for each ID for the ID likelihood included in the observed values of the approaching objects belonging to the cluster clustered by the first clustering unit;
It is determined that the ID object having the highest ID likelihood has entered the average position of the cluster among the sums of ID likelihoods for the object that is calculated by the ID likelihood sum calculation unit and has no estimated position. An object entry determination unit;
A moving object number calculating unit for calculating an average value or a maximum value of the number of moving object candidates output for each observation device by the moving object candidate detecting unit;
A second clustering unit that clusters all the leaving objects detected by the leaving object candidate detection unit with respect to positions such that the number of clusters is the number of leaving objects calculated by the leaving object number calculation unit;
The object position estimation according to any one of the first to third aspects, further comprising: a retreated object presence determination unit that determines that a retired object exists at an average position of each cluster clustered by the second clustering unit. Provide a system.

本発明の第7態様によれば、少なくとも一つ以上の観測装置がカメラで構成され、
前記カメラから前記観測値としてとして出力する各物体に対するIDの尤度情報には、前記観測履歴データベースに記録された前記観測履歴に含まれている物体の他に、前記観測履歴に含まれていない物体のIDの尤度情報が含められていることを特徴とする第3の態様に記載の物体位置推定システムを提供する。
According to the seventh aspect of the present invention, at least one observation device is constituted by a camera,
The likelihood information of the ID for each object output as the observation value from the camera is not included in the observation history in addition to the object included in the observation history recorded in the observation history database. The object position estimation system according to the third aspect is characterized in that likelihood information of an object ID is included.

本発明の第8態様によれば、前記入退物体候補検出部は、物体の推定位置が一つも存在していない場合、各観測値の観測位置に進入物体を検出したと判断することを特徴とする第1〜7の何れか1つの態様に記載の物体位置推定システムを提供する。   According to an eighth aspect of the present invention, the entry / exit object candidate detection unit determines that an entry object has been detected at the observation position of each observation value when no estimated position of the object exists. The object position estimation system according to any one of the first to seventh aspects is provided.

本発明の第9態様によれば、前記入退物体候補検出部は、前記観測装置が観測した結果、観測値が1個も取得できなかった場合、全ての物体が前記観測装置の観測範囲内から退去したと判断することを特徴とする第1〜8の何れか1つの態様に記載の物体位置推定システムを提供する。   According to the ninth aspect of the present invention, the entry / exit object candidate detection unit, when no observation value is acquired as a result of observation by the observation device, all objects are within the observation range of the observation device. The object position estimation system according to any one of the first to eighth aspects is characterized in that it is determined that the user has left.

本発明の第10態様によれば、環境内に存在する複数の物体を観測装置でそれぞれ観測して前記複数の物体のそれぞれの物体の観測位置及び各物体に対するIDの尤度情報を、観測値として取得したのち、
位置尤度算出部により前記各物体の推定位置と観測位置とに基づいて、前記各観測値の前記各物体に対する位置の尤度情報を算出し、
相関値算出部により、前記IDの尤度情報と位置の尤度情報とに基づいて、前記観測値と前記各物体の推定位置との相関値を算出し、
入退物体候補検出部により、前記相関値に基づいて、前記観測装置の観測範囲内に進入した物体又は前記観測範囲内から退去した物体の候補を検出し、
入退物体判定部により、前記入退物体候補検出部の出力結果に基づいて、前記観測装置の前記観測範囲内に進入した物体又は前記観測装置の前記観測範囲内から退去した物体を判定し、
物体位置推定部により、前記入退物体判定部の判定結果に基づき、前記各物体の推定位置及びIDの尤度情報及び位置の尤度情報に基づいて、前記観測値が得られた時刻における前記各物体の位置における存在確率を前記各物体の推定位置として算出することを特徴とする物体位置推定方法を提供する。
According to the tenth aspect of the present invention, a plurality of objects existing in the environment are respectively observed by the observation device, and the observation position of each of the plurality of objects and the likelihood information of the ID for each object are observed values. After getting as
Based on the estimated position and the observed position of each object by the position likelihood calculating unit, the position likelihood information for each object of each observed value is calculated,
A correlation value calculation unit calculates a correlation value between the observed value and the estimated position of each object based on the likelihood information of the ID and the likelihood information of the position,
Based on the correlation value, the entry / exit object candidate detection unit detects an object that has entered the observation range of the observation apparatus or an object candidate that has left the observation range,
Based on the output result of the entry / exit object candidate detection unit, the entry / exit object determination unit determines an object that has entered the observation range of the observation device or an object that has left the observation range of the observation device,
The object position estimation unit, based on the determination result of the entry / exit object determination unit, the estimated position of each object and the likelihood information of the ID and the likelihood information of the position at the time when the observed value was obtained An object position estimation method is provided, wherein the existence probability at the position of each object is calculated as an estimated position of each object.

本発明の第11態様によれば、コンピュータに、
環境内に存在する複数の物体を観測装置でそれぞれ観測して前記複数の物体のそれぞれの物体の観測位置及び各物体に対するIDの尤度情報を、観測値として取得したのち、
位置尤度算出部により前記各物体の推定位置と観測位置とに基づいて、前記各観測値の前記各物体に対する位置の尤度情報を算出する機能と、
相関値算出部により、前記IDの尤度情報と位置の尤度情報とに基づいて、前記観測値と前記各物体の推定位置との相関値を算出する機能と、
入退物体候補検出部により、前記相関値に基づいて、前記観測装置の観測範囲内に進入した物体又は前記観測範囲内から退去した物体の候補を検出する機能と、
入退物体判定部により、前記入退物体候補検出部の出力結果に基づいて、前記観測装置の前記観測範囲内に進入した物体又は前記観測装置の前記観測範囲内から退去した物体を判定する機能と、
物体位置推定部により、前記入退物体判定部の判定結果に基づき、前記各物体の推定位置及びIDの尤度情報及び位置の尤度情報に基づいて、前記観測値が得られた時刻における前記各物体の位置における存在確率を前記各物体の推定位置として算出する機能と、
を実現させるための物体位置推定プログラムを提供する。
According to an eleventh aspect of the present invention, a computer
After observing a plurality of objects existing in the environment with an observation device and obtaining the observation position of each of the plurality of objects and ID likelihood information for each object as observation values,
A function for calculating position likelihood information of each observation value for each object based on the estimated position and observation position of each object by a position likelihood calculating unit;
A function for calculating a correlation value between the observed value and the estimated position of each object based on the likelihood information of the ID and the likelihood information of the position by a correlation value calculating unit;
Based on the correlation value, an entry / exit object candidate detection unit detects a candidate for an object that has entered the observation range of the observation device or an object that has left the observation range;
Function for determining an object that has entered the observation range of the observation device or an object that has left the observation range of the observation device based on the output result of the entry / exit object candidate detection unit by the entry / exit object determination unit When,
The object position estimation unit, based on the determination result of the entry / exit object determination unit, the estimated position of each object and the likelihood information of the ID and the likelihood information of the position at the time when the observed value was obtained A function of calculating the existence probability at the position of each object as the estimated position of each object;
An object position estimation program for realizing is provided.

以下、本発明の実施の形態について、図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(第1実施形態)
本発明の第1実施形態にかかる物体位置推定システム(装置)90では、閉じた環境の一例である部屋に対して、カメラとUWB(Ultra Wide Band)(超広帯域無線)タグリーダ(以下、単に、タグリーダと称する。)を設置することによって、タグを所持していない物体の一例としての人物が複数人存在した場合においても、前記各人物の進入位置もしくは現在(物体位置推定処理を行うときの)位置もしくは退去位置をID付で推定している。
(First embodiment)
In the object position estimation system (apparatus) 90 according to the first embodiment of the present invention, a camera and a UWB (Ultra Wide Band) tag reader (hereinafter simply referred to as a “closed environment”) are used. By installing a tag reader), even when there are a plurality of persons as an example of an object that does not have a tag, the approach position or the current (when performing the object position estimation process) of each person. The position or the leaving position is estimated with an ID.

図1Aは、本発明の第1実施形態に係る物体位置推定装置90の構成を示した図である。   FIG. 1A is a diagram showing a configuration of an object position estimation apparatus 90 according to the first embodiment of the present invention.

本発明の第1実施形態に係る物体位置推定装置90は、観測装置100の一例としてのカメラ101と、観測装置100の別の例としてのタグリーダ102と、物体位置推定処理部91とを備える。物体位置推定処理部91は、入退タグ判定部104と、物体位置推定部105と、位置尤度算出部107と、相関値算出部108と、入退物体候補検出部92(進入物体候補検出部109と、退去物体候補検出部110)と、入退物体判定部111と、を備える。さらに、前記物体位置推定装置90は、観測履歴データベース103と、位置推定履歴データベース106とを備えていても良い。もちろん、前記物体位置推定装置90としては、観測履歴データベース103と位置推定履歴データベース106とを備えずに、必要な情報を通信などの手段により、物体位置推定装置90の外部のデータベースより取得できるように構成してもよい。必要な情報を外部データベースから取得できるようにするとともに、必要に応じて、各部材の内部記憶部などにより必要な情報を保持するように構成してもよい。   The object position estimation apparatus 90 according to the first embodiment of the present invention includes a camera 101 as an example of the observation apparatus 100, a tag reader 102 as another example of the observation apparatus 100, and an object position estimation processing unit 91. The object position estimation processing unit 91 includes an entry / exit tag determination unit 104, an object position estimation unit 105, a position likelihood calculation unit 107, a correlation value calculation unit 108, and an entry / exit object candidate detection unit 92 (entrance object candidate detection). Unit 109, a leaving object candidate detection unit 110), and an entry / exit object determination unit 111. Further, the object position estimation device 90 may include an observation history database 103 and a position estimation history database 106. Of course, the object position estimation apparatus 90 does not include the observation history database 103 and the position estimation history database 106, and can acquire necessary information from a database outside the object position estimation apparatus 90 by means of communication or the like. You may comprise. The necessary information may be acquired from the external database, and the necessary information may be held by an internal storage unit of each member, if necessary.

観測装置100の例であるカメラ101とタグリーダ102は、各々、所定の観測周期(例えば100msなど)毎に、部屋内の観測エリア内を観測する。そして、カメラ101とタグリーダ102は、観測エリア内に存在する人の検出を行い、検出結果である人の検出位置(観測位置)と人のID尤度(IDの尤度情報)とを観測値として、観測履歴データベース103に記録する。   The camera 101 and the tag reader 102, which are examples of the observation apparatus 100, each observe the inside of the observation area in the room every predetermined observation period (for example, 100 ms). Then, the camera 101 and the tag reader 102 detect a person existing in the observation area, and detect the detected position (observation position) of the person and the ID likelihood (ID likelihood information) of the person as a detection result. Is recorded in the observation history database 103.

入退タグ判定部104は、観測履歴データベース103と位置推定履歴データベース106とに記録された情報を基に、タグを所持した人の観測エリア内への進入と退去を判定する。   The entry / exit tag determination unit 104 determines entry / exit of the person carrying the tag into the observation area based on information recorded in the observation history database 103 and the position estimation history database 106.

位置尤度算出部107は、観測履歴データベース103に記録された各観測値に対して、観測エリア内に現在(位置尤度算出時に)存在していると推定されている人毎に位置尤度を算出する。   The position likelihood calculating unit 107 performs position likelihood for each person estimated to currently exist (at the time of position likelihood calculation) in the observation area with respect to each observation value recorded in the observation history database 103. Is calculated.

相関値算出部108は、観測履歴データベース103に記録された各観測値に対して、位置推定履歴データベース106の情報を基に、観測エリア内に現在(相関値算出時に)存在していると推定されている人毎に相関値を算出する。   The correlation value calculation unit 108 estimates that each observation value recorded in the observation history database 103 currently exists (when calculating the correlation value) in the observation area based on the information in the position estimation history database 106. A correlation value is calculated for each person.

入退物体候補検出部92は、1つの部で構成してもよいが、進入物体候補検出部109と、退去物体候補検出部110との2つに分けて構成してもよい。一例として、以下の説明では、進入物体候補検出部109と、退去物体候補検出部110との2つに分けて構成する例について説明する。   The entry / exit object candidate detection unit 92 may be configured by one unit, but may be configured by being divided into an entry object candidate detection unit 109 and a leaving object candidate detection unit 110. As an example, in the following description, an example in which an approaching object candidate detection unit 109 and a leaving object candidate detection unit 110 are divided into two parts will be described.

進入物体候補算出部109は、相関値算出部108での算出結果に基づき、観測エリア内に進入した人の候補を算出する。退去物体候補算出部110は、相関値算出部108での算出結果に基づき、観測エリア内から退去した人の候補を算出する。   The approaching object candidate calculation unit 109 calculates a candidate for a person who has entered the observation area based on the calculation result of the correlation value calculation unit 108. The leaving object candidate calculation unit 110 calculates a candidate for a person who has left the observation area based on the calculation result of the correlation value calculation unit 108.

入退判定部111は、進入物体候補算出部109及び退去物体候補算出部110が出力した結果を、位置推定履歴データベース106に記録する。   The entry / exit determination unit 111 records the results output by the approaching object candidate calculation unit 109 and the leaving object candidate calculation unit 110 in the position estimation history database 106.

物体位置推定部105は、位置推定履歴データベース106に記録された情報を基に、観測エリア内に存在する人の位置の推定を行う。   The object position estimation unit 105 estimates the position of a person existing in the observation area based on the information recorded in the position estimation history database 106.

図2に、閉じた環境の一例である生活環境の具体的な例としての部屋201を示す。この部屋201は、本発明の第一実施形態に係る物体位置推定システム90の構成要素である観測装置100の一例としてのカメラ101と観測装置100の別の例としてのタグリーダ102とをそれぞれ備えている。直方体の部屋201の四角形の天井の中央付近には、真下に向けられたカメラ101とタグリーダ102とが設置されている。部屋201内には、タグ203Aを所持した人202Aと、タグ203Bを所持した人202Bと、タグ203を所持していない人203Cが、部屋201に出入りしていると仮定する。尚、部屋201に出入りする人の数に制限は無く、任意の一人を示す場合には、代表的に人202として説明を行う。同様に、任意の一つのタグを示す場合には、この任意のタグをタグ203として説明を行っている。また、閉じた環境である部屋201内への出入口の例として、ドア204Aと、ドア204Bと、ドア204Cとが配置されている。以後、任意の一つのドアを示す場合には、代表的にドア204として説明を行う。   FIG. 2 shows a room 201 as a specific example of a living environment that is an example of a closed environment. The room 201 includes a camera 101 as an example of an observation apparatus 100 that is a component of the object position estimation system 90 according to the first embodiment of the present invention and a tag reader 102 as another example of the observation apparatus 100. Yes. Near the center of the quadrangular ceiling of the rectangular parallelepiped room 201, a camera 101 and a tag reader 102 are installed. It is assumed that a person 202A who possesses the tag 203A, a person 202B who possesses the tag 203B, and a person 203C who does not possess the tag 203 enter and exit the room 201 in the room 201. In addition, there is no restriction | limiting in the number of persons entering / exiting the room 201, and when showing arbitrary one, it demonstrates as the person 202 typically. Similarly, when an arbitrary tag is indicated, the description is given assuming that the arbitrary tag is the tag 203. Further, as an example of an entrance to the room 201 that is a closed environment, a door 204A, a door 204B, and a door 204C are arranged. Hereinafter, in the case where an arbitrary door is shown, the door 204 is described as a representative.

以下、図3の物体位置推定システム90の物体位置推定処理のフローチャートに対応させながら、図1A及び図1Bと図2とを用いて、各構成要素について説明する。尚、図3は、前記物体位置推定システム90の全体処理を示すフローチャートである。   Hereinafter, each component will be described using FIG. 1A, FIG. 1B, and FIG. 2 while corresponding to the flowchart of the object position estimation process of the object position estimation system 90 of FIG. FIG. 3 is a flowchart showing the overall processing of the object position estimation system 90.

<観測装置の説明>
ステップS301の処理において、観測装置100は、所定の観測周期(例えば100msなど)毎に、部屋201内を観測する。そして、観測装置100は、部屋201内に存在する人202の検出を行い、検出結果である人202の検出位置と人202のID尤度とを観測値として観測履歴データベース103に記録する。
<Explanation of observation equipment>
In the process of step S301, the observation apparatus 100 observes the inside of the room 201 every predetermined observation period (for example, 100 ms). Then, the observation apparatus 100 detects the person 202 existing in the room 201, and records the detection position of the person 202 and the ID likelihood of the person 202, which are detection results, in the observation history database 103 as observation values.

ID尤度とは、検出した物体(例えば、ここでは人202)がどのIDの物体であるらしいか、を確率的に表したものである。例えば、タグリーダ102ではIDを確実に識別することが可能なので、タグリーダ102が物体Aのタグを検出した場合、ID尤度は物体Aである確率が1、その他の物体である確率が0となる。一方で、カメラ101の場合は、ID識別結果が物体Aであったとしても、画像処理によるID識別間違いの可能性が含まれるため、実際に検出していた物体がAであることを確実に保証することはできない。例えば、カメラ101の識別結果が物体Aであっても、物体A以外の物体(物体B,物体Cなど)を検出していた可能性がある。このような場合、ID尤度は、カメラ101の識別対象となり得る全ての物体に対して割り振られた確率値となる。例えば、物体Aである確率が0.8であり、物体Bである確率が0.1であり、物体Cである確率が0.1である、というように、ID尤度が決定される。尚、これは、ID尤度を決定する一例であり、本発明はこれに限るものではない。   The ID likelihood is a probability representation of which ID the detected object (for example, the person 202 in this case) is likely to be. For example, since the tag reader 102 can reliably identify the ID, when the tag reader 102 detects the tag of the object A, the ID likelihood is 1 for the object A and 0 for the other objects. . On the other hand, in the case of the camera 101, even if the ID identification result is the object A, since the possibility of an ID identification error by image processing is included, it is ensured that the actually detected object is A. It cannot be guaranteed. For example, even if the identification result of the camera 101 is the object A, there is a possibility that an object other than the object A (object B, object C, etc.) has been detected. In such a case, the ID likelihood is a probability value assigned to all objects that can be identified by the camera 101. For example, the ID likelihood is determined such that the probability of being an object A is 0.8, the probability of being an object B is 0.1, and the probability of being an object C is 0.1. This is an example of determining the ID likelihood, and the present invention is not limited to this.

<カメラの説明>
以下、前記観測装置100に一例としてカメラ101を用いるときの人202の検出位置とID尤度との具体的な算出方法について説明する。ここでは、前記カメラ101は、図1Bに示すように、観測部(撮像部)101aと、画像処理部101bと、ID識別処理部101cと、内部記憶部(記憶部)101Sとを備える。
<Explanation of camera>
Hereinafter, a specific method for calculating the detection position of the person 202 and the ID likelihood when the camera 101 is used as the observation apparatus 100 will be described. Here, as shown in FIG. 1B, the camera 101 includes an observation unit (imaging unit) 101a, an image processing unit 101b, an ID identification processing unit 101c, and an internal storage unit (storage unit) 101S.

カメラ101を用いて人202を検出するには、前記カメラ101の画像処理部101cが、カメラ101が取得した画像データを画像処理する必要がある。その方法として、例えば、背景差分法を用いることができる。その方法は次のようなものである。画像処理部101bが、カメラ101で予め撮像して用意しておいた背景画像データと、カメラ101で撮像した現在(人検出時)の画像データとを比較する。前述の背景画像データとは、人202が存在していないときの環境、例えば部屋201の背景画像のデータである。その後、画像処理部101bが、画素値が異なる領域を差分領域として取り出す。そして、前記差分領域を人202であるとして画像処理部101bで検出する。ただし、画像データにはノイズが混じっている可能性があるため、画像処理部101bにて、前記差分領域が人202に対して十分に小さいと判断できる場合には、画像処理部101bにて、前記差分領域は人202ではないと判断しても良い。ここで、差分領域が人302に対して十分に小さい場合とは、前記差分領域の画素数が、人202と認識可能な最低画素数を基に予め設定した閾値以下である場合が考えられる。   In order to detect the person 202 using the camera 101, the image processing unit 101c of the camera 101 needs to perform image processing on the image data acquired by the camera 101. As the method, for example, a background difference method can be used. The method is as follows. The image processing unit 101b compares the background image data prepared by capturing in advance with the camera 101 and the current image data (at the time of human detection) captured by the camera 101. The above-mentioned background image data is data of an environment when the person 202 is not present, for example, the background image of the room 201. Thereafter, the image processing unit 101b extracts areas having different pixel values as difference areas. Then, the image processing unit 101b detects the difference area as a person 202. However, since there is a possibility that the image data is mixed with noise, when the image processing unit 101b can determine that the difference area is sufficiently small with respect to the person 202, the image processing unit 101b It may be determined that the difference area is not the person 202. Here, the case where the difference area is sufficiently small with respect to the person 302 may be a case where the number of pixels in the difference area is equal to or less than a preset threshold value based on the minimum number of pixels that can be recognized as the person 202.

カメラ101が、天井から天井面に垂直に地面を見下ろすように設置されているとすると、画像処理部101bは、カメラ101で取得した前記差分領域の重心位置を人202の検出位置として処理する。尚、画像処理部101bにおける、カメラ座標系における画素の位置から部屋201におけるXY座標系への変換は、予めカメラキャリブレーションを行っておくことで実現できる。   Assuming that the camera 101 is installed so as to look down on the ground from the ceiling to the ceiling surface, the image processing unit 101b processes the barycentric position of the difference area acquired by the camera 101 as the detection position of the person 202. Note that the conversion from the pixel position in the camera coordinate system to the XY coordinate system in the room 201 in the image processing unit 101b can be realized by performing camera calibration in advance.

<カメラID尤度算出:色>
また、前記カメラ101のID識別処理部101cが、前記差分領域に対してID識別処理を行うことによって、検出した人202のID尤度を求める。ID識別処理部101cは、図1Bにおいて詳細に示すように、比較部101cbと、算出部101cdと、追跡成功確率取得部101ceと、データアソシエーション値取得部101cfと、ID尤度割振部101cgと、加算部101chとで構成されている。そのID尤度を求める方法として、例えば色特徴量のマッチングを行う方法がある。具体的には、内部記憶部101Sにて、識別対象とする人202の色の特徴量を予め記憶しておく。そして、ID識別処理部101cの比較部101cbが、前記差分領域に含まれる色特徴の成分の比率を比較する。図4に、部屋201に出入り可能な3人の人物(それぞれのIDをTAG_01、TAG_02、TAG_03とする。)の色特徴量の比率が記録された色特徴量テーブルの例を示す。この色特徴量テーブルは、内部記憶部101Sに記憶されている。図4の色特徴量テーブルによると、例えばTAG_01の人物は、R(赤)成分が0.65であり、G(緑)成分が0.2であり、B(青)成分が0.15である。ここで、前記差分領域の色特徴量の比率が、R成分が0.12であり、Gが成分0.2であり、B成分が0.68であったと仮定する。このとき、ID識別処理部101cの比較部101cbが、前記色特徴量テーブルに記録された各人物の色特徴量の成分の比率と、前記差分領域の色特徴量の成分の比率を比較する。そして、ID識別処理部101cの算出部101cdが、マッチング率を算出する。TAG_01の人物に関しては、R成分が0.12でマッチングし、G成分が0.2でマッチングし、B成分が0.15でマッチングしており、計0.47でマッチングしている。同様に、TAG_02の人物に関しては、計0.9でマッチングし、TAG_03の人物に関しては、計0.42でマッチングしている。例えば、前述のID識別処理部101cの算出部101cdで算出されたマッチング率をID尤度とすることができる。つまり、前記差分領域において検出された人202のIDは、TAG_01に対するID尤度が0.47となり、TAG_02に対するID尤度が0.9となり、TAG_03に対するID尤度が0.42となる。このID尤度算出の処理を、検出した全ての人202に対してID識別処理部101cで行う。尚、色特徴量テーブルはカメラ101の内部記憶部101Sに記録されているものとする。
<Camera ID likelihood calculation: Color>
Further, the ID identification processing unit 101c of the camera 101 obtains the ID likelihood of the detected person 202 by performing ID identification processing on the difference area. As shown in detail in FIG. 1B, the ID identification processing unit 101c includes a comparison unit 101cb, a calculation unit 101cd, a tracking success probability acquisition unit 101ce, a data association value acquisition unit 101cf, an ID likelihood allocation unit 101cg, It is comprised with the addition part 101ch. As a method for obtaining the ID likelihood, for example, there is a method of matching color feature amounts. Specifically, the color storage amount of the person 202 to be identified is stored in advance in the internal storage unit 101S. Then, the comparison unit 101cb of the ID identification processing unit 101c compares the ratio of the color feature components included in the difference area. FIG. 4 shows an example of a color feature amount table in which color feature amount ratios of three persons who can enter and leave the room 201 (each ID is TAG_01, TAG_02, and TAG_03) are recorded. This color feature amount table is stored in the internal storage unit 101S. According to the color feature table of FIG. 4, for example, a person of TAG_01 has an R (red) component of 0.65, a G (green) component of 0.2, and a B (blue) component of 0.15. is there. Here, it is assumed that the ratio of the color feature amount in the difference area is 0.12 for the R component, 0.2 for the G component, and 0.68 for the B component. At this time, the comparison unit 101cb of the ID identification processing unit 101c compares the ratio of the color feature amount component of each person recorded in the color feature amount table with the ratio of the color feature amount component of the difference area. Then, the calculation unit 101cd of the ID identification processing unit 101c calculates the matching rate. For the person of TAG_01, the R component is matched at 0.12, the G component is matched at 0.2, the B component is matched at 0.15, and the matching is 0.47 in total. Similarly, the person with TAG — 02 matches with a total of 0.9, and the person with TAG — 03 matches with a total of 0.42. For example, the matching rate calculated by the calculation unit 101cd of the ID identification processing unit 101c described above can be used as the ID likelihood. That is, for the ID of the person 202 detected in the difference area, the ID likelihood for TAG_01 is 0.47, the ID likelihood for TAG_02 is 0.9, and the ID likelihood for TAG_03 is 0.42. This ID likelihood calculation processing is performed by the ID identification processing unit 101c for all detected people 202. It is assumed that the color feature amount table is recorded in the internal storage unit 101S of the camera 101.

<カメラID尤度算出:追跡>
しかし、人202が着ている服が毎日異なるなど、予め前記色特徴量テーブルを作成しておくことが困難な場合が考えられる。このような場合、ID識別処理部101cが、人202の追跡状態に応じてID尤度を決定しても良い。図6のフローチャート及び図7のカメラ観測状況及び図8のデータアソシエーション状況に対応させながら具体的に説明を行う。
<Camera ID likelihood calculation: tracking>
However, there may be a case where it is difficult to create the color feature amount table in advance, for example, the clothes worn by the person 202 are different every day. In such a case, the ID identification processing unit 101c may determine the ID likelihood according to the tracking state of the person 202. A specific description will be given while corresponding to the flowchart of FIG. 6, the camera observation state of FIG. 7, and the data association state of FIG. 8.

ステップS601の処理では、カメラ101が部屋201内を観測し、N個の観測値(差分領域)を検出している。ただし、N>0でかつNは整数である。図7のカメラ観測状況の例を見てみると、時刻2010:3:3:14:23:28:000では、カメラ101は2個の観測値を検出しており(観測値CAM_01,CAM_02を参照。)、N=2となる。尚、差分領域の検出方法については上述した通りである。   In the process of step S601, the camera 101 observes the inside of the room 201 and detects N observation values (difference areas). However, N> 0 and N is an integer. Looking at the example of the camera observation state in FIG. 7, at time 2010: 3: 3: 14: 23: 28: 00, the camera 101 detects two observation values (observation values CAM_01 and CAM_02). See N) = 2. The method for detecting the difference area is as described above.

ステップS602の処理では、カメラ101のID識別処理部101cが位置推定履歴データベース106を参照し、現在(ステップS602の処理を行うとき)、部屋201内に存在していると推定されている人202の数(M)を取得している。ただし、M>0でかつMは整数である。尚、位置推定履歴データベース106についての詳細は後述する。また、図6のフローチャートを用いた説明は、M=2として行う。   In the process of step S602, the ID identification processing unit 101c of the camera 101 refers to the position estimation history database 106, and the person 202 who is currently estimated to exist in the room 201 (when performing the process of step S602). (M). However, M> 0 and M is an integer. Details of the position estimation history database 106 will be described later. The description using the flowchart of FIG. 6 is performed with M = 2.

以降、ステップS601の処理で得られた前記各観測値に対して処理を行う。尚、ループ1における「A」は、前記各観測値に対するインデックス番号を表しており、同一時刻に得られた観測値内において、観測値が得られた順番に、0から番号がインクリメントされるように割り振られている。   Thereafter, the process is performed on the observed values obtained in the process of step S601. Note that “A” in loop 1 represents an index number for each observation value, and the number is incremented from 0 in the order in which the observation values were obtained within the observation values obtained at the same time. Allocated to

次いで、ステップS603の処理では、ID識別処理部101cの比較部101cbが、カメラ101にて検出された前記観測値の色の特徴量の比率を取得している。図7のカメラ観測状況の例を見てみると、観測値CAM_01は、R成分:G成分:B成分=0.3:0.6:0.1の比率となっている。   Next, in the process of step S603, the comparison unit 101cb of the ID identification processing unit 101c obtains the ratio of the color feature amount of the observed value detected by the camera 101. Looking at the example of the camera observation state in FIG. 7, the observed value CAM_01 has a ratio of R component: G component: B component = 0.3: 0.6: 0.1.

ステップS604の処理では、前記観測値が、それぞれ追跡中の観測値であるか否かをID識別処理部101cの算出部101cdで判断している。尚、追跡中か否かのID識別処理部101cの算出部101cdで判断は、ステップS602でID識別処理部101cの算出部101cdで取得した色の特徴量のマッチングにて行う。マッチング処理方法の説明については色特徴量を用いたID尤度算出方法と同等であるため省略する。例えば、観測値CAM_01の場合、時刻2010:3:3:14:23:28:000以前に観測値が得られていないため、観測値CAM_01は、追跡中の観測値では無いとID識別処理部101cの算出部101cdによって判断される(ステップS605へ進む)。また、観測値CAM_03の場合、まず、ID識別処理部101cの算出部101cdが、前回観測値(CAM_01,CAM_02)の色の特徴量とマッチングする観測値があるか否かを判断する。具体的には、ID識別処理部101cの算出部101cdが、閾値以上且つマッチング率の最も高い前回観測値があると判断する場合に、観測値CAM_03は、追跡中の観測値であるとID識別処理部101cの算出部101cdによって判断される。前記閾値を0.8と設定していた場合、観測値CAM_03は、観測値CAM_01を追跡中であるとID識別処理部101cの算出部101cdによって判断される(ステップS606へ進む)。また、前記閾値を0.95と設定していた場合、観測値CAM_03は条件に見合う前回観測値が存在しないため、追跡中の観測値では無いとID識別処理部101cの算出部101cdによって判断される(ステップS605へ進む)。尚、前記閾値は経験的に設定する値となる。   In the process of step S604, the calculation unit 101cd of the ID identification processing unit 101c determines whether or not each of the observed values is an observed value being tracked. Note that the determination by the calculation unit 101 cd of the ID identification processing unit 101 c as to whether tracking is in progress is performed by matching the feature amount of the color acquired by the calculation unit 101 cd of the ID identification processing unit 101 c in step S602. The description of the matching processing method is omitted because it is equivalent to the ID likelihood calculation method using the color feature amount. For example, in the case of the observed value CAM_01, since the observed value was not obtained before the time 2010: 3: 3: 14: 23: 28: 00, the ID identification processing unit indicates that the observed value CAM_01 is not the observed value being tracked. It is determined by the calculation unit 101cd of 101c (proceeding to step S605). In the case of the observed value CAM_03, first, the calculation unit 101cd of the ID identification processing unit 101c determines whether there is an observed value that matches the color feature amount of the previous observed value (CAM_01, CAM_02). Specifically, when the calculation unit 101cd of the ID identification processing unit 101c determines that there is a previous observed value that is equal to or higher than the threshold and has the highest matching rate, the ID value is identified as the observed value CAM_03 being the observed value being tracked. This is determined by the calculation unit 101cd of the processing unit 101c. When the threshold value is set to 0.8, the observed value CAM_03 is determined by the calculation unit 101cd of the ID identification processing unit 101c that the observed value CAM_01 is being tracked (proceeds to step S606). When the threshold is set to 0.95, the observation value CAM_03 is determined not to be an observation value being tracked by the calculation unit 101cd of the ID identification processing unit 101c because there is no previous observation value that meets the condition. (Proceed to step S605). The threshold value is set empirically.

ステップS605の処理では、ID識別処理部101cの算出部101cdによって、ステップS604の処理において追跡中では無いと判断した観測値のID尤度に、現在タグが検出している人202全てのID尤度が割り当てられる。より具体的には、前述の通り、ID識別処理部101cの算出部101cdが、追跡中の観測値であるかどうかを判断する。そして、ID識別処理部101cの算出部101cdが、現在タグが検出している人202の人数M分の1を、現在タグが検出している人202それぞれのID尤度として割り当てる。   In the process of step S605, the ID likelihood of all the persons 202 currently detected by the tag is added to the ID likelihood of the observed value determined by the calculation unit 101cd of the ID identification processing unit 101c as not being tracked in the process of step S604. Degrees are assigned. More specifically, as described above, the calculation unit 101cd of the ID identification processing unit 101c determines whether the observed value is being tracked. Then, the calculation unit 101cd of the ID identification processing unit 101c assigns 1 / M of the number of people 202 detected by the current tag as the ID likelihood of each of the people 202 detected by the current tag.

ステップS606の処理では、ID識別処理部101cの追跡成功確率取得部101ceが、カメラ101の観測値の追跡成功確率(P)を取得している。ただし、P>0である。前記追跡成功確率は、事前実験を行い予め求めておいたものを使用しても良い。また、ステップS604の処理において、追跡中と判断した前回観測値とのマッチング率を追跡成功確率として用いても良い。   In the process of step S606, the tracking success probability acquisition unit 101ce of the ID identification processing unit 101c acquires the tracking success probability (P) of the observation value of the camera 101. However, P> 0. As the tracking success probability, a probability obtained in advance by conducting a prior experiment may be used. In the process of step S604, the matching rate with the previous observation value determined to be tracking may be used as the tracking success probability.

次いで、ステップS607の処理では、ID識別処理部101cのデータアソシエーション値取得部101cfが、追跡元となっている観測値に割り振られているデータアソシエーション値を取得している。尚、データアソシエーション値とは、物体位置推定部105の処理を行う過程でID識別処理部101cのデータアソシエーション値取得部101cfにより算出される値である。また、前記観測値は、どの人202を検出して得られた観測値であるかを、確率的に表す値である。尚、物体位置推定部105についての説明は後述する。図7によると、観測値CAM_03の追跡元の観測値は、CAM_01であり(上述したように色特徴量により判断)である。更に図8によると、観測値CAM_01のTAG_01に対するデータアソシエーション値が0.3であり、TAG_02に対するデータアソシエーション値が0.7である。   Next, in the process of step S607, the data association value acquisition unit 101cf of the ID identification processing unit 101c acquires the data association value assigned to the observation value that is the tracking source. The data association value is a value calculated by the data association value acquisition unit 101cf of the ID identification processing unit 101c during the process of the object position estimation unit 105. Further, the observed value is a value that stochastically indicates which person 202 is the observed value obtained by detecting. The object position estimation unit 105 will be described later. According to FIG. 7, the observed value of the observed source of the observed value CAM_03 is CAM_01 (determined by the color feature amount as described above). Further, according to FIG. 8, the data association value for TAG_01 of the observed value CAM_01 is 0.3, and the data association value for TAG_02 is 0.7.

次いで、ステップS608の処理では、ステップS604の処理で追跡中と判断された観測値について、各人202に対するID尤度に、(P/データアソシエーション値)をID識別処理部101cのID尤度割振部101cgで割り振っている。追跡成功確率(P)が0.8であったと仮定すると、観測値CAM_03の場合は、TAG_01に対するID尤度に(0.3/0.8)がID識別処理部101cのID尤度割振部101cgで割り振られ、TAG_02に対するID尤度に(0.7/0.8)がID識別処理部101cのID尤度割振部101cgで割り振られる。   Next, in the process of step S608, (P / data association value) is assigned to the ID likelihood of each person 202 for the observation value determined to be tracked in the process of step S604, and the ID likelihood allocation of the ID identification processing unit 101c. The part 101cg is assigned. Assuming that the tracking success probability (P) is 0.8, in the case of the observed value CAM_03, (0.3 / 0.8) is the ID likelihood allocation unit of the ID identification processing unit 101c in the ID likelihood for TAG_01. The ID likelihood for TAG_02 is assigned (0.7 / 0.8) by the ID likelihood allocating unit 101cg of the ID identification processing unit 101c.

次いで、ステップS609の処理では、ステップS608の処理で割り振った各人202に対するID尤度に、((1−P)/M)をID識別処理部101cの加算部101chで加算している。観測値CAM_03の場合は、TAG_01、TAG_02に対するID尤度にそれぞれ((1−0.8)/2)をID識別処理部101cの加算部101chで加算している。   Next, in the process of step S609, ((1-P) / M) is added to the ID likelihood for each person 202 allocated in the process of step S608 by the adder 101ch of the ID identification processor 101c. In the case of the observed value CAM_03, ((1-0.8) / 2) is added to the ID likelihood for TAG_01 and TAG_02 by the adder 101ch of the ID identification processor 101c.

<タグリーダの説明>
以下、前記観測装置100にタグリーダ102を用いるときの人202の検出位置とID尤度との具体的な算出方法について説明する。タグリーダ102は内部記憶部102Sを備えるように構成されている。
<Description of tag reader>
Hereinafter, a specific calculation method of the detection position of the person 202 and the ID likelihood when the tag reader 102 is used in the observation apparatus 100 will be described. The tag reader 102 is configured to include an internal storage unit 102S.

図2においてタグリーダ102を一例として用いる場合、人202の検出位置は、例えば、三点測量の原理を用いて決定することができる。具体的には、タグリーダ102の構成要素としての各アンテナの設置位置を、タグリーダ102の内部記憶部102Sなどに予め記憶させておく。そして、各アンテナの設置位置を中心として、各アンテナにより検出されたタグ203までの距離を半径とした球体を描く。このとき、各アンテナによって描かれた球面が最も多く重なり合う位置を、人202が所有しているタグ203の存在する位置とする。そして、タグリーダ102は、この位置を人202が存在する位置と判断する。   When the tag reader 102 is used as an example in FIG. 2, the detection position of the person 202 can be determined using, for example, the principle of three-point surveying. Specifically, the installation position of each antenna as a component of the tag reader 102 is stored in advance in the internal storage unit 102S of the tag reader 102 or the like. Then, a sphere having a radius of the distance to the tag 203 detected by each antenna is drawn with the installation position of each antenna as the center. At this time, a position where the spherical surfaces drawn by the antennas overlap most is a position where the tag 203 owned by the person 202 exists. Then, the tag reader 102 determines that this position is a position where the person 202 exists.

上述した通り、タグリーダ102は、タグ203に記録された人202のIDを、タグ203から直接読み取ることができる。これにより、人202のID尤度は、人202のIDである確率が1とすることができる。タグ203に人202のIDを記録しない場合は、例えばタグIDから人202のID尤度を決定できる人ID変換テーブルを用いても良い。人ID変換テーブルの例を図5に示す。図5の人ID変換テーブルでは、例えば、タグID=T4のタグを検出した場合、人ID=TAG_01の人を検出したことを示している。人ID変換テーブルは、タグリーダ102の内部記憶部102Sに記録していても良い。また、外部のデータベース(図示せず)などに記録しておき、必要に応じて、タグリーダ102が前記外部のデータベースから、必要な情報を取得して人202のID尤度を決定するようにしても良い。
As described above, the tag reader 102 can directly read the ID of the person 202 recorded on the tag 203 from the tag 203. Thereby, the probability that the ID likelihood of the person 202 is the ID of the person 202 can be 1. When the ID of the person 202 is not recorded in the tag 203, for example, a person ID conversion table that can determine the ID likelihood of the person 202 from the tag ID may be used. An example of the person ID conversion table is shown in FIG. In the person ID conversion table of FIG. 5, for example, when a tag with tag ID = T4 is detected, it indicates that a person with person ID = TAG_01 has been detected. The person ID conversion table may be recorded in the internal storage unit 102S of the tag reader 102. Further, it is recorded in an external database (not shown) or the like, and the tag reader 102 acquires necessary information from the external database and determines the ID likelihood of the person 202 as necessary. Also good.

<観測履歴データベースの説明>
図9に観測履歴データベース106の一例を示す。図9に示す観測履歴データベース106は、観測IDと、観測時刻と、検出位置と、ID尤度とがそれぞれ記録可能となっている。観測IDとは、どの観測装置100が何時検出した観測値かを識別するために示すIDである。観測時刻とは、観測値を取得した時刻である。尚、各観測装置100は、内部にタイマー(図示せず)を備えているものとする。検出位置とは、各観測装置が人202を検出した位置であり、図2の部屋201のXY座標系における位置とする。ID尤度とは、検出した人202がどのIDの人物であるらしいかを確率的に表したものである。
<Explanation of observation history database>
FIG. 9 shows an example of the observation history database 106. The observation history database 106 shown in FIG. 9 can record the observation ID, the observation time, the detection position, and the ID likelihood. The observation ID is an ID for identifying which observation device 100 detects the observed value at what time. The observation time is the time when the observation value is acquired. Note that each observation apparatus 100 includes a timer (not shown) therein. The detection position is a position where each observation device detects the person 202, and is a position in the XY coordinate system of the room 201 in FIG. The ID likelihood is a probabilistic representation of which ID the detected person 202 is likely to be.

例えば、観測ID=TAGR_01は、時刻2010:3:3:14:23:27:900に座標(280,720)で取得された観測値であって、検出したタグからTAG_01のID尤度が1であることを示している。尚、図9において、観測ID=TAGR_08,CAM_09の検出位置とID尤度には「−」が記録されているが、これは観測した結果、人202を検出することができなかったことを表している。   For example, observation ID = TAGR_01 is an observation value acquired at coordinates (280, 720) at time 2010: 3: 3: 14: 23: 27: 900, and the ID likelihood of TAG_01 is 1 from the detected tag. It is shown that. In FIG. 9, “−” is recorded in the detection position and ID likelihood of observation ID = TAGR_08, CAM_09. This indicates that the person 202 could not be detected as a result of observation. ing.

尚、カメラ101とタグリーダ102は、一例として100msec周期で観測を行っているものとし、観測履歴データベース106へも、一例として100msec毎に観測値が記録されている。また、図9中の「・・・」は、観測値を省略していることを意味する(実際には、観測履歴データベース106に記録されている)。   Note that the camera 101 and the tag reader 102 are observing at an interval of 100 msec as an example, and the observed values are recorded in the observation history database 106 every 100 msec as an example. Further, “...” In FIG. 9 means that the observation value is omitted (actually recorded in the observation history database 106).

<入退タグ判定部>
ステップS302の処理において、入退タグ判定部104は、観測履歴データベース103と位置推定履歴データベース106とに記録された情報を基に、タグ203を所持した人202の部屋201への進入と退去を判定する。上述した通り、タグリーダ102は、人202(が所持するタグ203)の識別ミスをしない。そのため、入退タグ判定部104は、タグリーダ102が取得したIDの人物が部屋201内に存在すると判定する。また、入退タグ判定部104は、タグリーダ102が取得できなかったIDの人物が部屋201内に存在しないと判定する。以下、ステップS302の処理を詳しく説明する。
<Entry / exit tag determination unit>
In the process of step S302, the entry / exit tag determination unit 104 determines whether the person 202 carrying the tag 203 enters and leaves the room 201 based on the information recorded in the observation history database 103 and the position estimation history database 106. judge. As described above, the tag reader 102 does not make an identification error of the person 202 (the tag 203 possessed by the person 202). Therefore, the entry / exit tag determination unit 104 determines that the person with the ID acquired by the tag reader 102 exists in the room 201. Further, the entry / exit tag determination unit 104 determines that there is no person in the room 201 with an ID that the tag reader 102 could not acquire. Hereinafter, the process of step S302 will be described in detail.

図9に示す観測履歴データベース106と、図10に示すフローチャートを用いて、入退タグ判定部104による進入タグ判定の説明を行う。   With reference to the observation history database 106 shown in FIG. 9 and the flowchart shown in FIG. 10, the entry tag determination by the entry / exit tag determination unit 104 will be described.

ステップS1001の処理では、タグリーダ102がN個の観測値を取得している。図9に示す観測履歴データベース103を見ると、時刻2010:3:3:14:23:27:900では、タグリーダ102は、N=2個の観測値を取得していることが分かる。   In the process of step S1001, the tag reader 102 acquires N observation values. From the observation history database 103 shown in FIG. 9, it can be seen that at time 2010: 3: 3: 14: 23: 27: 900, the tag reader 102 has acquired N = 2 observation values.

次いで、ステップS1002の処理では、入退タグ判定部104が、現在(進入タグ判定の処理、例えば、ステップS1002の処理を行うとき)、部屋201内に存在すると推定されている人物のIDを、位置推定履歴データベース106を参照することによって取得している。   Next, in the process of step S1002, the entry / exit tag determination unit 104 determines the ID of the person who is currently estimated to exist in the room 201 (when performing the entry tag determination process, for example, the process of step S1002), It is acquired by referring to the position estimation history database 106.

以降、ステップS1001の処理で得られた前記各観測値に対して処理を行う。尚、ループ1における「A」は、前記各観測値に対するインデックス番号を表しており、同一時刻に得られた観測値内において、観測値が得られた順番に、0から番号がインクリメントされるように割り振られている。   Thereafter, the process is performed on each observation value obtained in the process of step S1001. Note that “A” in loop 1 represents an index number for each observation value, and the number is incremented from 0 in the order in which the observation values were obtained within the observation values obtained at the same time. Allocated to

次いで、ステップS1003の処理では、入退タグ判定部104が、ステップS1001とS1002とで取得した情報を基に、検出されたタグ203が示す人202のIDが、部屋201内に存在すると推定されているか否かを判定している。具体的には、タグ203を検出した時刻2010:3:3:14:23:27:900の直前の時刻(前回の観測装置100の一例であるタグリーダ102の観測時刻)に、位置推定履歴データベース106が前記IDの人物の推定位置の情報を有しているか否かが、入退タグ判定部104によって判定される。入退タグ判定部104によって、前記IDの人物が存在していないと判定された場合、処理はステップS1004に進む。入退タグ判定部104によって、前記IDの人物が存在していると判定された場合、次の観測値に対してステップS1003の処理を行う。   Next, in the process of step S1003, based on the information acquired by the entrance / exit tag determination unit 104 in steps S1001 and S1002, it is estimated that the ID of the person 202 indicated by the detected tag 203 exists in the room 201. It is determined whether or not. Specifically, at the time immediately before the time 2010: 3: 3: 14: 23: 27: 900 at which the tag 203 is detected (the observation time of the tag reader 102 as an example of the previous observation device 100), the position estimation history database. It is determined by the entry / exit tag determination unit 104 whether or not 106 has information on the estimated position of the person with the ID. If the entry / exit tag determination unit 104 determines that the person with the ID does not exist, the process proceeds to step S1004. If the entry / exit tag determination unit 104 determines that a person with the ID exists, the process of step S1003 is performed on the next observation value.

ループ1の後、処理を終了する。   After loop 1, the process ends.

一方、ステップS1004の処理では、入退タグ判定部104が、検出されたタグ203が示す人202のIDとタグ203が検出された位置の情報とを位置推定履歴データベース106に記録している。図12に、図9の観測ID=TAGR_01とTAGR_02の観測値を用いて、入退タグ判定部104が進入タグ判定を行った結果を示す。この結果は、位置推定履歴データベース106に記憶されるデータの一例を示している。図12の位置推定履歴データベース106には、観測IDに記録されている時刻(タグ203が検出された時刻)と、タグ203が存在する推定位置が記録されている。尚、前記推定位置は、タグリーダ102の位置誤差特性に基づいて決定される。図12の例に示すタグリーダ102の場合、タグ203を検出した位置を平均位置として、分散20cmのガウス分布に則ったタグ203が示す人物が存在する確率があることを示している。尚、前記位置誤差特性は予め事前実験などを行うことによって把握してあるものとする。また、図12中の、N(0,Q)は、平均0、分散Qのガウス分布を表している。その後、ループ1に進む。   On the other hand, in the process of step S1004, the entry / exit tag determination unit 104 records the ID of the person 202 indicated by the detected tag 203 and the information on the position where the tag 203 is detected in the position estimation history database 106. FIG. 12 shows the result of entry / exit tag determination unit 104 performing entry tag determination using the observation values of observation ID = TAGR_01 and TAGR_02 in FIG. This result shows an example of data stored in the position estimation history database 106. In the position estimation history database 106 of FIG. 12, the time recorded in the observation ID (the time when the tag 203 is detected) and the estimated position where the tag 203 exists are recorded. The estimated position is determined based on the position error characteristic of the tag reader 102. In the case of the tag reader 102 shown in the example of FIG. 12, it is indicated that there is a probability that a person indicated by the tag 203 conforming to a Gaussian distribution with a variance of 20 cm exists with the position where the tag 203 is detected as an average position. It is assumed that the position error characteristic is obtained in advance by conducting a preliminary experiment or the like. In FIG. 12, N (0, Q) represents a Gaussian distribution with an average of 0 and a variance Q. Then, go to loop 1.

次に、図11に示すフローチャートを用いて、入退タグ判定部104による退去タグ判定の説明を行う。   Next, the exit tag determination by the entrance / exit tag determination unit 104 will be described using the flowchart shown in FIG.

ステップS1101の処理では、タグリーダ102が観測値を取得している。   In the process of step S1101, the tag reader 102 acquires an observation value.

ステップS1102の処理では、入退タグ判定部104が、現在(退去タグ判定の処理、例えば、ステップS1102の処理を行うとき)、部屋201内に存在すると推定されているタグを所持した人202のID数を、位置推定履歴データベース106を参照することによって取得している。   In the process of step S1102, the entry / exit tag determination unit 104 currently has the tag of the person 202 possessing the tag that is estimated to be present in the room 201 (when performing the process of exit tag determination, for example, the process of step S1102). The number of IDs is acquired by referring to the position estimation history database 106.

以降、ステップS1001の処理で得られた前記各観測値に対して処理を行う。尚、ループ1における「A」は、前記各観測値に対するインデックス番号を表しており、同一時刻に得られた観測値内において、観測値が得られた順番に、0から番号がインクリメントされるように割り振られている。   Thereafter, the process is performed on each observation value obtained in the process of step S1001. Note that “A” in loop 1 represents an index number for each observation value, and the number is incremented from 0 in the order in which the observation values were obtained within the observation values obtained at the same time. Allocated to

次いで、ステップS1103の処理では、入退タグ判定部104が、ステップS1101とS1102とで取得した情報を基に、現在(退去タグ判定の処理、例えば、ステップS1103の処理を行うとき)、部屋201内に存在すると推定されている人202のIDを示すタグ203を、タグリーダ102が検出しているか否かを判定している。具体的には、タグ203を検出した時刻の直前の時刻(前回の観測装置100の一例であるタグリーダ102の観測時刻)に、入退タグ判定部104が、位置推定履歴データベース106に記録されているタグIDを示すタグ203がタグリーダ102で検出されているか否かを判定する。前記タグIDを示すタグ203がタグリーダ102で検出されていないと入退タグ判定部104で判定された場合、処理はステップS1104に進む。前記タグIDを示すタグ203がタグリーダ102で検出されていると入退タグ判定部104で判定された場合、次の観測値に対してステップS1003の処理を行う。   Next, in the process of step S1103, the entrance / exit tag determination unit 104 is currently in the room 201 (when performing the process of exit tag determination, for example, the process of step S1103) based on the information acquired in steps S1101 and S1102. It is determined whether or not the tag reader 102 has detected the tag 203 indicating the ID of the person 202 that is estimated to exist within the tag. Specifically, the entry / exit tag determination unit 104 is recorded in the position estimation history database 106 at a time immediately before the time when the tag 203 is detected (an observation time of the tag reader 102 which is an example of the previous observation apparatus 100). It is determined whether or not the tag 203 indicating the existing tag ID is detected by the tag reader 102. If the entry / exit tag determination unit 104 determines that the tag 203 indicating the tag ID has not been detected by the tag reader 102, the process proceeds to step S1104. If the tag reader 102 detects that the tag 203 indicating the tag ID is detected by the entry / exit tag determination unit 104, the process of step S1003 is performed on the next observation value.

ループ1の後、処理を終了する。   After loop 1, the process ends.

一方、ステップS1104の処理では、ステップS1103の処理において、入退タグ判定部104は、タグリーダ102が検出していないと判定されたタグ203が示す人202が、部屋201から退去したと判定する。人202が退去して部屋201内には存在しないことを、例えば、「−」などという記号を用いて表現するように、位置推定履歴データベース106に記録しても良い。図13に、人202が部屋201に存在していない状況を表現した位置推定履歴データベース106を示す。   On the other hand, in the process of step S1104, in the process of step S1103, the entry / exit tag determination unit 104 determines that the person 202 indicated by the tag 203 determined not to be detected by the tag reader 102 has left the room 201. The fact that the person 202 has left and does not exist in the room 201 may be recorded in the position estimation history database 106 so as to be expressed using a symbol such as “−”. FIG. 13 shows the position estimation history database 106 that represents a situation in which the person 202 is not present in the room 201.

尚、タグリーダ102がタグ203を検出ミスする可能性が存在する場合、例えば、ステップS1103の処理をN回連続でNOと入退タグ判定部104で判定された人202に対して、退去したと入退タグ判定部104で判定するようにしても良い。ここで、N>0でかつNは整数である。   If there is a possibility that the tag reader 102 may miss the tag 203, for example, the process of step S1103 is NO for N times consecutively and the person 202 determined by the entry / exit tag determination unit 104 has left. The determination may be made by the entry / exit tag determination unit 104. Here, N> 0 and N is an integer.

<位置尤度算出部の説明>
図3のステップS303の処理において、位置尤度算出部107は、観測履歴データベース103の各観測値に対して、位置推定履歴データベース106の情報を基に、現在(物体位置推定処理、例えば、ステップS303の処理を行うとき)、部屋201内に存在していると推定されている人202毎に位置尤度を算出する。
<Description of Position Likelihood Calculation Unit>
In the process of step S303 in FIG. 3, the position likelihood calculating unit 107 calculates the current (object position estimation process, for example, step) for each observation value in the observation history database 103 based on the information in the position estimation history database 106. When the process of S303 is performed), the position likelihood is calculated for each person 202 estimated to exist in the room 201.

位置尤度とは、現在(観測装置100が観測値を取得した時刻)、位置推定履歴データベース106の推定されている各人202の位置に基づいて、新たに観測された人202の位置(観測位置)に関して、その人202がどのIDの人202であるらしいか、を確率的に表したものである。例えば、1次元座標上の「10」の位置に人Aが存在すると推定され、「20」の位置に人Bが存在すると推定され、「40」の位置に人Cが存在すると推定されていたとする。この状況において、「0」の位置に人を検出したとする。このときの位置尤度は、例えば、位置尤度算出部107により、位置推定履歴データベース106の各人A,B,Cの推定位置からの距離の逆数を取り、正規化を行うことで、位置尤度算出部107により算出することができる。このとき、位置尤度算出部107が、人Aである確率が0.58、人Bである確率が0.28、人Cである確率が0.14と算出する。尚、これは位置尤度を決定する一例であり、本発明はこれに限るものではない。例えば、推定中の人202の(予測分布における)分散共分散行列を考慮した(式1)に基づいて位置尤度算出部107が位置尤度を求めても良い。POS_LLとは、位置尤度のことである。xは観測位置であり、μは人202の推定位置である。またσは、人202の予測分布における分散である。尚、予測分布の詳細については、物体位置推定部105にて説明する。   The position likelihood is the position (observation) of the newly observed person 202 based on the estimated position of each person 202 in the position estimation history database 106 at present (the time when the observation device 100 acquires the observation value). In regard to (position), it is a probability representation of which ID 202 the person 202 is likely to be. For example, it is estimated that the person A exists at the position “10” on the one-dimensional coordinate, the person B is estimated at the position “20”, and the person C is estimated at the position “40”. To do. In this situation, it is assumed that a person is detected at the position “0”. The position likelihood at this time is obtained by, for example, obtaining the reciprocal of the distance from the estimated position of each person A, B, C in the position estimation history database 106 by the position likelihood calculating unit 107 and performing normalization. It can be calculated by the likelihood calculating unit 107. At this time, the position likelihood calculation unit 107 calculates the probability that the person A is 0.58, the probability that the person B is 0.28, and the probability that the person C is 0.14. This is an example of determining the position likelihood, and the present invention is not limited to this. For example, the position likelihood calculating unit 107 may obtain the position likelihood based on (Equation 1) in consideration of the variance-covariance matrix (in the predicted distribution) of the person 202 being estimated. POS_LL is position likelihood. x is an observation position, and μ is an estimated position of the person 202. Σ is a variance in the predicted distribution of the person 202. Details of the predicted distribution will be described in the object position estimation unit 105.

Figure 2013253779
Figure 2013253779

<相関値算出部の説明>
次いで、ステップS304の処理において、相関値算出部108は、観測履歴データベース103に記録された各観測値に対して、位置推定履歴データベース106の情報を基に、現在(物体位置推定処理、例えば、ステップS304の処理を行うとき)、部屋201内に存在していると推定されている人202毎に相関値を算出する。
<Description of Correlation Value Calculation Unit>
Next, in the process of step S304, the correlation value calculation unit 108 calculates the current (object position estimation process, for example, for each observation value recorded in the observation history database 103 based on the information in the position estimation history database 106. When the process of step S304 is performed), a correlation value is calculated for each person 202 estimated to be present in the room 201.

相関値とは、各観測値に対して、現在(観測装置100が観測値を取得した時刻)、推定されている各人202の中のどの人202を検出することによって得られた観測値であるか、を確率的に表したものである。具体的には、相関値は、IDの尤度と位置の尤度を掛けた値であり、(観測値数×人物数)分の相関値を相関値算出部108で計算することとなる。図15に、時刻2010:3:3:14:23:28:000に取得されたカメラ101の観測値と人202との相関値の例を示す。   The correlation value is an observation value obtained by detecting which person 202 among each person 202 currently estimated (the time when the observation apparatus 100 acquires the observation value) for each observation value. It is a probability representation of whether or not there is. Specifically, the correlation value is a value obtained by multiplying the likelihood of ID by the likelihood of position, and the correlation value calculation unit 108 calculates correlation values for (the number of observed values × the number of persons). FIG. 15 shows an example of the correlation value between the observation value of the camera 101 and the person 202 acquired at time 2010: 3: 3: 14: 23: 28: 00.

<進入物体候補算出部の説明>
ステップS305の処理において、進入物体候補算出部109は、相関値算出部108での算出結果に基づき、部屋201内に進入した人202の候補を算出する。進入物体候補算出部109は、図1Cに示すように、第1推定位置数比較部109aと、進入物体候補数算出部109bと、進入物体判断部109cとを備えている。第1推定位置数比較部109aは、観測装置毎の観測値数と物体の推定位置数とを比較する。進入物体候補数算出部109bは、前記第1推定位置数比較部109aでの比較結果に基づき観測値数が物体の推定位置数よりも多かった場合、観測値数と物体の推定位置数の差分数を観測装置100が検出した進入物体候補数として算出する。進入物体判断部109cは、各観測値について、相関値の最大値が低い順に、進入物体候補数算出部109bで算出された進入物体候補数分だけ、観測値の観測位置に進入物体を検出したと判断する。ここで、物体の推定位置数とは、観測値が得られた時刻において、位置推定履歴データベース106に推定位置が記録されている物体の個数を意味する。観測値が得られた時刻の位置推定結果は、まだ、位置推定履歴データベース106に記録されていないため(位置推定は、最後の処理のステップS308であるため)、前回観測値が得られた時刻での推定結果がある物体数を表している。よって、具体的な例では、位置推定履歴データベース106に「−」と記録されている物体は数に含まないことになる。
<Description of the approaching object candidate calculation unit>
In the process of step S <b> 305, the approaching object candidate calculation unit 109 calculates a candidate for the person 202 who has entered the room 201 based on the calculation result of the correlation value calculation unit 108. As shown in FIG. 1C, the approaching object candidate calculation unit 109 includes a first estimated position number comparison unit 109a, an approaching object candidate number calculation unit 109b, and an approaching object determination unit 109c. The first estimated position number comparison unit 109a compares the number of observation values for each observation device with the estimated number of positions of the object. If the number of observed values is larger than the estimated number of positions of the object based on the comparison result in the first estimated position number comparing section 109a, the approaching object candidate number calculating section 109b is the difference between the observed value number and the estimated position number of the object. The number is calculated as the number of approaching object candidates detected by the observation apparatus 100. The approaching object determination unit 109c detects the approaching object at the observation position of the observation value by the number of approaching object candidates calculated by the approaching object candidate number calculation unit 109b in order of the maximum correlation value for each observation value. Judge. Here, the number of estimated positions of the object means the number of objects whose estimated positions are recorded in the position estimation history database 106 at the time when the observed value is obtained. Since the position estimation result at the time when the observed value was obtained has not yet been recorded in the position estimation history database 106 (because the position estimation is step S308 of the last process), the time when the previous observed value was obtained This represents the number of objects with the estimation result at. Therefore, in a specific example, the number of objects recorded as “-” in the position estimation history database 106 is not included in the number.

具体的な処理内容を、図9の観測履歴データベース103と図14の位置推定履歴データベース106と図15の相関値の例を用いて説明する。   Specific processing contents will be described using the observation history database 103 in FIG. 9, the position estimation history database 106 in FIG. 14, and the correlation values in FIG.

先ず、進入物体候補算出部109の第1推定位置数比較部109aが、観測履歴データベース103から相関値算出部108を介して、カメラ101の観測値数を取得する。例えば、図9の観測履歴データベース103に示すように、時刻2010:3:3:14:23:28:000では、カメラ101は、3個の観測値(CAM_03,CAM_04,CAM_05)を取得している。これを、観測履歴データベース103から相関値算出部108を介して第1推定位置数比較部109aが取得する。   First, the first estimated position number comparison unit 109 a of the approaching object candidate calculation unit 109 acquires the number of observation values of the camera 101 from the observation history database 103 via the correlation value calculation unit 108. For example, as shown in the observation history database 103 in FIG. 9, at the time 2010: 3: 3: 14: 23: 28: 00, the camera 101 acquires three observation values (CAM_03, CAM_04, CAM_05). Yes. The first estimated position number comparison unit 109a acquires this from the observation history database 103 via the correlation value calculation unit 108.

次に、現在(物体位置推定処理、例えば、ステップS305の処理を行うとき)、第1推定位置数比較部109aが、位置推定履歴データベース106から相関値算出部108を介して、推定中の人202の数を取得する。例えば、図14の位置推定履歴データベース106に示すように、時刻2010:3:3:14:23:27:900では、2人の人物(TAG_01,TAG_02)が部屋201内にいると推定されている(時刻2010:3:3:14:23:28:000の観測値が得られた時点における最新の位置推定結果は、時刻2010:3:3:14:23:27:900のものであるという意味である)。   Next, at the present time (when performing the object position estimation process, for example, the process of step S305), the first estimated position number comparison unit 109a uses the correlation value calculation unit 108 from the position estimation history database 106 to estimate the person being estimated. Get the number 202. For example, as shown in the position estimation history database 106 in FIG. 14, at time 2010: 3: 3: 14: 23: 27: 900, it is estimated that two persons (TAG — 01, TAG — 02) are in the room 201. (The latest position estimation result when the observed value at time 2010: 3: 3: 14: 23: 28: 00 is obtained is that at time 2010: 3: 3: 14: 23: 27: 900. Meaning).

このとき、第1推定位置数比較部109aで取得した情報を基に、進入物体候補算出部109の進入物体候補数算出部109bが、人202の数に対して、観測値数が1個多いことを算出する。そして、進入物体候補数算出部109bが、部屋201内に人202が1人進入してきたことを判断することができる。   At this time, based on the information acquired by the first estimated position number comparison unit 109a, the approaching object candidate number calculation unit 109b of the approaching object candidate calculation unit 109 has one more observation value than the number of people 202. Calculate that. Then, the approaching object candidate number calculation unit 109b can determine that one person 202 has entered the room 201.

進入物体候補数算出部109bが、人202の進入を判断すると、次に、進入物体候補算出部109の進入物体判断部109cにより、人202毎に最も相関値の高くなっている観測値を検出して対応付ける。図15の相関値の例では、TAG_01は観測値CAM_03と進入物体判断部109cで対応付けられる。TAG_02は観測値CAM_04と進入物体判断部109cで対応付けられる。観測値CAM_05は、どの人202とも進入物体判断部109cで対応付けられていない。   When the approaching object candidate number calculation unit 109b determines that the person 202 has entered, the approaching object determination unit 109c of the approaching object candidate calculation unit 109 detects the observation value having the highest correlation value for each person 202. To associate. In the example of the correlation value in FIG. 15, TAG_01 is associated with the observation value CAM_03 by the approaching object determination unit 109c. TAG_02 is associated with the observed value CAM_04 by the approaching object determination unit 109c. The observed value CAM_05 is not associated with any person 202 by the approaching object determination unit 109c.

その後、進入物体判断部109cが、どの人202とも対応付けられなかった観測値(CAM_05)を、部屋201内へ新規に進入してきた人202を観測して得られた観測値であると判断する。そして、観測値CAM_05の位置に、タグ203を所持していない人202が存在する可能性があることを、進入物体候補算出部109の進入物体判断部109cから入退物体判定部111に伝える。   Thereafter, the approaching object determination unit 109c determines that the observation value (CAM_05) that is not associated with any person 202 is an observation value obtained by observing the person 202 that has newly entered the room 201. . Then, the approaching object judging unit 109c of the approaching object candidate calculating unit 109 notifies the entering / leaving object judging unit 111 that there is a possibility that there is a person 202 who does not have the tag 203 at the position of the observed value CAM_05.

ここで、部屋201内に人202が初めて進入してきた場合について説明する。この場合、部屋201内には人202が存在していないと推定されている。そのため、観測値が得られたとしても、人202の推定位置が存在しないため、相関値算出部108で相関値が計算できない。そこで、部屋201内に1人も人202が存在していない場合に限り、カメラ101の観測値が得られた場合には、入退物体判定部111が、前記観測値は、全て、部屋201内へ新規に進入してきた人202であると判定する。図19に、カメラ101のみの観測値が記録されている観測履歴データベース103の一例を示す。これは、図19の観測履歴データベース103は、タグリーダ102が機能していないことを示している。時刻2010:3:3:14:23:27:900に観測値(CAM_11)と観測値(CAM_12)とが得られた状況において、人202の推定位置は存在していないため、観測値(CAM_11)と観測値(CAM_12)が得られた2箇所の位置(観測位置)に、それぞれ部屋201内へ進入してきた人202(NONTAG_01とNONTAG_02)が存在すると入退物体判定部111によって判定できる。ここで、「NONTAG_01」及び「NONTAG_02)」とは、それぞれ、タグ203を所持していない人202のIDを意味している。詳細は後述するが、実際に、NONTAG_01とNONTAG_02の追加を判定するのは、入退物体判定部111である。時刻2010:3:3:14:23:28:000になると人202の推定位置が存在するため、上述した通り各人202の推定位置との相関値に基づき対応付けを行い、対応付けが行われなかった観測値を、部屋201内へ新規に進入してきた人202を観測して得られた観測値であると入退物体判定部111で判定することができる。   Here, a case where a person 202 enters the room 201 for the first time will be described. In this case, it is estimated that no person 202 exists in the room 201. For this reason, even if an observed value is obtained, the estimated value of the person 202 does not exist, so the correlation value calculation unit 108 cannot calculate the correlation value. Therefore, when the observation value of the camera 101 is obtained only when no person 202 exists in the room 201, the entry / exit object determination unit 111 determines that the observation values are all in the room 201. It is determined that the person 202 has newly entered. FIG. 19 shows an example of the observation history database 103 in which observation values of only the camera 101 are recorded. This indicates that the tag reader 102 is not functioning in the observation history database 103 of FIG. In the situation where the observed value (CAM_11) and the observed value (CAM_12) are obtained at time 2010: 3: 3: 14: 23: 27: 900, the estimated position of the person 202 does not exist, so the observed value (CAM_11 ) And the observed value (CAM_12) can be determined by the entry / exit object determination unit 111 if there are persons 202 (NONTAG_01 and NONTAG_02) that have entered the room 201 at two positions (observation positions) at which the observed value (CAM_12) is obtained. Here, “NONTAG — 01” and “NONTAG — 02)” mean the ID of the person 202 who does not have the tag 203, respectively. Although details will be described later, it is the entry / exit object determination unit 111 that actually determines the addition of NONTAG — 01 and NONTAG — 02. Since the estimated position of the person 202 exists at time 2010: 3: 3: 14: 23: 28: 00, the association is performed based on the correlation value with the estimated position of each person 202 as described above. The entry / exit object determination unit 111 can determine that the observation value that has not been obtained is an observation value obtained by observing the person 202 who has newly entered the room 201.

以上のことから、タグリーダ102の観測値が存在しない状況においても、動作は可能である。つまり、図1Aの構成図におけるタグリーダ102と入退タグ判定部104を省いた状況においても、本物体位置推定装置90は動作が可能ということである。   From the above, the operation is possible even in the situation where the observation value of the tag reader 102 does not exist. That is, the object position estimation apparatus 90 can operate even in a situation where the tag reader 102 and the entrance / exit tag determination unit 104 in the configuration diagram of FIG. 1A are omitted.

<退去物体候補算出部の説明>
ステップS306の処理において、退去物体候補算出部110は、相関値算出部108での算出結果に基づき、部屋201内から退去した人202の候補を算出する。具体的な処理内容を、図9の観測履歴データベース103と図14の位置推定履歴データベース106と図15の相関値の例を用いて説明する。退去物体候補算出部110は、図1Dに示すように、第2推定位置数比較部110aと、退去物体候補数算出部110bと、退去物体判断部110cとを備える。第2推定位置数比較部110aは、観測装置毎の観測値数と物体の推定位置数を比較する。退去物体候補数算出部110bは、第2推定位置数比較部110aでの比較結果に基づき物体の推定位置数が観測値数よりも多かった場合、物体の推定位置数と観測値数の差分数を観測装置100が検出した退去物体候補数として算出する。退去物体判断部110cは、各物体の推定位置について、相関値の最大値が低い順に、退去物体候補数算出部110bで算出された退去物体候補数分だけ、物体が退去したと判断する。
<Description of the leaving object candidate calculation unit>
In the process of step S306, the leaving object candidate calculation unit 110 calculates a candidate for the person 202 who has left the room 201 based on the calculation result of the correlation value calculation unit 108. Specific processing contents will be described using the observation history database 103 in FIG. 9, the position estimation history database 106 in FIG. 14, and the correlation values in FIG. As shown in FIG. 1D, the leaving object candidate calculation unit 110 includes a second estimated position number comparison unit 110a, a leaving object candidate number calculation unit 110b, and a leaving object determination unit 110c. The second estimated position number comparison unit 110a compares the number of observation values for each observation apparatus with the estimated number of positions of the object. When the estimated number of positions of the object is larger than the number of observed values based on the comparison result in the second estimated position number comparing unit 110a, the number of objects to be moved away calculating unit 110b is the difference number between the estimated number of positions of the object and the number of observed values Is calculated as the number of retreat object candidates detected by the observation apparatus 100. The withdrawing object determination unit 110c determines that the object has moved out by the number of withdrawing object candidates calculated by the withdrawing object candidate number calculation unit 110b in descending order of the maximum correlation value for the estimated position of each object.

先ず、カメラ101の観測値数を、観測履歴データベース103から相関値算出部108を介して退去物体候補算出部110の第2推定位置数比較部110aが取得する。例えば、図9の観測履歴データベース103に示すように、時刻2010:3:3:14:23:29:900では、カメラ101は、2個の観測値(CAM_01,CAM_02)を取得している。これを、観測履歴データベース103から相関値算出部108を介して第2推定位置数比較部110aが取得する。   First, the number of observation values of the camera 101 is acquired from the observation history database 103 via the correlation value calculation unit 108 by the second estimated position number comparison unit 110a of the leaving object candidate calculation unit 110. For example, as shown in the observation history database 103 in FIG. 9, at the time 2010: 3: 3: 14: 23: 29: 900, the camera 101 acquires two observation values (CAM_01, CAM_02). The second estimated position number comparison unit 110a acquires this from the observation history database 103 via the correlation value calculation unit 108.

次に、現在(物体位置推定処理、例えば、ステップS306の処理を行うとき)、推定中の人202の数を、位置推定履歴データベース106から相関値算出部108を介して第2推定位置数比較部110aで取得する。例えば、図14の位置推定履歴データベース106に示すように、時刻2010:3:3:14:23:28:000では、3人の人物(TAG_01,TAG_02,NONTAG_01)が部屋201内にいると推定されている。すなわち、ここでは、タグ203を所持している二人の人202(それらのIDは「TAG_01」,「」TAG_02)と、タグ203を所持していない一人の人202(IDは「NONTAG_01」)とが部屋201内にいると推定されている。   Next, the number of persons 202 currently being estimated (when the object position estimation process, for example, the process of step S306 is performed) is compared with the second estimated position number from the position estimation history database 106 via the correlation value calculation unit 108. Obtained by the unit 110a. For example, as shown in the position estimation history database 106 in FIG. 14, it is estimated that three persons (TAG — 01, TAG — 02, NONTAG — 01) are in the room 201 at time 2010: 3: 3: 14: 23: 28: 00. Has been. That is, here, two people 202 possessing the tag 203 (their IDs are “TAG — 01” and “” TAG — 02) and one person 202 not possessing the tag 203 (the ID is “NONTAG — 01”) Are estimated to be in the room 201.

このとき、退去物体候補算出部110の退去物体候補数算出部110bが、人202の数に対して、観測値数が1個少ないことを算出する。そして、退去物体候補数算出部110bが、部屋201内から人202が1人退去したことを判断する。   At this time, the leaving object candidate number calculation unit 110b of the leaving object candidate calculation unit 110 calculates that the number of observation values is one less than the number of people 202. Then, the leaving object candidate number calculation unit 110b determines that one person 202 has left the room 201.

退去物体候補数算出部110bが、人202の退去を判断すると、次に、退去物体候補算出部110の退去物体判断部110cが、観測値毎に最も相関値の高くなっている人202を検出して対応付ける。図16の相関値の例では、観測値CAM_06はTAG_01と退去物体判断部110cによって対応付けられ、観測値CAM_07はTAG_02と退去物体判断部110cによって対応付けられる。人202(NONTAG_01)は、どの観測値とも退去物体判断部110cで対応付けられていない。   When the moving object candidate number calculation unit 110b determines that the person 202 has moved, the moving object determination unit 110c of the moving object candidate calculation unit 110 detects the person 202 having the highest correlation value for each observation value. To associate. In the example of the correlation value of FIG. 16, the observed value CAM_06 is associated with TAG_01 and the leaving object determining unit 110c, and the observed value CAM_07 is associated with TAG_02 and the leaving object determining unit 110c. The person 202 (NONTAG_01) is not associated with any observation value in the retreated object determination unit 110c.

その後、退去物体判断部110cが、どの観測値とも対応付けられなかった人202(NONTAG_01)を、部屋201から退去した人202であると判定する。そして、退去物体候補算出部110の退去物体判断部110cが、前記人202(NONTAG_01)が部屋201から退去した可能性があることを入退判定部111に伝える。   Thereafter, the leaving object determination unit 110c determines that the person 202 (NONTAG — 01) that has not been associated with any observation value is the person 202 who has left the room 201. Then, the leaving object determination unit 110c of the leaving object candidate calculation unit 110 notifies the entrance / exit determination unit 111 that the person 202 (NONTAG — 01) may have left the room 201.

ここで、部屋201内から人202が全員退去した直後の場合について説明する。この場合、人202が全員部屋201から退去し、観測値が得られないため、相関値算出部108において相関値が計算できない。そこで、観測値が1個も取得できていない場合に限り、入退物体判定部111が、全ての人202を、部屋201から退去した人202であると判定する。   Here, a case immediately after all the people 202 have left the room 201 will be described. In this case, since all the people 202 leave the room 201 and no observation value is obtained, the correlation value calculation unit 108 cannot calculate the correlation value. Therefore, the entry / exit object determination unit 111 determines that all the persons 202 are persons 202 who have left the room 201 only when no observation value has been acquired.

<入退物体判定部の説明>
ステップS307の処理において、入退判定部111は、進入物体候補算出部109及び退去物体候補算出部110が出力した結果を、位置推定履歴データベース106に記録する。
<Description of entry / exit object determination unit>
In the process of step S307, the entry / exit determination unit 111 records the results output by the approaching object candidate calculation unit 109 and the leaving object candidate calculation unit 110 in the position estimation history database 106.

例えば、図9の時刻2010:3:3:14:23:28:000において、部屋201に新規に進入した人202を観測して取得された観測値と判断された観測値CAM_005の情報を、進入物体候補算出部109から入退判定部111が受け取ったとする。   For example, at time 2010: 3: 3: 14: 23: 28: 00 in FIG. 9, information on the observation value CAM_005 determined to be an observation value obtained by observing a person 202 newly entering the room 201 is obtained as follows: Assume that the entry / exit determination unit 111 receives the entry object candidate calculation unit 109.

すると、入退判定部111は、未だ位置推定履歴データベース106に記録されたことのない、タグ203を所持していない人202を表すIDを決定する。例えば、位置推定履歴データベース106を入退判定部111が参照し、未だ使用されていないIDを入退判定部111が算出して決定する。図9に示すように、時刻2010:3:3:14:23:27:900時点ではタグ203を所持していない人202を表すIDは記録されていないため、入退判定部111が、部屋201に新規に進入してきた人202を表すIDをNONTAG_01であると決定する。次回観測以降、入退判定部111が、タグ203を所持していない人202を表すIDを、NONTAG_02,NONTAG_03,・・・と決定することができる。   Then, the entry / exit determination unit 111 determines an ID representing a person 202 who has not yet been recorded in the position estimation history database 106 and does not have the tag 203. For example, the entrance / exit determination unit 111 refers to the position estimation history database 106, and the entrance / exit determination unit 111 calculates and determines an ID that is not yet used. As shown in FIG. 9, at time 2010: 3: 3: 14: 23: 27: 900, the ID representing the person 202 who does not have the tag 203 is not recorded. It is determined that the ID representing the person 202 who has newly entered 201 is NONTAG_01. After the next observation, the entry / exit determination unit 111 can determine the IDs representing the person 202 who does not have the tag 203 as NONTAG — 02, NONTAG — 03,.

部屋201に進入してきた人202のIDが入退判定部111によって決定されると、前記IDの人202が、観測値CAM_005が観測された位置を平均位置とした、分散15cmのガウス分布に従い存在する可能性がある。そのため、入退判定部111が、前記IDの人202を位置推定履歴データベース106に記録する(図14参照)。   When the ID of the person 202 who has entered the room 201 is determined by the entry / exit determination unit 111, the person 202 with the ID exists according to a Gaussian distribution with a variance of 15 cm, with the position where the observed value CAM_005 is observed as the average position. there's a possibility that. Therefore, the entry / exit determination unit 111 records the person 202 with the ID in the position estimation history database 106 (see FIG. 14).

図9に示すように、更に次の時刻2010:3:3:14:23:29:900において、部屋201から退去した人202(NONTAG_01)の情報を、入退判定部111が退去物体候補算出部110から受け取ったとする。   As shown in FIG. 9, at the next time 2010: 3: 3: 14: 23: 29: 900, the entry / exit determination unit 111 calculates the information of the person 202 who has left the room 201 (NONTAG — 01). Suppose that it is received from the unit 110.

すると、入退判定部111は、NONTAG_01が示す人202は部屋201から退去したことを、位置推定履歴データベース106に記録する(例えば、図14に示すように、「−」の記号などを用いることで、人202が部屋201内に存在しないことを示すことができる)。   Then, the entry / exit determination unit 111 records in the position estimation history database 106 that the person 202 indicated by NONTAG — 01 has left the room 201 (for example, using a symbol “−” as shown in FIG. 14). Can indicate that the person 202 is not present in the room 201).

ここで、カメラ101には、人202の検出ミスと人202以外の物体を人202として検出してしまう過検出の問題がある。また、タグリーダ102にもタグ203の検出ミスの可能性が存在する。このような場合、進入物体候補検出部109から2回連続で同じ観測値(色特徴量等により同一人物を観測して得られたと判断できる観測値)が進入候補として挙がってきている場合にのみ、前記観測値を入退物体判定部111の処理に使用するなどとすることができる。また、同様に、退去物体候補検出部110から2回連続で同じ人202(例えば、NONTAG_01など)が退去候補として挙がってきている場合にのみ、前記人202を入退物体判定部111の処理に使用するとしても良い。   Here, the camera 101 has a detection error of the person 202 and an overdetection problem that detects an object other than the person 202 as the person 202. The tag reader 102 also has a possibility of a detection error of the tag 203. In such a case, only when the same observation value (observation value that can be determined to have been obtained by observing the same person by color feature amount, etc.) has been listed as an entry candidate twice consecutively from the approaching object candidate detection unit 109. The observation value can be used for the processing of the entry / exit object determination unit 111. Similarly, only when the same person 202 (for example, NONTAG — 01) has been listed as a leaving candidate twice consecutively from the leaving object candidate detection unit 110, the person 202 is included in the processing of the entering / leaving object determination unit 111. It may be used.

ここで、カメラ101が2台設置されており、互いに重複する観測範囲を持っていた場合について説明する。この場合、上記の方法では、1台目のカメラと2台目のカメラが共に、人202の部屋201への進入を観測した場合、各カメラの観測値に基づいて進入物体数が2人となってしまう。そこで、カメラ101が、互いに重複する観測範囲を持っていた場合については、入退判定部111を図1Eに示すように、進入物体数算出部111aと、第1クラスタリング部111bと、ID尤度和算出部111cと、物体進入判定部111dとを備えるように構成する。   Here, a case where two cameras 101 are installed and they have observation ranges overlapping each other will be described. In this case, in the above method, when both the first camera and the second camera observe the person 202 entering the room 201, the number of entering objects is two based on the observation value of each camera. turn into. Therefore, when the cameras 101 have overlapping observation ranges, as shown in FIG. 1E, the entrance / exit determination unit 111 has an approaching object number calculation unit 111a, a first clustering unit 111b, and an ID likelihood. A sum calculation unit 111c and an object entry determination unit 111d are provided.

進入物体数算出部111aは、入退物体候補検出部92が観測装置毎に出力した進入物体候補数の平均値又は最大値を、進入物体数として算出する。   The approaching object number calculation unit 111a calculates the average value or the maximum value of the approaching object candidate numbers output by the entry / exit object candidate detection unit 92 for each observation device as the approaching object number.

第1クラスタリング部111bは、進入物体候補検出部109が検出した全ての進入物体を、クラスタ数が、進入物体数算出部111aで算出された進入物体数となるように位置に関してクラスタリングする。   The first clustering unit 111b clusters all the entering objects detected by the entering object candidate detecting unit 109 with respect to the positions so that the number of clusters becomes the number of entering objects calculated by the entering object number calculating unit 111a.

ID尤度和算出部111cは、第1クラスタリング部111bでクラスタリングしたクラスタに属する各進入物体の観測値に含まれるID尤度について、ID毎に和を算出する。   The ID likelihood sum calculation unit 111c calculates the sum for each ID for the ID likelihood included in the observed values of the approaching objects belonging to the cluster clustered by the first clustering unit 111b.

物体進入判定部111dは、ID尤度和算出部111cで算出されかつ推定位置が存在しない物体に対するID尤度の和の中で、ID尤度が最も値の高いIDの物体がクラスタの平均位置に進入したと判定する。   The object approach determination unit 111d calculates the average position of the cluster with the ID having the highest ID likelihood among the sums of the ID likelihoods calculated for the object with the estimated position calculated by the ID likelihood sum calculation unit 111c. It is determined that the vehicle has entered.

以下、これらの構成要素の動作について説明する。   Hereinafter, the operation of these components will be described.

例えば、第1カメラ101Aが座標1〜10までを観測範囲とし、第2カメラ101Bが座標6〜15までを観測範囲としている場合を考える(説明を簡単にするため、1次元で説明を行う)。つまり、第1カメラ101Aのみが観測している範囲(1〜5)と、第1カメラ101Aと第2カメラ101Bとが互いに重複する観測範囲(6〜10)と、第2カメラ101Bのみが観測している範囲(11〜15)とが存在することとなる。   For example, consider a case in which the first camera 101A has an observation range from coordinates 1 to 10 and the second camera 101B has an observation range from coordinates 6 to 15 (in order to simplify the description, the description will be given in one dimension). . That is, the range (1-5) observed only by the first camera 101A, the observation range (6-10) where the first camera 101A and the second camera 101B overlap each other, and only the second camera 101B observed Range (11-15) is present.

このとき、先ず、各観測している範囲(観測範囲)内で観測された観測値と、対応する観測範囲内に存在すると推定されている人202との間でのみ、前記相関値を相関値算出部108で算出する。そして、相関値算出部108で算出された前記相関値に基づいて、進入物体候補算出部109と退去物体候補算出部110とで、部屋201への進入物体と部屋201からの退去物体をそれぞれ判定する。   At this time, first, the correlation value is calculated only between the observed value observed in each observed range (observed range) and the person 202 estimated to exist in the corresponding observed range. Calculation is performed by the calculation unit 108. Then, based on the correlation value calculated by the correlation value calculation unit 108, the approaching object candidate calculation unit 109 and the leaving object candidate calculation unit 110 determine the approaching object to the room 201 and the leaving object from the room 201, respectively. To do.

前記重複する観測範囲における部屋201への進入物体の判定方法について説明する。   A method for determining an object entering the room 201 in the overlapping observation range will be described.

前記重複する観測範囲で取得されている観測値に対して、各カメラ101A,101Bが取得した観測値に基づいて判定された、進入物体候補数の平均値を入退判定部111の進入物体数算出部111aで算出する。例えば、第1カメラ101Aの観測値によって2個の進入物体候補が出力され、第2カメラ101Bの観測値によって4個の進入物体候補が出力された場合、進入物体数算出部111aにより、進入物体候補数の平均値は3個(=(2+4)/2)となる。このとき、重複する観測範囲において、進入物体を観測して得られたものであると判定された観測値は合計で6個(=(2+4))ある。この6個の観測値を、位置に関して3個のクラスタになるようにクラスタリングを入退判定部111の第1クラスタリング部111bで行う。そして、第1クラスタリング部111bでのクラスタリング終了後、各クラスタに属する観測値の重心位置を進入物体の存在する位置として入退判定部111のID尤度和算出部111cで算出して、入退判定部111の物体進入判定部111dで判定する。ここで、進入物体候補数の平均値を用いる理由は、第1(第2)カメラ101A(101B)の検出ミスと過検出との可能性を考慮したためである。   The average number of approaching object candidates determined based on the observation values acquired by the cameras 101A and 101B with respect to the observation values acquired in the overlapping observation range is the number of entering objects of the entrance / exit determination unit 111. Calculation is performed by the calculation unit 111a. For example, when two approaching object candidates are output according to the observation value of the first camera 101A and four approaching object candidates are output according to the observation value of the second camera 101B, the approaching object number calculation unit 111a causes the approaching object The average value of the number of candidates is 3 (= (2 + 4) / 2). At this time, there are a total of six (= (2 + 4)) observation values determined to be obtained by observing the approaching object in the overlapping observation range. Clustering is performed by the first clustering unit 111b of the entrance / exit determination unit 111 so that the six observation values become three clusters with respect to the position. Then, after the end of clustering in the first clustering unit 111b, the center of gravity position of the observation values belonging to each cluster is calculated as the position where the approaching object exists by the ID likelihood sum calculation unit 111c of the entry / exit determination unit 111, and the entry / exit is calculated. The object approach determination unit 111d of the determination unit 111 makes the determination. Here, the reason why the average value of the number of entering object candidates is used is that the possibility of detection error and overdetection of the first (second) camera 101A (101B) is taken into consideration.

前記重複する観測範囲における、部屋201からの退去物体の判定方法について説明する。退去物体候補算出部110が、第1カメラ101Aと第2カメラ101Bの両観測値において、同じ人202を示すIDを退去候補物体として出力した場合に、前記IDが示す人202を退去物体であると判断する。また、部屋201内に3台以上のカメラ101が設置されていた場合、退去物体候補算出部110が、各カメラ観測値の過半数において、同じ人202を示すIDを退去候補物体として出力した場合に、前記IDが示す人202を退去物体であると判断しても良い。   A method for determining an object that has left the room 201 in the overlapping observation range will be described. When the leaving object candidate calculation unit 110 outputs an ID indicating the same person 202 as a leaving candidate object in both observation values of the first camera 101A and the second camera 101B, the person 202 indicated by the ID is a leaving object. Judge. In addition, when three or more cameras 101 are installed in the room 201, the retreated object candidate calculation unit 110 outputs an ID indicating the same person 202 as a retirement candidate object in a majority of the camera observation values. The person 202 indicated by the ID may be determined to be a leaving object.

前記重複する観測範囲以外における部屋201への進入物体の判定、及び部屋201からの退去物体の判定方法に関しては、カメラが1台のケースにおいて説明した方法と同じで良い。   The method for determining an object entering the room 201 outside the overlapping observation range and a method for determining an object leaving the room 201 may be the same as the method described in the case of one camera.

<物体位置推定部の説明>
ステップS308の処理において、物体位置推定部105は、位置推定履歴データベース106に記録された情報を基に、部屋201内に存在する人202の位置の推定を行う。
<Description of the object position estimation unit>
In the process of step S308, the object position estimating unit 105 estimates the position of the person 202 existing in the room 201 based on the information recorded in the position estimation history database 106.

具体的には、どの人202を見て得られた観測値なのかを決定するアソシエーション問題を物体位置推定部105が解き、人202の位置の更新に使用する観測値を物体位置推定部105が決定する。その後、カルマンフィルタなどに代表されるベイズフィルタリングの処理を物体位置推定部105で行うことによって、物体位置推定部105が人202の位置の推定(更新)を行うこととなる。   Specifically, the object position estimator 105 solves the association problem that determines which person 202 is the observed value, and the object position estimator 105 uses the observed value used to update the position of the person 202. decide. Thereafter, the object position estimation unit 105 performs estimation (update) of the position of the person 202 by performing the Bayes filtering process represented by the Kalman filter or the like in the object position estimation unit 105.

アソシエーション問題の解法であるが、まず、エビデンス値を物体位置推定部105にて算出する。尚、エビデンス値とは、上述した相関値と同等である(説明の便宜上、用語を使い分けているだけである)。次に、算出したエビデンス値を(各観測値について、全てのIDへのエビデンス値の和が1となるように)正規化しアソシエーション値を物体位置推定部105にて得る。そして、各人202について、アソシエーション値が最大となる観測値のみを物体位置推定部105にて使用し、物体位置推定部105がカルマンフィルタなどにより位置の推定を行う。尚、これは、位置の推定に利用する観測値を決定する一例であり、本発明はこれに限るものではない。例えば、使用する観測値は、アソシエーション値が閾値以上となる観測値としても良い。また、観測値は全て使用し、位置の推定を行う際にアソシエーション値で位置の更新量に重みを付ける様にしても良い。アソシエーション値による重み付け方法に関しては後述する。   As a method for solving the association problem, first, an evidence value is calculated by the object position estimation unit 105. The evidence value is equivalent to the correlation value described above (for convenience of explanation, only terms are used properly). Next, the calculated evidence value is normalized (so that the sum of the evidence values for all IDs is 1 for each observed value), and the association value is obtained by the object position estimation unit 105. Then, for each person 202, only the observation value with the maximum association value is used in the object position estimation unit 105, and the object position estimation unit 105 estimates the position using a Kalman filter or the like. This is an example of determining an observation value used for position estimation, and the present invention is not limited to this. For example, the observation value to be used may be an observation value whose association value is equal to or greater than a threshold value. Alternatively, all of the observation values may be used, and the position update amount may be weighted with the association value when the position is estimated. The weighting method using the association value will be described later.

以下に、カルマンフィルタについての説明を行う。   Hereinafter, the Kalman filter will be described.

カルマンフィルタとは、物体位置推定システムの状態(本発明の第1実施形態においては、例えば、物体の位置)の情報、及び、カメラ101の観測値の双方にノイズが含まれるという仮定の基に、尤もらしい物体位置推定システム90の状態を物体位置推定部105によって推定するものである。   The Kalman filter is based on the assumption that both the information of the state of the object position estimation system (for example, the position of the object in the first embodiment of the present invention) and the observation value of the camera 101 include noise. The object position estimation unit 105 estimates the state of the likely object position estimation system 90.

図17に、物体位置推定処理にカルマンフィルタを利用した例を示す。縦軸は確率、横軸は物体の位置を表す。   FIG. 17 shows an example in which a Kalman filter is used for object position estimation processing. The vertical axis represents the probability, and the horizontal axis represents the position of the object.

物体が(式2)に表されるような移動を行うとき、カメラ101は、(式3)で求められる観測値1703を得ることができる。ここで、Aは物体の運動モデル、xは物体の物体位置、vは移動の際に生じるプロセスノイズを表している。また、yは観測値、Hは物体位置xと観測値yを対応付ける観測モデル、wは観測ノイズ、tは時間を表している。よって、Aは時間tでの物体の運動モデル、x、xt−1はそれぞれ時間t及び時間t−1での物体位置、vは時間tでの、移動の際に生じるプロセスノイズを表している。また、yは時間tでの観測値、Hは時間tでの物体位置xと観測値yを対応付ける観測モデル、wは時間tでの観測ノイズである。 When the object moves as represented by (Expression 2), the camera 101 can obtain the observed value 1703 obtained by (Expression 3). Here, A represents the motion model of the object, x represents the object position of the object, and v represents the process noise generated during movement. Further, y represents an observation value, H represents an observation model that associates the object position x with the observation value y, w represents observation noise, and t represents time. Accordingly, the object of the motion model in A t the time t, x t, the object position in the x t-1, respectively time t and the time t-1, v t is the time t, the process noise occurring during movement Represents. Y t is an observation value at time t, H t is an observation model that associates the object position x t with the observation value y t at time t, and w t is an observation noise at time t.

Figure 2013253779
Figure 2013253779

Figure 2013253779
Figure 2013253779

ここで、プロセスノイズv及び観測ノイズwは、白色ガウスノイズとすると、p(w)は(式4)のように表されるとともに、p(v)は(式5)のように表される。尚、N(0,Q)は、平均0、分散Qのガウス分布を表している。N(0,R)も同様に、平均0、分散Rのガウス分布を表している。   Here, when the process noise v and the observation noise w are white Gaussian noises, p (w) is expressed as (Equation 4) and p (v) is expressed as (Equation 5). . N (0, Q) represents a Gaussian distribution with an average of 0 and a variance of Q. N (0, R) similarly represents a Gaussian distribution with an average of 0 and a variance of R.

Figure 2013253779
Figure 2013253779

Figure 2013253779
Figure 2013253779

観測値1703が得られると、現在(物体位置推定処理を行うとき)、得られている物体の位置に関する事前確率分布1701(以後、「事前分布」と呼ぶ。)を物体位置推定部105で更新し、予測確率分布1702(以後、「予測分布」と呼ぶ。)を物体位置推定部105で作成する。(式6)で予測分布1702の平均(位置)を物体位置推定部105で求め、(式7)で予測分布902の分散を物体位置推定部105で求めることができる。尚、xa|bは時刻bの情報を基にした時刻aのxの推定値を表す。例えば、(式6)の「xt|t−1」は時刻t−1の情報を基にした時刻tの物体位置xの推定値を表しており、(式7)の「Pdt|t−1」は時刻t−1の情報を基にした時刻tのPdの推定値を表している。また、「Pdt−1|t−1」は時刻t−1の情報を基にした時刻t−1のPdの推定値を表している。ここで、Pdは分布の分散を表している。Qは時刻tの分散を表している。 When the observation value 1703 is obtained, the object position estimation unit 105 updates the prior probability distribution 1701 (hereinafter referred to as “prior distribution”) regarding the position of the obtained object at the present time (when the object position estimation process is performed). The object position estimation unit 105 creates a prediction probability distribution 1702 (hereinafter referred to as “prediction distribution”). The average (position) of the prediction distribution 1702 can be obtained by the object position estimation unit 105 using (Expression 6), and the variance of the prediction distribution 902 can be obtained by the object position estimation unit 105 using (Expression 7). Note that x a | b represents an estimated value of x at time a based on information at time b. For example, “x t | t−1 ” in (Expression 6) represents an estimated value of the object position x at time t based on the information at time t−1, and “Pd t | t ” in (Expression 7). " -1 " represents an estimated value of Pd at time t based on information at time t-1. Further, “Pd t−1 | t−1 ” represents an estimated value of Pd at time t−1 based on the information at time t−1. Here, Pd represents the distribution of the distribution. Q t represents the variance of time t.

Figure 2013253779
Figure 2013253779

Figure 2013253779
Figure 2013253779

予測分布1702が物体位置推定部105で得られると、観測値1703と予測分布1702とから事後分布1704を物体位置推定部105で求める。(式8)で事後分布の平均(位置)を物体位置推定部105で求め、(式9)で事後分布の分散を物体位置推定部105で求めることができる。ここで、Kはカルマンゲインと呼ばれる値であり、(式10)にて物体位置推定部105で求められる。カルマンゲインは更新量を決定する値である。観測値の精度が良い(分散Rが非常に小さい)場合には、更新量を大きくするため、カルマンゲインの値は大きくなる。逆に、事前分布の精度が良い(分散Pdが非常に小さい)場合には、更新量を小さくするため、カルマンゲインの値は小さくなる。(式8)のKは時刻tのカルマンゲインを表している。「xt|t」は時刻tの情報を基にした時刻tの物体位置xの推定値を表している。(式9)の「Pdt|t」は時刻tの情報を基にした時刻tの分布の分散Pdの推定値を表している。Rは時刻tの分散Rを表している。 When the predicted distribution 1702 is obtained by the object position estimating unit 105, the posterior distribution 1704 is obtained by the object position estimating unit 105 from the observed value 1703 and the predicted distribution 1702. The average (position) of the posterior distribution can be obtained by the object position estimation unit 105 using (Equation 8), and the variance of the posterior distribution can be obtained by the object position estimation unit 105 using (Expression 9). Here, K is a value called Kalman gain, and is obtained by the object position estimation unit 105 in (Equation 10). The Kalman gain is a value that determines the update amount. When the accuracy of the observed value is good (dispersion R is very small), the value of the Kalman gain increases to increase the update amount. Conversely, when the accuracy of the prior distribution is good (dispersion Pd is very small), the value of the Kalman gain is small in order to reduce the update amount. K t in (Equation 8) represents the Kalman gain at time t. “X t | t ” represents an estimated value of the object position x at time t based on the information at time t. “Pd t | t ” in (Expression 9) represents an estimated value of the variance Pd of the distribution at time t based on the information at time t. R t represents the variance R at time t.

Figure 2013253779
Figure 2013253779

Figure 2013253779
Figure 2013253779

Figure 2013253779
Figure 2013253779

尚、アソシエーション値で人202の位置の更新量に重み付けを行う場合、(式10)を以下の(式11)に物体位置推定部105で置き換えれば良い。D人202は人202に対するアソシエーション値を表す。 When weighting the update amount of the position of the person 202 with the association value, (Equation 10) may be replaced with the following (Equation 11) by the object position estimation unit 105. D person 202 represents an association value for person 202.

Figure 2013253779
Figure 2013253779

尚、全ての観測値を用いて人202の位置を更新するには、前記処理を観測値の数だけ繰り返す必要がある。   In order to update the position of the person 202 using all the observation values, it is necessary to repeat the above process by the number of observation values.

以上のように、物体位置推定部105によって得られた人202の位置の推定結果を、位置推定履歴データベース106に記録する。図14に物体位置推定部105の推定結果の例を示す。   As described above, the estimation result of the position of the person 202 obtained by the object position estimation unit 105 is recorded in the position estimation history database 106. FIG. 14 shows an example of the estimation result of the object position estimation unit 105.

図18に、本発明の前記実施形態にかかる物体位置推定装置90を用いた監視システムの表示装置(例えば、モニターなどのディスプレイなど)95が映し出した人202の移動軌跡の例を示す。前記移動軌跡毎に人202を示すID(すなわち、TAG_01,TAG_02,NONTAG_01,NONTAG_02)が付与されている。また、前記ID(すなわち、TAG_01,TAG_02,NONTAG_01,NONTAG_02)が示す人202が観測装置100の観測範囲内のどの位置から進入し、どのような軌跡を辿り、現在(物体位置推処理を行うとき)、どの位置に存在するのかが目視で確認可能となっている。表示する軌跡は、現在(物体位置推処理を行うとき)、観測範囲内に存在すると推定されている人202の軌跡のみを表示しても良いし、ユーザが指定したIDの軌跡のみでも良い。更に、時間を指定することによって、過去観測範囲内に存在していた人202の軌跡を表示させても良い。   FIG. 18 shows an example of the movement trajectory of the person 202 displayed on the display device (for example, a display such as a monitor) 95 of the monitoring system using the object position estimation device 90 according to the embodiment of the present invention. An ID (that is, TAG — 01, TAG — 02, NONTAG — 01, NONTAG — 02) indicating the person 202 is assigned to each movement locus. Further, when the person 202 indicated by the ID (that is, TAG — 01, TAG — 02, NONTAG — 01, NONTAG — 02) enters from which position within the observation range of the observation apparatus 100, follows what trajectory, and performs the current (object position estimation process) ), It is possible to visually confirm where it exists. The trajectory to be displayed may be only the trajectory of the person 202 that is currently estimated to exist within the observation range (when the object position estimation process is performed), or only the trajectory of the ID specified by the user. Furthermore, the trajectory of the person 202 who existed in the past observation range may be displayed by specifying the time.

特に、この図18では、NONTAG_01,NONTAG_02のIDをそれぞれ有しかつタグを所持していない人202、言い換えれば、不審者とみなしうる人が、観測装置100の観測範囲内のどの位置から進入し、どのような軌跡を辿り、現在(物体位置推処理を行うとき)、どの位置に存在するのかが目視で確認可能となっている。これにより、不審者(タグを所持していない人物)の検知、及びその逃走経路の推定などを容易に行うことができる。   In particular, in FIG. 18, a person 202 who has IDs of NONTAG — 01 and NONTAG — 02 and does not have a tag, in other words, a person who can be regarded as a suspicious person enters from which position within the observation range of the observation apparatus 100. It is possible to visually confirm what kind of trajectory is traced and at which position it is present (when performing object position estimation processing). Thereby, detection of a suspicious person (person who does not possess a tag), estimation of the escape route, etc. can be performed easily.

もちろん、本発明としては、表示装置95に代えて、又は、表示装置95に加えて、必要な装置に対して前記物体位置推定結果の情報を出力可能な出力装置96を備えるようにしてもよい。   Of course, the present invention may include an output device 96 that can output information on the object position estimation result to a necessary device instead of or in addition to the display device 95. .

前記実施形態又は変形例において、物体位置推定の対象となる物体は、人物にか限定されるものではなく、動物又は物品でもよい。   In the embodiment or the modified example, the object for which the object position is to be estimated is not limited to a person but may be an animal or an article.

なお、前記様々な実施形態のうちの任意の実施形態を適宜組み合わせることにより、それぞれの有する効果を奏するようにすることができる。   It is to be noted that, by appropriately combining any of the various embodiments, the effects possessed by them can be produced.

本発明に係る物体位置推定システム、物体位置推定方法、及び物体位置推定プログラムは、タグを所持していない人物のセンシング範囲内への進入、追跡、及び退去までを推定することができる。よって、進入者に予めタグを付与しておくことが困難な店舗内での顧客の動線管理、又は、オフィスなどにおける不審者(タグを所持していない人物)の検知、及びその逃走経路の推定などに関して特に有用である。   The object position estimation system, the object position estimation method, and the object position estimation program according to the present invention can estimate until a person who does not have a tag enters, tracks, and leaves a sensing range. Therefore, it is difficult to give a tag to an ingress person in advance, the flow management of a customer in the store, or the detection of a suspicious person (person who does not have a tag) in an office, etc. and its escape route This is particularly useful for estimation.

90 物体位置推定装置
91 物体位置推定処理部
92 入退物体候補検出部
95 表示装置
96 出力装置
100 観測装置
101 カメラ
101b 画像処理部
101c ID識別処理部
101cb 比較部
101cd 算出部
101ce 追跡成功確率取得部
101cf データアソシエーション値取得部
101cg ID尤度割振部
101ch 加算部
101S 記憶部(カメラの内部記憶部)
102 Ultra Wide Band タグリーダ
103 観測履歴データベース
104 入退タグ判定部
105 物体位置推定部
106 位置推定履歴データベース
107 位置尤度算出部
108 相関値算出部
109 進入物体候補検出部
110 退去物体候補検出部
111 入退物体判定部
201 部屋
202 人
202A 人(タグ所持人物1)
202B 人(タグ所持人物2)
202C 人(タグ未所持人物1)
203 タグ
203A タグ(タグ所持人物1所持)
203B タグ(タグ所持人物2所持)
204A ドア(1)
204B ドア(2)
204C ドア(3)
1701 事前分布
1702 予測分布
1703 観測値
1704 事後分布
90 object position estimation device 91 object position estimation processing unit 92 entry / exit object candidate detection unit 95 display device 96 output device 100 observation device 101 camera 101b image processing unit 101c ID identification processing unit 101cb comparison unit 101cd calculation unit 101ce tracking success probability acquisition unit 101cf Data association value acquisition unit 101cg ID likelihood allocation unit 101ch Addition unit 101S Storage unit (internal storage unit of camera)
102 Ultra Wide Band Tag Reader 103 Observation History Database 104 Entry / Exit Tag Determination Unit 105 Object Position Estimation Unit 106 Position Estimation History Database 107 Position Likelihood Calculation Unit 108 Correlation Value Calculation Unit 109 Entry Object Candidate Detection Unit 110 Departure Object Candidate Detection Unit 111 Entry Retreated object determination unit 201 room 202 people 202A people (tag possessing person 1)
202B (person with tag 2)
202C people (tag not possessed person 1)
203 Tag 203A Tag (1 person carrying the tag)
203B tag (with 2 tag holders)
204A Door (1)
204B Door (2)
204C Door (3)
1701 Prior distribution 1702 Predicted distribution 1703 Observed value 1704 Posterior distribution

Claims (11)

環境内に存在する複数の物体を観測し、前記複数の物体のそれぞれの物体の観測位置及び各物体に対するIDの尤度情報を、観測値として出力する観測装置と、
前記各物体の推定位置と観測位置とに基づいて、前記各観測値の前記各物体に対する位置の尤度情報を算出する位置尤度算出部と、
前記IDの尤度情報と位置の尤度情報とに基づいて、前記観測値と前記各物体の推定位置との相関値を算出する相関値算出部と、
前記相関値に基づいて、前記観測装置の観測範囲内に進入した物体又は前記観測範囲内から退去した物体の候補を検出する入退物体候補検出部と、
前記入退物体候補検出部の出力結果に基づいて、前記観測装置の前記観測範囲内に進入した物体又は前記観測装置の前記観測範囲内から退去した物体を判定する入退物体判定部と、
前記入退物体判定部の判定結果に基づき、前記各物体の推定位置及びIDの尤度情報及び位置の尤度情報に基づいて、前記観測値が得られた時刻における前記各物体の位置における存在確率を前記各物体の推定位置として算出する物体位置推定部と、
を備えることを特徴とする物体位置推定システム。
An observation device that observes a plurality of objects existing in the environment, and outputs the observation position of each of the plurality of objects and the likelihood information of the ID for each object as an observation value;
A position likelihood calculating unit that calculates likelihood information of the position of each observation value with respect to each object based on the estimated position and the observation position of each object;
A correlation value calculation unit that calculates a correlation value between the observed value and the estimated position of each object based on the likelihood information of the ID and the likelihood information of the position;
Based on the correlation value, an entry / exit object candidate detection unit that detects a candidate for an object that has entered the observation range of the observation apparatus or an object that has left the observation range;
Based on the output result of the entry / exit object candidate detection unit, an entry / exit object determination unit that determines an object that has entered the observation range of the observation device or an object that has left the observation range of the observation device;
Based on the determination result of the entry / exit object determination unit, based on the estimated position of each object, the likelihood information of the ID, and the likelihood information of the position, the presence at the position of each object at the time when the observed value was obtained An object position estimating unit that calculates a probability as an estimated position of each object;
An object position estimation system comprising:
前記入退物体候補検出部は、
前記相関値に基づいて、前記観測装置の観測範囲内に進入した物体の候補を検出する進入物体候補検出部と、
前記相関値に基づいて、前記観測装置の観測範囲内から退去した物体の候補を検出する退去物体候補検出部と、
を備えている、請求項1に記載の物体位置推定システム。
The entry / exit object candidate detection unit includes:
Based on the correlation value, an approaching object candidate detection unit that detects a candidate for an object that has entered the observation range of the observation device;
Based on the correlation value, a retreated object candidate detection unit that detects a candidate for a retreated object from within the observation range of the observation device;
The object position estimation system according to claim 1, comprising:
前記観測値を、前記各物体が観測された時刻と共に記録する観測履歴データベースと、
前記各物体の推定位置の算出結果を、前記各物体が観測された時刻と共に記録する位置推定履歴データベースと、
をさらに備えている、請求項1又は2に記載の物体位置推定システム。
An observation history database that records the observed values together with the time at which each object was observed;
A position estimation history database that records the calculation result of the estimated position of each object together with the time when each object was observed;
The object position estimation system according to claim 1 or 2, further comprising:
前記観測装置は複数備えられており、
前記進入物体候補検出部は、
前記観測装置毎の観測値数と物体の推定位置数とを比較する第1推定位置数比較部と、
前記第1推定位置数比較部での比較結果に基づき前記観測値数が前記物体の推定位置数よりも多かった場合、前記観測値数と前記物体の推定位置数の差分数を前記観測装置が検出した進入物体候補数として算出する進入物体候補数算出部と、
各観測値について、相関値の最大値が低い順に、前記進入物体候補数算出部で算出された前記進入物体候補数分だけ、前記観測値の観測位置に進入物体を検出したと判断する進入物体判断部とを備えるとともに、
前記退去物体候補検出部は、
前記観測装置毎の観測値数と物体の推定位置数を比較する第2推定位置数比較部と、
前記第2推定位置数比較部での比較結果に基づき前記物体の推定位置数が前記観測値数よりも多かった場合、前記物体の推定位置数と前記観測値数の差分数を前記観測装置が検出した退去物体候補数として算出する退去物体候補数算出部と、
各物体の推定位置について、相関値の最大値が低い順に、前記退去物体候補数算出部で算出された前記退去物体候補数分だけ、前記物体が退去したと判断する退去物体判断部とを備えることを特徴とする請求項2に記載の物体位置推定システム。
A plurality of the observation devices are provided,
The approaching object candidate detection unit is
A first estimated position number comparison unit that compares the number of observed values for each observation device with the estimated number of positions of an object;
When the number of observed values is larger than the number of estimated positions of the object based on the comparison result in the first estimated position number comparing unit, the observation device determines the difference number between the number of observed values and the estimated number of positions of the object. An approaching object candidate number calculating unit that calculates the number of detected approaching object candidates;
For each observation value, an approaching object that determines that an approaching object has been detected at the observation position of the observation value by the number of approaching object candidate counts calculated by the approaching object candidate number calculation unit in order of increasing correlation value. A determination unit, and
The leaving object candidate detection unit
A second estimated position number comparison unit that compares the number of observation values for each observation device with the estimated number of positions of the object;
When the number of estimated positions of the object is larger than the number of observed values based on the comparison result in the second estimated position number comparing unit, the observation device calculates the difference number between the estimated position number of the object and the number of observed values. A retreat object candidate number calculation unit that calculates the number of detected retirement object candidates;
For each estimated position of each object, a retired object determining unit that determines that the object has retreated by the number of retired object candidates calculated by the retired object candidate number calculating unit in descending order of the maximum correlation value. The object position estimation system according to claim 2.
少なくとも一つ以上の観測装置がカメラで構成され、
少なくとも別の一つ以上の観測装置がタグリーダで構成され、
更に、前記タグリーダの観測値及び前記各物体の推定位置に基づいてタグ有物体の入退を判定し、判定結果を前記位置推定履歴データベースに記録する入退タグ判定部を備え、
前記相関値算出部及び前記入退物体候補検出部検出部及び入退物体判定部は、前記カメラが出力した観測値と、以前に前記入退物体判定部によって進入したと判断された物体の推定位置のみを用いることを特徴とする請求項1〜4のいずれか1つに記載の物体位置推定システム。
At least one observation device is composed of a camera,
At least one other observation device is composed of a tag reader,
Further, it includes an entry / exit tag determination unit that determines entry / exit of a tagged object based on the observation value of the tag reader and the estimated position of each object, and records the determination result in the position estimation history database,
The correlation value calculation unit, the entry / exit object candidate detection unit detection unit, and the entry / exit object determination unit estimate the observation value output by the camera and the object previously determined to have entered by the entry / exit object determination unit. The object position estimation system according to any one of claims 1 to 4, wherein only the position is used.
前記入退物体判定部は、
前記入退物体候補検出部が前記観測装置毎に出力した進入物体候補数の平均値又は最大値を、進入物体数として算出する進入物体数算出部と、
前記進入物体候補検出部が検出した全ての進入物体を、クラスタ数が、前記進入物体数算出部で算出された前記進入物体数となるように位置に関してクラスタリングする第1クラスタリング部と、
前記第1クラスタリング部でクラスタリングしたクラスタに属する各進入物体の観測値に含まれるID尤度について、ID毎に和を算出するID尤度和算出部と、
前記ID尤度和算出部で算出されかつ推定位置が存在しない物体に対するID尤度の和の中で、ID尤度が最も値の高いIDの物体が前記クラスタの平均位置に進入したと判定する物体進入判定部と、
前記入退物体候補検出部が前記観測装置毎に出力した退去物体候補数の平均値又は最大値を、退去物体数として算出する退去物体数算出部と、
前記退去物体候補検出部が検出した全ての退去物体を、クラスタ数が、前記退去物体数算出部で算出された前記退去物体数となるように位置に関してクラスタリングする第2クラスタリング部と、
前記第2クラスタリング部でクラスタリングした各クラスタの平均位置に退去物体が存在すると判定する退去物体存在判定部と
を備えることを特徴とする請求項1〜3の何れか1つに記載の物体位置推定システム。
The entry / exit object determination unit includes:
An entering object number calculating unit for calculating an average value or a maximum value of the number of entering object candidates output by the entry / exit object candidate detecting unit for each observation device;
A first clustering unit that clusters all the entering objects detected by the entering object candidate detecting unit with respect to positions such that the number of clusters is the number of entering objects calculated by the entering object number calculating unit;
An ID likelihood sum calculating unit that calculates a sum for each ID for the ID likelihood included in the observed values of the approaching objects belonging to the cluster clustered by the first clustering unit;
It is determined that the ID object having the highest ID likelihood has entered the average position of the cluster among the sums of ID likelihoods for the object that is calculated by the ID likelihood sum calculation unit and has no estimated position. An object entry determination unit;
A moving object number calculating unit for calculating an average value or a maximum value of the number of moving object candidates output for each observation device by the moving object candidate detecting unit;
A second clustering unit that clusters all the leaving objects detected by the leaving object candidate detection unit with respect to positions such that the number of clusters is the number of leaving objects calculated by the leaving object number calculation unit;
The object position estimation according to any one of claims 1 to 3, further comprising a leaving object presence determination unit that determines that a leaving object exists at an average position of each cluster clustered by the second clustering unit. system.
少なくとも一つ以上の観測装置がカメラで構成され、
前記カメラから前記観測値としてとして出力する各物体に対するIDの尤度情報には、前記観測履歴データベースに記録された前記観測履歴に含まれている物体の他に、前記観測履歴に含まれていない物体のIDの尤度情報が含められていることを特徴とする請求項3に記載の物体位置推定システム。
At least one observation device is composed of a camera,
The likelihood information of the ID for each object output as the observation value from the camera is not included in the observation history in addition to the object included in the observation history recorded in the observation history database. The object position estimation system according to claim 3, wherein likelihood information of an object ID is included.
前記入退物体候補検出部は、物体の推定位置が一つも存在していない場合、各観測値の観測位置に進入物体を検出したと判断することを特徴とする請求項1〜7の何れか1つに記載の物体位置推定システム。   The entry / exit object candidate detection unit determines that an entry object has been detected at an observation position of each observation value when there is no estimated position of the object. The object position estimation system as described in one. 前記入退物体候補検出部は、前記観測装置が観測した結果、観測値が1個も取得できなかった場合、全ての物体が前記観測装置の観測範囲内から退去したと判断することを特徴とする請求項1〜8の何れか1つに記載の物体位置推定システム。   The entry / exit object candidate detection unit determines that all objects have moved out of the observation range of the observation apparatus when no observation value is acquired as a result of observation by the observation apparatus. The object position estimation system according to any one of claims 1 to 8. 環境内に存在する複数の物体を観測装置でそれぞれ観測して前記複数の物体のそれぞれの物体の観測位置及び各物体に対するIDの尤度情報を、観測値として取得したのち、
位置尤度算出部により前記各物体の推定位置と観測位置とに基づいて、前記各観測値の前記各物体に対する位置の尤度情報を算出し、
相関値算出部により、前記IDの尤度情報と位置の尤度情報とに基づいて、前記観測値と前記各物体の推定位置との相関値を算出し、
入退物体候補検出部により、前記相関値に基づいて、前記観測装置の観測範囲内に進入した物体又は前記観測範囲内から退去した物体の候補を検出し、
入退物体判定部により、前記入退物体候補検出部の出力結果に基づいて、前記観測装置の前記観測範囲内に進入した物体又は前記観測装置の前記観測範囲内から退去した物体を判定し、
物体位置推定部により、前記入退物体判定部の判定結果に基づき、前記各物体の推定位置及びIDの尤度情報及び位置の尤度情報に基づいて、前記観測値が得られた時刻における前記各物体の位置における存在確率を前記各物体の推定位置として算出することを特徴とする物体位置推定方法。
After observing a plurality of objects existing in the environment with an observation device and obtaining the observation position of each of the plurality of objects and ID likelihood information for each object as observation values,
Based on the estimated position and the observed position of each object by the position likelihood calculating unit, the position likelihood information for each object of each observed value is calculated,
A correlation value calculation unit calculates a correlation value between the observed value and the estimated position of each object based on the likelihood information of the ID and the likelihood information of the position,
Based on the correlation value, the entry / exit object candidate detection unit detects an object that has entered the observation range of the observation apparatus or an object candidate that has left the observation range,
Based on the output result of the entry / exit object candidate detection unit, the entry / exit object determination unit determines an object that has entered the observation range of the observation device or an object that has left the observation range of the observation device,
The object position estimation unit, based on the determination result of the entry / exit object determination unit, the estimated position of each object and the likelihood information of the ID and the likelihood information of the position at the time when the observed value was obtained An object position estimation method, wherein the existence probability at the position of each object is calculated as an estimated position of each object.
コンピュータに、
環境内に存在する複数の物体を観測装置でそれぞれ観測して前記複数の物体のそれぞれの物体の観測位置及び各物体に対するIDの尤度情報を、観測値として取得したのち、
位置尤度算出部により前記各物体の推定位置と観測位置とに基づいて、前記各観測値の前記各物体に対する位置の尤度情報を算出する機能と、
相関値算出部により、前記IDの尤度情報と位置の尤度情報とに基づいて、前記観測値と前記各物体の推定位置との相関値を算出する機能と、
入退物体候補検出部により、前記相関値に基づいて、前記観測装置の観測範囲内に進入した物体又は前記観測範囲内から退去した物体の候補を検出する機能と、
入退物体判定部により、前記入退物体候補検出部の出力結果に基づいて、前記観測装置の前記観測範囲内に進入した物体又は前記観測装置の前記観測範囲内から退去した物体を判定する機能と、
物体位置推定部により、前記入退物体判定部の判定結果に基づき、前記各物体の推定位置及びIDの尤度情報及び位置の尤度情報に基づいて、前記観測値が得られた時刻における前記各物体の位置における存在確率を前記各物体の推定位置として算出する機能と、
を実現させるための物体位置推定プログラム。
On the computer,
After observing a plurality of objects existing in the environment with an observation device and obtaining the observation position of each of the plurality of objects and ID likelihood information for each object as observation values,
A function for calculating position likelihood information of each observation value for each object based on the estimated position and observation position of each object by a position likelihood calculating unit;
A function for calculating a correlation value between the observed value and the estimated position of each object based on the likelihood information of the ID and the likelihood information of the position by a correlation value calculating unit;
Based on the correlation value, an entry / exit object candidate detection unit detects a candidate for an object that has entered the observation range of the observation device or an object that has left the observation range;
Function for determining an object that has entered the observation range of the observation device or an object that has left the observation range of the observation device based on the output result of the entry / exit object candidate detection unit by the entry / exit object determination unit When,
The object position estimation unit, based on the determination result of the entry / exit object determination unit, the estimated position of each object and the likelihood information of the ID and the likelihood information of the position at the time when the observed value was obtained A function of calculating the existence probability at the position of each object as the estimated position of each object;
Object position estimation program to realize.
JP2010223500A 2010-10-01 2010-10-01 Article position estimation system, article position estimation method, and article position estimation program Pending JP2013253779A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010223500A JP2013253779A (en) 2010-10-01 2010-10-01 Article position estimation system, article position estimation method, and article position estimation program
PCT/JP2011/005452 WO2012042864A1 (en) 2010-10-01 2011-09-28 Object location estimation system, object location estimation device, object location estimation method, and object location estimation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010223500A JP2013253779A (en) 2010-10-01 2010-10-01 Article position estimation system, article position estimation method, and article position estimation program

Publications (1)

Publication Number Publication Date
JP2013253779A true JP2013253779A (en) 2013-12-19

Family

ID=45892353

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010223500A Pending JP2013253779A (en) 2010-10-01 2010-10-01 Article position estimation system, article position estimation method, and article position estimation program

Country Status (2)

Country Link
JP (1) JP2013253779A (en)
WO (1) WO2012042864A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005250692A (en) * 2004-03-02 2005-09-15 Softopia Japan Foundation Method for identifying object, method for identifying mobile object, program for identifying object, program for identifying mobile object, medium for recording program for identifying object, and medium for recording program for identifying traveling object
WO2007074671A1 (en) * 2005-12-28 2007-07-05 Matsushita Electric Industrial Co., Ltd. Object detecting device, object detecting method and object detecting computer program
JP2010118039A (en) * 2008-10-16 2010-05-27 Mitsubishi Electric Corp Mobile object detector
JP2010123069A (en) * 2008-11-21 2010-06-03 Panasonic Corp Sensing data retrieval device and retrieval image creation method
WO2010103584A1 (en) * 2009-03-09 2010-09-16 パナソニック株式会社 Device for detecting entry and/or exit monitoring device, and method for detecting entry and/or exit

Also Published As

Publication number Publication date
WO2012042864A1 (en) 2012-04-05

Similar Documents

Publication Publication Date Title
JP4852765B2 (en) Estimating connection relationship between distributed cameras and connection relationship estimation program
WO2018116488A1 (en) Analysis server, monitoring system, monitoring method, and program
US7139409B2 (en) Real-time crowd density estimation from video
US20180300887A1 (en) System and process for detecting, tracking and counting human objects of interest
JP4709943B2 (en) Object position estimation system, object position estimation apparatus, object position estimation method, and object position estimation program
US8149278B2 (en) System and method for modeling movement of objects using probabilistic graphs obtained from surveillance data
US7127083B2 (en) Video surveillance system with object detection and probability scoring based on object class
US7148912B2 (en) Video surveillance system in which trajectory hypothesis spawning allows for trajectory splitting and/or merging
US20050104727A1 (en) Video surveillance system that detects predefined behaviors based on movement through zone patterns
JP5147036B2 (en) POSITION ESTIMATION DEVICE, POSITION ESTIMATION METHOD, AND POSITION ESTIMATION PROGRAM
JP2010191620A (en) Method and system for detecting suspicious person
Papaioannou et al. Tracking people in highly dynamic industrial environments
AU2015203666A1 (en) Methods and systems for controlling a camera to perform a task
CN112150514A (en) Pedestrian trajectory tracking method, device and equipment of video and storage medium
US20050105764A1 (en) Video surveillance system with connection probability computation that is a function of object size
US20050104959A1 (en) Video surveillance system with trajectory hypothesis scoring based on at least one non-spatial parameter
Papaioannou et al. Accurate positioning via cross-modality training
KR102519151B1 (en) Moving line tracking system and method for arrival hall of liability to crime travelers
JP5718632B2 (en) Part recognition device, part recognition method, and part recognition program
KR101446422B1 (en) Video security system and method
US20190122228A1 (en) Examination device
JP4985742B2 (en) Imaging system, method and program
WO2012042864A1 (en) Object location estimation system, object location estimation device, object location estimation method, and object location estimation program
Patel et al. Vehicle tracking and monitoring in surveillance video
JP6558178B2 (en) Nuisance agent estimation system, control method and control program for nuisance agent estimation system