JP2010176561A - Security system - Google Patents
Security system Download PDFInfo
- Publication number
- JP2010176561A JP2010176561A JP2009020623A JP2009020623A JP2010176561A JP 2010176561 A JP2010176561 A JP 2010176561A JP 2009020623 A JP2009020623 A JP 2009020623A JP 2009020623 A JP2009020623 A JP 2009020623A JP 2010176561 A JP2010176561 A JP 2010176561A
- Authority
- JP
- Japan
- Prior art keywords
- person
- security system
- data
- posture information
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、セキュリティーを確保したい空間における監視を自動的に行うセキュリティーシステムに関する。 The present invention relates to a security system that automatically performs monitoring in a space where security is desired.
従来よりセキュリティーを確保したい空間において、当該空間を無人で監視するセキュリティーシステムが種々提案されている。例えば、特許文献1(特開2005−295469号公報)には、所定領域を監視するシステムにおいて、侵入者を的確に検知し、無人監視状態であっても、的確なアングル制御やズーミング制御を行ない、侵入者の的確な映像の録画や、低い誤報率で警報を発することの可能な監視システムが開示されている。
しかしながら、特許文献1に記載のセキュリティーシステムでは、ズームアップ用のカメラなどが必要となり、セキュリティーシステムを構築する際に大きなコストが必要となる、という問題があった。
However, the security system described in
上記問題点を解決するために、請求項1に係る発明は、セキュリティー確保の対象となる空間での滞在を許容された人物それぞれに付与されたIDを記憶すると共に、当該IDに応じた人物の姿勢情報に関わる姿勢情報モデルデータを記憶する記憶手段と、前記空間を撮像し撮像データを取得する撮像手段と、前記撮像手段によって取得された撮像データから人物の動きを抽出し当該人物の姿勢情報を推定する姿勢情報推定手段と、前記姿勢推定手段によって推定された姿勢情報と前記記憶手段に記憶される姿勢情報モデルデータとから、当該人物がIDを付与された人物である確率を算出する確率算出手段と、前記確率算出手段によって算出された確率に基づいて、当該人物がIDを付与された人物であるか否かを判定する第1判定手段と、を有することを特徴とするセキュリティーシステムである。 In order to solve the above problem, the invention according to claim 1 stores an ID given to each person permitted to stay in a space to be secured, and also stores the ID of the person corresponding to the ID. Storage means for storing posture information model data related to posture information, imaging means for imaging the space and acquiring imaging data, and extracting a person's movement from the imaging data acquired by the imaging means, and posture information of the person The probability of calculating the probability that the person is given an ID from the attitude information estimation means for estimating the position, the attitude information estimated by the attitude estimation means and the attitude information model data stored in the storage means A first determining unit that determines whether the person is an ID-assigned person based on the probability calculated by the probability calculating unit; A security system and having a.
また、請求項2に係る発明は、請求項1に記載のセキュリティーシステムにおいて、前記第1判定手段によって、当該人物がIDを付与された人物でないと判断されたとき、前記前記第1判定手段による判定方法と異なる方法によって、当該人物がIDを付与された人物であるか否かを判定する第2判定手段を有する。 According to a second aspect of the present invention, in the security system according to the first aspect, when the first determination unit determines that the person is not a person who has been given an ID, the first determination unit It has the 2nd determination means which determines whether the said person is a person to whom ID was given by a method different from the determination method.
本発明の請求項1に記載のセキュリティーシステムによれば、ズームアップ用のカメラなどを必要することなく、安価なカメラシステムによってセキュリティーシステムを構築することが可能となる。 According to the security system of the first aspect of the present invention, it is possible to construct a security system with an inexpensive camera system without requiring a zoom-up camera or the like.
また、本発明の請求項1に記載のセキュリティーシステムによれば、特定しようとする人物がサングラスなどをかけた場合においても、セキュリティーシステムが不能とならない。 Further, according to the security system of the first aspect of the present invention, even when the person to be identified wears sunglasses or the like, the security system is not disabled.
また、本発明の請求項2に記載のセキュリティーシステムによれば、前記第1判定手段による判定方法と異なる方法によって、当該人物がIDを付与された人物であるか否かを判定する第2判定手段を有するので、第1判定手段をバックアップすることが可能となる
。
In addition, according to the security system of the second aspect of the present invention, the second determination for determining whether or not the person is given a ID by a method different from the determination method by the first determination means. With the means, the first determination means can be backed up.
以下、本発明のセキュリティーシステムにおける好適な実施の形態について、図面を参照しつつ説明する。図1は本発明の実施形態に係るセキュリティーシステムの概念を説明する図であり、図2は本発明の実施形態に係るセキュリティーシステムの概要のブロック図である。図1において、Rは本システムでのセキュリティー確保の対象となる空間であり、A、B、C、Dはそのような空間Rに滞在している人物を表している。また、図1及び図2において、100は主制御部、110は撮像装置、120はモデルデータ記憶部、130は登録データ記憶部、140は通信部、200はセキュリティー管理センターをそれぞれ示している。 Hereinafter, preferred embodiments of the security system of the present invention will be described with reference to the drawings. FIG. 1 is a diagram for explaining the concept of a security system according to an embodiment of the present invention, and FIG. 2 is a block diagram of an outline of the security system according to an embodiment of the present invention. In FIG. 1, R is a space for which security is secured in the present system, and A, B, C, and D represent persons staying in such a space R. In FIGS. 1 and 2, 100 is a main control unit, 110 is an imaging device, 120 is a model data storage unit, 130 is a registration data storage unit, 140 is a communication unit, and 200 is a security management center.
本実施形態に係るセキュリティーシステムは、図1における空間Rのセキュリティーを確保するために、当該空間Rに滞在しているそれぞれの人物を特定するように動作するも
のである。ここで、空間Rに滞在を許容された人物については、あらかじめそれぞれ固有のID番号などを付与して登録する。さらに、このIDに対応した人物毎の動き方(動作)のクセをデータ化することによって、システムが人物判定を行うようになっている。なお、人物毎の動き方のクセに基づいて、システムが人物判定を行う判定を、本実施形態では第1の人物判定とている。また、動き方のクセなどを記録したデータは、本実施形態においては、姿勢情報に関わる姿勢情報モデルデータと称し、このデータを後述するようなベイジアンネットワークによるモデルに基づいて作成する。本実施形態に係るセキュリティーシステムは、姿勢情報モデルデータに基づかずに、人物判定を行う第2の人物判定手段を有している。この第2の人物判定手段については、本実施形態では、人物毎に予め登録してある顔画像データと、撮像した撮像データとを画像処理的に比較することで判定する例に基づいて説明するが、本発明のセキュリティーシステムでは、第2人物判定手段としては、その他の手法のものを用いることができる。
The security system according to the present embodiment operates so as to identify each person staying in the space R in order to ensure the security of the space R in FIG. Here, each person who is allowed to stay in the space R is previously registered with a unique ID number. Furthermore, the system determines the person by converting the habit of movement (action) for each person corresponding to this ID into data. In the present embodiment, the determination that the system determines the person based on the habit of how to move for each person is the first person determination. Further, in this embodiment, data that records the habit of movement is referred to as posture information model data related to posture information, and this data is created based on a model based on a Bayesian network as described later. The security system according to the present embodiment has second person determination means for performing person determination without being based on the posture information model data. In the present embodiment, the second person determination unit will be described based on an example in which face image data registered in advance for each person and imaged captured data are compared by image processing. However, in the security system of the present invention, other methods can be used as the second person determination means.
ここで、本発明のセキュリティーシステムで姿勢情報モデルデータに基づく人物判定に用いるベイジアンネットワークの概要について説明する。図3は本発明の実施形態に係るセキュリティーシステムで用いられるベイジアンネットワークの概念を示す図である。ベイジアンネットワークとは、確率的な因果関係をグラフ構造で表現したモデルである。図3に示す各ノードX1、X2、X3、X4は確率変数を表し、それらの間の因果関係の有無を有向グラフで、また、確率変数の取りうる値のノード間での因果関係を条件付確率で表す。ノードX1とノードX2とは確率的な関係があることを、ノードX1からノードX2への矢印によって示している。ノードX2はノードX1、X3からの影響を、また、ノードX4はノードX3の影響を受ける関係となっており、このような因果関係を加味した確率テーブルが、図3中に示す条件付き確率テーブルである。これに対して、ノードX1、X3はどのノードからの影響も受けない親ノードであり、このときの確率テーブルは図中に示す事前確率テーブルのようになる。図3示すものの場合、そのグラフの構造より、全ての確率変数の結合確率はP(X1,X2,X3,X4)=P(X1)P(X2|X1,X3)P(X3)P(X4|X3)となる。ベイジアンネットワークを利用した推論においては、この結合確率の周辺化により、周辺事後確率を求めることにより行われる。このようなベイジアンネットワークに基づく確率算出の手法については、発明者らによる出願番号2008−90755号(発明の名称「セキュリティーシステム」)、出願番号2008−90777号(発明の名称「セキュリティーシステム及び運転支援方法」)に詳しく記載されているので、本明細書においてもこれら出願の内容を援用するものとする。 Here, an outline of a Bayesian network used for person determination based on posture information model data in the security system of the present invention will be described. FIG. 3 is a diagram showing the concept of a Bayesian network used in the security system according to the embodiment of the present invention. A Bayesian network is a model that represents a probabilistic causal relationship in a graph structure. Each node X1, X2, X3, and X4 shown in FIG. 3 represents a random variable, the presence or absence of a causal relationship between them is a directed graph, and the causal relationship between nodes of the values that the random variable can take is a conditional probability. Represented by The fact that there is a stochastic relationship between the node X1 and the node X2 is indicated by an arrow from the node X1 to the node X2. The node X2 is affected by the nodes X1 and X3, and the node X4 is affected by the node X3. The probability table taking into account such a causal relationship is a conditional probability table shown in FIG. It is. On the other hand, the nodes X1 and X3 are parent nodes that are not affected by any node, and the probability table at this time is like the prior probability table shown in the figure. In the case shown in FIG. 3, from the structure of the graph, the joint probabilities of all random variables are P (X1, X2, X3, X4) = P (X1) P (X2 | X1, X3) P (X3) P (X4 | X3). Inference using a Bayesian network is performed by obtaining peripheral posterior probabilities by marginalizing this connection probability. As for the probability calculation method based on such a Bayesian network, the inventors have application number 2008-90755 (invention name “security system”) and application number 2008-90777 (invention name “security system and driving support”). Since the method is described in detail in “Method”), the contents of these applications are also incorporated herein.
さて、本実施形態に係るセキュリティーシステムは、空間Rのセキュリティーを確保するために、当該空間Rに滞在しているそれぞれの人物を特定するように動作するが、そのために空間Rの動画を撮影するための撮像装置110が設けられている。図1においては、この撮像装置110が4台設けられる例について示しているが、このような撮像装置110の設置台数はこれに限定されるものではない。したがって、本発明のセキュリティーシステムでは、2以上のn台の撮像装置110を用いて、これらn台の撮像装置110からのnの撮像データを取得することができる。図4は本発明の実施形態に係るセキュリティーシステムの撮像装置によって取得されるデータを示す図である。
Now, the security system according to the present embodiment operates to identify each person staying in the space R in order to ensure the security of the space R. For this purpose, the security system shoots a moving image of the space R. An
図4に示すようなn台の撮像装置110によって取得された撮像データからは、人物の動き方に係る情報(位置情報なども含む姿勢情報)を抽出・推定して、人物毎の動き方のクセなどのデータである姿勢情報に関わる姿勢情報モデルデータを作成したり、或いは、前記抽出・推定した情報と、予め登録されている姿勢情報モデルデータとに基づいて、撮像データによって認識された人物を特定したりするようにしている。
From the imaging data acquired by the
図5は本発明の実施形態に係るセキュリティーシステムの撮像データなどから認識される動作データの構造を示す図である。図5に示すよう個人の動作データの内訳としては「
位置情報」、「姿勢情報」、「非顕在情報」に大別することができる。これらのデータのうち、「位置情報」、「姿勢情報」については、撮像装置110によって取得された撮像データからの推定が行われる。「位置情報」は対象となる人物の存在位置に関する情報であり、これは撮像データから求められる。また、「姿勢情報」の下には、「右手の位置」、「左手の位置」、「右ひじ位置」、「左ひじ位置」、「顔の向き」、「右足の位置」、「左足の位置」、「右ひざの位置」、「左ひざの位置」、「腰の位置」、「体の向き」などのデータがあり、これらは撮像データからの推定が行われる。また、「非顕在情報」には「心理状態」、「行動変数」は、撮像データなどから認識することができない情報であり、本実施形態では「心理状態」は「平静」、「緊張」、「疲労」、「興奮」、「その他」の5状態をとる分散量データであり、「行動変数」は当該人物の行動パターンを数値化した連続量データである。
FIG. 5 is a diagram showing a structure of operation data recognized from image data and the like of the security system according to the embodiment of the present invention. As shown in FIG.
It can be broadly classified into “position information”, “posture information”, and “unseen information”. Among these data, “position information” and “posture information” are estimated from the imaging data acquired by the
主制御部100は、CPUとCPU上で動作するプログラムを保持するROMとCPUのワークエリアであるRAMなどからなる汎用の情報処理機構である。主制御部100は、ブロック図中に示されている主制御部100と接続される各構成と協働・動作する。また、主制御部100は、本発明のセキュリティーシステムにおける種々の制御処理は、主制御部100内のROMなどの記憶手段に記憶保持されるプログラムやデータに基づいて実行されるものである。
The
上記のような主制御部100には、モデルデータ記憶部120が接続されており、主制御部100は、モデルデータ記憶部120に登録、記録されている個々の人物の姿勢情報モデルデータを参照したり、或いは、新規に姿勢情報モデルデータを登録したり、既に登録されている姿勢情報モデルデータを更新したりする。
A model
次に、このようなモデルデータ記憶部120に記憶されているデータについて説明する。図6は本発明の実施形態に係るセキュリティーシステムのモデルデータ記憶部に記憶されるデータを説明する図であり、図7は本発明の実施形態に係るセキュリティーシステムにおける姿勢情報モデルデータのデータ構造を示す図である。図6に示すように、モデルデータ記憶部120は、セキュリティーを確保すべき対象となる空間Rにおける滞在を許可された人物それぞれに付与された固有の登録ID(id=1,2,3,・・・,M)と、その登録IDに対応したそれぞれの人物の姿勢情報モデルデータを記憶している。図7は個々の姿勢情報モデルデータのデータ構造をより詳しく説明する図である。図7に示すように、姿勢情報モデルデータ中のデータは、概略、離散データ、連続データの2種類のデータに分類することができる。前者には「心理状態」のデータが属し、このデータは条件付き確率テーブルの形式で保有される。また、後者には「現在位置」、「右手の位置」、「左手の位置」、「右ひじ位置」、「左ひじ位置」、「頭の位置」、「顔の向き」、「右足の位置」、「左足の位置」、「右ひざの位置」、「左ひざの位置」、「腰の位置」、「体の向き」、「行動変数」の各データが属し、これらのデータはガウス分布の平均・分散・重みの形式で保有される。
Next, data stored in the model
また、主制御部100には、登録データ記憶部130が接続されており、主制御部100は、登録データ記憶部130に登録、記録されている個々の人物のマッチング用の顔画像データを参照したり、或いは、マッチング用の顔画像データを新規登録したり、既に登録されている顔画像データを更新したりする。図8は本発明の実施形態に係るセキュリティーシステムの登録データ記憶部に記憶されるデータを説明する図である。図8に示すように、登録データ記憶部130は、セキュリティーを確保すべき対象となる空間Rにおける滞在を許可された人物それぞれに付与された固有の登録ID(id=1,2,3,・・・,M)と、その登録IDに対応したそれぞれの人物の顔を撮影した顔画像データを記憶している。このような登録データ記憶部130に記憶されている顔画像データは、姿勢情報モデルデータに基づかない人物判定である第2人物判定手段を実行するときに用いられ
る。
Further, a registration
主制御部100には通信部140が接続されており、例えば、空間Rにおける滞在を許可されていない人物が滞在しているものと判定されたときは、この通信部140を介してセキュリティー管理センター200などに通知・通報などがなされる。なお、このような通信部140を設けて通報を行うようにすることは必ずしも必須の構成ではなく、例えば単にアラート表示部を設けて、空間Rにおける滞在を許可されていない人物が滞在しているものと判定されたときは、当該表示部によってアラート表示を行うようにするだけでもよい。
The
次に、本発明のセキュリティーシステムで用いる姿勢情報モデルの具体的な構成について説明する。図9は本発明の実施の形態に係るセキュリティーシステムで用いる姿勢情報モデルのネットワーク構造を示す図である。本発明のセキュリティーシステムで用いる姿勢情報モデルは、(a)図9に示すベイジアンネットワークの構造、(b)条件付き確率テーブル(図7の心理状態のデータ)、事前確率テーブル、(c)ガウス分布のパラメーター(図7における連続データに属する各項目のデータ)から構成されるものである。これらの3つのうち(a)のベイジアンネットワークの構造は全ての登録IDの人物に共通で用いられる。これに対して、(b)、(c)は学習によって登録ID個人毎のモデルデータとして記憶されたり、適宜更新されたりするようになっている。 Next, a specific configuration of the posture information model used in the security system of the present invention will be described. FIG. 9 is a diagram showing a network structure of the posture information model used in the security system according to the embodiment of the present invention. The posture information model used in the security system of the present invention includes (a) the structure of the Bayesian network shown in FIG. 9, (b) a conditional probability table (psychological state data in FIG. 7), a prior probability table, and (c) a Gaussian distribution. Parameter (data of each item belonging to continuous data in FIG. 7). Of these three, the structure of the Bayesian network (a) is commonly used for all registered ID persons. On the other hand, (b) and (c) are stored as model data for each registered ID by learning or updated as appropriate.
図9のベイジアンネットワークの構造において、□は離散ノードを、○は連続ノードを示しており、離散ノード内の数字は各ノードが取る状態の数を示している。例えば、「生理状態Ph(5)」は、Ph=0(平常)、Ph=1(緊張)、Ph=2(疲労)、Ph=3(興奮)、Ph=4(その他)、の5つの状態をとるものである。 In the structure of the Bayesian network of FIG. 9, □ indicates a discrete node, ◯ indicates a continuous node, and the numbers in the discrete nodes indicate the number of states that each node takes. For example, the “physiological state Ph (5)” includes five values of Ph = 0 (normal), Ph = 1 (tension), Ph = 2 (fatigue), Ph = 3 (excitement), and Ph = 4 (others). It takes a state.
図9のネットワーク構造においては、上段に示されている現在位置(PO)、右手の位置(RH)、・・・顔の向き(FA)の各ノード及び下段に示されている右足の位置(RF)、右足の位置(LF)、・・・体の向き(BD)の各ノードが親ノードであり、これらのノードが生理状態Ph(2)のノード、行動変数DBのノードに影響を与えているものと考える。また、ネットワーク構造において、生理状態Ph(2)のノードが行動変数DBのノードに影響を与えているものと考える。すなわち、生理状態データは、人物の位置情報データ、右手の位置などの姿勢情報データから影響を受けるノードであって、行動変数は、位置情報データ、姿勢情報データ及び生理状態データから影響を受けるノードとなるネットワーク構造となっており、このネットワーク構造の因果関係は、ベイジアンネットワークによって定められている。 In the network structure of FIG. 9, the current position (PO), right hand position (RH),... Face orientation (FA) nodes shown in the upper row and the right foot position (shown in the lower row) RF), right foot position (LF),... Body orientation (BD) are parent nodes, and these nodes affect the nodes of physiological state Ph (2) and the action variable DB. I think. In the network structure, it is considered that the node of the physiological state Ph (2) affects the node of the behavior variable DB. That is, physiological state data is a node affected by posture information data such as a person's position information data and right hand position, and a behavior variable is a node affected by position information data, posture information data, and physiological state data. The causal relationship of this network structure is determined by the Bayesian network.
ここで、ネットワーク構造で上段に示されている現在位置(PO)、右手の位置(RH)、・・・顔の向き(FA)の各ノード及び下段に示されている右足の位置(RF)、左足の位置(LF)、・・・・体の向き(BD)の各ノードは図7に示されているようにセキュリティーシステムで記憶される姿勢情報モデルデータと対応している。これらの連続データは、ガウス分布の「離散」、「平均」、「分散」の形で保有しておき、これを所定の確率に置き換える。 Here, the current position (PO), the right hand position (RH),... Face orientation (FA) nodes shown in the upper part of the network structure, and the right foot position (RF) shown in the lower part. , Left foot position (LF),... Body direction (BD) nodes correspond to posture information model data stored in the security system as shown in FIG. These continuous data are held in the form of “discrete”, “average”, and “variance” of Gaussian distribution, and these are replaced with predetermined probabilities.
図9における生理状態Ph(5)ノードは、一種の裕度として働くものであり、このノードが存在しない場合、本発明のセキュリティーシステムが有効に動作しないことがあることが分かっている。これは、現在位置(PO)、右手の位置(RH)、・・・体の向き(BD)の各ノードの状態(運転状況の状態)が一意的に決定したとしても、行動変数DBが一意的に決まるわけではないことに起因している。本発明のセキュリティーシステムでは、生理状態Ph(5)ノードを導入することによって、不確定要素を含んだ因果律を扱うことができるようになる。また、生理状態Ph(5)ノードは、本発明のセキュリテ
ィーシステムをコンピュータプログラムで実行する上で非常に重要となる。
The physiological state Ph (5) node in FIG. 9 serves as a kind of tolerance, and it has been found that if this node does not exist, the security system of the present invention may not operate effectively. This is because the behavior variable DB is unique even if the state (driving state) of each node of the current position (PO), right hand position (RH), ... body direction (BD) is uniquely determined. This is due to the fact that it is not determined. In the security system of the present invention, the introduction of the physiological state Ph (5) node makes it possible to handle causality including uncertain elements. The physiological state Ph (5) node is very important when the security system of the present invention is executed by a computer program.
図10はベイジアンネットワーク構造における生理状態Ph(5)がとる状態を示す図である。図10に示すように、本実施形態においては、生理状態Ph(5)は、Ph=0(平常)、Ph=1(緊張)、Ph=2(疲労)、Ph=3(興奮)、Ph=4(その他)の5つの状態をとるものであるとしたが、本発明のセキュリティーシステムでは、生理状態Phを5以上の自然数の適当なものに設定することができる。 FIG. 10 is a diagram showing a state taken by the physiological state Ph (5) in the Bayesian network structure. As shown in FIG. 10, in this embodiment, the physiological state Ph (5) is Ph = 0 (normal), Ph = 1 (tension), Ph = 2 (fatigue), Ph = 3 (excitement), Ph. In the security system of the present invention, the physiological state Ph can be set to an appropriate natural number of 5 or more.
次に、本発明のセキュリティーシステムによる監視処理や学習処理などのフローの概略について説明する。図11は本発明の実施形態に係るセキュリティーシステムによる処理のフローチャートを示す図である。なお、このようなフローチャートは、セキュリティーを確保すべき対象となる空間Rへの人物の進入が確認されたことを契機に動作するものである。 Next, an outline of a flow of monitoring processing and learning processing by the security system of the present invention will be described. FIG. 11 is a diagram showing a flowchart of processing by the security system according to the embodiment of the present invention. Note that such a flowchart operates when the entry of a person into the space R that is to be secured is confirmed.
図11において、ステップS100で本発明のセキュリティーシステムによる処理が開始されると、続いてステップS101に進み、第1人物判定処理のサブルーチンが実行される。この第1人物判定処理のサブルーチンは、姿勢情報モデルデータに基づく人物の判定処理を行うものである。 In FIG. 11, when the process by the security system of the present invention is started in step S100, the process proceeds to step S101, and a first person determination process subroutine is executed. This subroutine of the first person determination process is to perform a person determination process based on the posture information model data.
ここで、第1人物判定処理のサブルーチンについて説明する。図12は本発明の実施形態に係るセキュリティーシステムにおける第1人物判定処理サブルーチンのフローチャートを示す図である。ステップS200で、第1人物判定処理のサブルーチンが開始されると、次にステップS201に進み、姿勢認識処理のサブルーチンが実行される。このサブルーチンは撮像された人物の姿勢を推定するためのものである。 Here, a subroutine of the first person determination process will be described. FIG. 12 is a flowchart of the first person determination processing subroutine in the security system according to the embodiment of the present invention. When the first person determination process subroutine is started in step S200, the process proceeds to step S201, where the posture recognition process subroutine is executed. This subroutine is for estimating the posture of a person who has been imaged.
ここで、この姿勢認識処理のサブルーチンについて説明する。図13は本発明の実施形態に係るセキュリティーシステムにおける姿勢認識処理サブルーチンのフローチャートを示す図である。図13において、ステップS300で姿勢認識処理のサブルーチンが開始されると、次にステップS301に進み、予め用意しておく動きがないときの画像データ(背景画像データ)の読み込みを行う。このような背景画像データは、画像に所定時間変動がない瞬間などに取り込んで予め用意しておくものである。ステップS302では、撮像装置110による現在の撮像データの読み込みが行われる。次のステップS303では、撮像データと背景画像データの差分が作成され、ステップS304において、複数の撮像装置110からの差分情報より非背景物体(すなわち、人物)の空間内の位置(現在位置)の推定が行われる。そして、ステップS305では、姿勢推定が行われ、姿勢情報(右手の位置、左手の位置、右ひじ位置、…)の取得が行われる。ここで、姿勢推定のための手法としては、例えば、村上智基ら「自己オクルージョンを含む人物姿勢の距離画像による推定」情報処理学会第65回全国大会に開示されている技術を用いることができる。ステップS306で、元のルーチンにリターンする。
Here, a subroutine for the posture recognition process will be described. FIG. 13 is a flowchart of a posture recognition processing subroutine in the security system according to the embodiment of the present invention. In FIG. 13, when the posture recognition processing subroutine is started in step S300, the process proceeds to step S301, and image data (background image data) when there is no motion prepared in advance is read. Such background image data is acquired in advance at the moment when the image does not change for a predetermined time. In step S302, the current imaging data is read by the
図12に戻って、ステップS202乃至ステップS205は登録IDのid毎に確率の計算を行うループである。このループからは、全てのidにつき計算が終わると、抜けて次のステップに進むことができる。このループ中で、ステップS203では、モデルデータ記憶部120より、該当idに対応する姿勢情報モデルデータの読み込みが行われ、ステップS204では、姿勢情報モデルデータにより確率Pidを計算するサブルーチンが実行される。前記のループを抜けると、ステップS206の中のP1〜PMの中で最大のものをPmaxとする。ステップS207では、Pmaxが所定値以上であるか否かが判定され、判定結果がYESであるときにはステップS208に進み、Pmaxに対応する登録IDを戻
り値にセットし、判定結果がNOであるときにはステップS209に進み、戻り値に該当なしをセットする。ステップS210では、メインのルーチンにリターンする。
Returning to FIG. 12, steps S202 to S205 are loops for calculating the probability for each id of the registration ID. From this loop, when all the ids have been calculated, we can exit and proceed to the next step. In this loop, in step S203, the posture information model data corresponding to the corresponding id is read from the model
ここで、姿勢情報モデルデータにより確率Pidを計算するサブルーチンについて説明する。図14は本発明の実施形態に係るセキュリティーシステムにおける確率Pid計算処理サブルーチンのフローチャートを示す図である。図14において、ステップS400で確率Pid計算処理のサブルーチンが開始されると、続いてステップS401に進み、ID=idの姿勢情報モデルデータが取得され、ステップS402では、このモデルデータから一致確率演算Pidが下記の式(1)によって計算される。 Here, a subroutine for calculating the probability P id from the posture information model data will be described. FIG. 14 is a flowchart of a probability Pid calculation processing subroutine in the security system according to the embodiment of the present invention. In FIG. 14, when the subroutine of the probability P id calculation process is started in step S400, the process proceeds to step S401, where the posture information model data with ID = id is acquired. In step S402, the coincidence probability calculation is performed from this model data. P id is calculated by the following equation (1).
03では、元のルーチンにリターンする。
In 03, the process returns to the original routine.
なお、ベイジアンネットワークにより所定の確率を導く方法については、より詳しくは、
○Jensen, F. V., “Bayesian networks and decision graphs”, Springer, 2001.
○ David C. MacKay, “Information Theory, Inference and Learning Algorithms”, Cambridge University Press, 2003.
などの記載を参照して援用するものとする。
For more information on how to derive a predetermined probability using a Bayesian network,
○ Jensen, F.M. V. "Bayesian networks and decision graphics", Springer, 2001.
O David C.I. MacKay, “Information Theory, Information and Learning Algorithms”, Cambridge University Press, 2003.
It shall be incorporated with reference to the description.
さて、図11に示すメインフローチャートに戻り、ステップS102では、戻り値として登録IDがあるか否かが判定される。ステップS102の判定結果がYESであるときには、登録IDを有する人物が空間Rに存在することが判明するので、ステップS109に進み処理を終了する。ステップS102の判定結果がNOであるときにはステップS103に進み、ステップS103において、第2人物判定処理のサブルーチンを実行する。このサブルーチンでは、第1判定処理による判定方法と異なる方法によって、当該人物がIDを付与された人物であるか否かを判定するものである。このような第2判定処理は、第1判定処理のバックアップのような役割を果たす。また、第2判定処理で、対象人物が登録IDを有する者であるものと判定されると、姿勢情報モデルデータの学習を行う契機ともなり得る。 Returning to the main flowchart shown in FIG. 11, in step S102, it is determined whether there is a registration ID as a return value. If the decision result in the step S102 is YES, it is found that the person having the registration ID exists in the space R, so the process proceeds to the step S109 and the process is ended. When the determination result in step S102 is NO, the process proceeds to step S103, and in step S103, a subroutine for second person determination processing is executed. In this subroutine, it is determined whether or not the person is given a ID by a method different from the determination method by the first determination process. Such a second determination process serves as a backup for the first determination process. Moreover, if it is determined in the second determination process that the target person is a person having a registration ID, it may be an opportunity to learn posture information model data.
上記に示したように第1判定処理に係るステップS101、ステップS102などの処理によれば、対象となる人物の位置情報や姿勢情報を取得することができればよく、このための用途には、ズームカメラや高解像度カメラなどの高価は必要とならないので、安価によってセキュリティーシステムを構築することが可能となる。また、これまで説明したように第1判定処理は、人物の動作のクセをデータ化した姿勢情報モデルデータに基づいて人物判定を行うので、例えば、特定しようとする人物がサングラスなどをかけた場合においても、セキュリティーシステムが不能となることがない。 As described above, according to the processing such as step S101 and step S102 related to the first determination processing, it is sufficient that the position information and posture information of the target person can be acquired. Since expensive cameras and high-resolution cameras are not required, a security system can be constructed at a low cost. In addition, as described above, the first determination process performs the person determination based on the posture information model data obtained by converting the character of the person's motion into data. For example, when the person to be identified wears sunglasses or the like. However, the security system will not be disabled.
ここで、第2人物判定処理のサブルーチンについて説明する。図15は本発明の実施形態に係るセキュリティーシステムにおける第2人物判定処理サブルーチンのフローチャートを示す図である。図15において、ステップS500で、第2人物判定処理サブルーチンが開始されると、続いてステップS501で、対象人物の顔の撮像データを撮像装置により取得する。なお、このとき、複数の撮像装置のうちでも高精度なもので取得した撮像データを用いることが好ましい。ステップS502乃至ステップS505は、登録ID毎の判定を行うためのループであり、id=1からid=Mまでの全登録IDのチェックの終了によりループを抜けるようになっている。当該ループ中のステップS503では、登録データ記憶部130から顔画像データの読み込みを行いステップS504で、顔画像データと撮像データとのマッチング処理を行う。このステップS504では、一般的なテンプレートマッチング等による顔認証処理技術を用いることができる。ステップS505でチェックループを抜けると、ステップS506に進み、マッチングした場合には、登録IDを戻り値に設定し、マッチングしなかった場合には、登録IDなしを戻り値に設定する。ステップS507では、もとのルーチンにリターンする。
Here, a subroutine of the second person determination process will be described. FIG. 15 is a view showing a flowchart of a second person determination processing subroutine in the security system according to the embodiment of the present invention. In FIG. 15, when the second person determination processing subroutine is started in step S500, in step S501, imaging data of the face of the target person is acquired by the imaging apparatus. At this time, it is preferable to use imaging data acquired with high accuracy among a plurality of imaging devices. Steps S502 to S505 are a loop for making a determination for each registered ID, and exit from the loop upon completion of checking all registered IDs from id = 1 to id = M. In step S503 in the loop, face image data is read from the registered
図11に示すメインフローチャートに戻り、ステップS104では、戻り値として登録IDがあるか否かが判定される。ステップS104の判定結果がNOであるときには、2種類の人物判定処理によっても、人物の特定ができなかったこととなるので、ステップS107に進み、通信部140を介して、セキュリティー管理センター200に通報するなどの、予め事前に設定されたい措置をとる。このステップで抽出される人物は、図1におけるCなどの人物である。
Returning to the main flowchart shown in FIG. 11, in step S104, it is determined whether there is a registration ID as a return value. If the determination result in step S104 is NO, it means that the person could not be specified by the two types of person determination processing, and therefore the process proceeds to step S107, and the
ステップS104の判定結果がYESであるときには、登録IDを有する人物が空間Rに存在することが判明したこととなるので、通報するような措置はとらず、姿勢情報モデルデータによる人物判定処理(第1の判定処理)の失敗の原因を特定するためにステップS105に進む。 If the decision result in the step S104 is YES, it has been found that the person having the registration ID exists in the space R. Therefore, no action is taken to notify the person decision process based on the posture information model data (first The process proceeds to step S105 in order to identify the cause of the failure of the determination process 1).
ステップS105では、該当登録IDのデータがモデルデータ記憶部120に存在するか否かが判定される。ステップS105の判定がNOであれば、システム側が当該IDに対応する姿勢情報モデルデータをまだ学習していない(ステップS108)こととなるので、ステップS106においてモデルデータの学習処理を行う。このステップで抽出される人物は、図1におけるDなどの人物である。
In step S105, it is determined whether or not the data of the corresponding registration ID exists in the model
また、ステップS105の判定がYESであれば、例えば、ケガなどにより当該IDの人物の所作が変わったことが考えられるので、ステップS106に進みモデルデータの学習処理を行い、モデルデータ記憶部120のデータを更新する。ステップS106では、学習処理サブルーチンが実行され、ステップS109では処理を終了する。
On the other hand, if the determination in step S105 is YES, it is possible that the action of the person with the ID has changed due to, for example, injury, etc., the process proceeds to step S106 to perform model data learning processing, and the model
次に、学習処理サブルーチンについて説明する。図16は本発明の実施形態に係るセキュリティーシステムにおける学習処理サブルーチンのフローチャートを示す図である。ステップS600で、学習処理サブルーチンが開始されると、ステップS601で姿勢認識処理サブルーチンが実行されて、位置情報、姿勢情報などの取得が行われる。そして、続くステップS602で、個人モデルデータの学習処理のサブルーチンが実行され、位置情報、姿勢情報から姿勢情報モデルデータを演算し、ステップS603でリターンする。 Next, the learning processing subroutine will be described. FIG. 16 is a flowchart of a learning processing subroutine in the security system according to the embodiment of the present invention. When the learning processing subroutine is started in step S600, the posture recognition processing subroutine is executed in step S601 to acquire position information, posture information, and the like. In a subsequent step S602, a personal model data learning process subroutine is executed to calculate posture information model data from the position information and posture information, and the process returns in step S603.
次に、個人モデルデータの学習処理のサブルーチンについて説明する。図17は本発明の実施形態に係るセキュリティーシステムにおける個人モデルデータの学習処理のサブルーチンのフローチャートを示す図である。図17で、ステップS700において個人モデルデータの学習処理サブルーチンがスタートすると、次にステップS701に進み、存在すれば、IDに対応する人物のモデルデータの取り込みを行い、ステップS702で、位置情報及び姿勢情報から混合正規分布確率を演算することによってモデルデータを求める。なお、このモデルデータの作成のためには、Arthur Dempster, Nan Laird, and Donald Rubin. “Maximum likelihood from incomplete d
ata via the EM algorithm”. Journal of the Royal Statistical Society, Series B, 39(1):1−38, 1977.などに示されているEMアルゴリズムを用いるものとする。
Next, a subroutine for learning process of personal model data will be described. FIG. 17 is a flowchart of a subroutine for learning process of personal model data in the security system according to the embodiment of the present invention. In FIG. 17, when the personal model data learning processing subroutine starts in step S700, the process proceeds to step S701. If it exists, the model data of the person corresponding to the ID is taken in. In step S702, the position information and orientation are acquired. The model data is obtained by calculating the mixed normal distribution probability from the information. For the creation of this model data, Arthur Demster, Nan Laird, and Donald Rubin. “Maximum likelihood from completed d
ata via the EM algorithm ". Journal of the Royal Statistical Society, Series B, 39 (1): 1-38, 1977.
ステップS703では、モデルデータ記憶部120に新しい姿勢情報モデルデータを記憶し、ステップS704でリターンして元のルーチンへと戻る。
In step S703, new attitude information model data is stored in the model
以上のような構成のセキュリティーシステムによれば、ズームアップ用のカメラなどを必要することなく、安価なカメラシステムによってセキュリティーシステムを構築することが可能となる。 According to the security system configured as described above, it is possible to construct a security system with an inexpensive camera system without requiring a zoom-up camera or the like.
また、上記のような構成のセキュリティーシステムによれば、特定しようとする人物がサングラスなどをかけた場合においても、セキュリティーシステムが不能とならない。 Moreover, according to the security system having the above-described configuration, even when a person to be identified wears sunglasses, the security system is not disabled.
また、上記のような構成のセキュリティーシステムによれば、第1判定手段による判定方法と異なる方法によって、当該人物がIDを付与された人物であるか否かを判定する第2判定手段を有するので、第1判定手段をバックアップすることが可能となる。 In addition, according to the security system having the above-described configuration, the second determination unit that determines whether or not the person is given an ID by a method different from the determination method by the first determination unit is provided. The first determination means can be backed up.
100・・・主制御部
110・・・撮像装置
120・・・モデルデータ記憶部
130・・・登録データ記憶部
140・・・通信部
200・・・セキュリティー管理センター
DESCRIPTION OF
Claims (2)
前記空間を撮像し撮像データを取得する撮像手段と、
前記撮像手段によって取得された撮像データから人物の動きを抽出し当該人物の姿勢情報を推定する姿勢情報推定手段と、
前記姿勢推定手段によって推定された姿勢情報と前記記憶手段に記憶される姿勢情報モデルデータとから、当該人物がIDを付与された人物である確率を算出する確率算出手段と、
前記確率算出手段によって算出された確率に基づいて、当該人物がIDを付与された人物であるか否かを判定する第1判定手段と、を有することを特徴とするセキュリティーシステム。 A storage unit that stores an ID assigned to each person permitted to stay in a space to be secured, and stores posture information model data related to posture information of the person according to the ID;
Imaging means for imaging the space and acquiring imaging data;
Posture information estimation means for extracting the movement of a person from the imaging data acquired by the imaging means and estimating posture information of the person;
A probability calculating means for calculating the probability that the person is given an ID from the attitude information estimated by the attitude estimating means and the attitude information model data stored in the storage means;
A security system, comprising: first determination means for determining whether or not the person is given a ID based on the probability calculated by the probability calculation means.
When the first determination means determines that the person is not an ID-assigned person, whether or not the person is an ID-assigned person by a method different from the determination method by the first determination means The security system according to claim 1, further comprising second determination means for determining whether or not.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009020623A JP5170447B2 (en) | 2009-01-30 | 2009-01-30 | Security system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009020623A JP5170447B2 (en) | 2009-01-30 | 2009-01-30 | Security system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010176561A true JP2010176561A (en) | 2010-08-12 |
JP5170447B2 JP5170447B2 (en) | 2013-03-27 |
Family
ID=42707441
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009020623A Expired - Fee Related JP5170447B2 (en) | 2009-01-30 | 2009-01-30 | Security system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5170447B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019164665A (en) * | 2018-03-20 | 2019-09-26 | 株式会社日立ソリューションズ・クリエイト | Person specification system and person specification method |
JP2020149171A (en) * | 2019-03-12 | 2020-09-17 | 三菱電機株式会社 | Security abnormality detection system |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001338295A (en) * | 2000-05-26 | 2001-12-07 | Wens Network Kk | Identity authenticating system based on biological information |
JP2005295469A (en) * | 2004-04-06 | 2005-10-20 | Hitachi Ltd | Monitoring system |
JP2008009914A (en) * | 2006-06-30 | 2008-01-17 | Canon Inc | Image processor, image processing method, program and storage medium |
JP2008108243A (en) * | 2006-09-28 | 2008-05-08 | Toshiba Corp | Person recognition device and person recognition method |
JP2009245149A (en) * | 2008-03-31 | 2009-10-22 | Equos Research Co Ltd | Driving support device and driving support method |
JP2009245147A (en) * | 2008-03-31 | 2009-10-22 | Equos Research Co Ltd | Driving support device |
JP2010176563A (en) * | 2009-01-30 | 2010-08-12 | Equos Research Co Ltd | Security system |
-
2009
- 2009-01-30 JP JP2009020623A patent/JP5170447B2/en not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001338295A (en) * | 2000-05-26 | 2001-12-07 | Wens Network Kk | Identity authenticating system based on biological information |
JP2005295469A (en) * | 2004-04-06 | 2005-10-20 | Hitachi Ltd | Monitoring system |
JP2008009914A (en) * | 2006-06-30 | 2008-01-17 | Canon Inc | Image processor, image processing method, program and storage medium |
JP2008108243A (en) * | 2006-09-28 | 2008-05-08 | Toshiba Corp | Person recognition device and person recognition method |
JP2009245149A (en) * | 2008-03-31 | 2009-10-22 | Equos Research Co Ltd | Driving support device and driving support method |
JP2009245147A (en) * | 2008-03-31 | 2009-10-22 | Equos Research Co Ltd | Driving support device |
JP2010176563A (en) * | 2009-01-30 | 2010-08-12 | Equos Research Co Ltd | Security system |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019164665A (en) * | 2018-03-20 | 2019-09-26 | 株式会社日立ソリューションズ・クリエイト | Person specification system and person specification method |
JP2020149171A (en) * | 2019-03-12 | 2020-09-17 | 三菱電機株式会社 | Security abnormality detection system |
JP7257823B2 (en) | 2019-03-12 | 2023-04-14 | 三菱電機株式会社 | Security anomaly detection system |
Also Published As
Publication number | Publication date |
---|---|
JP5170447B2 (en) | 2013-03-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11688265B1 (en) | System and methods for safety, security, and well-being of individuals | |
JP5301973B2 (en) | Crime prevention device and program | |
JP2019139277A (en) | Evaluation device, motion control device, evaluation method, and evaluation program | |
CN112163566A (en) | Video image monitoring method and device | |
JP7185805B2 (en) | Fall risk assessment system | |
US11298050B2 (en) | Posture estimation device, behavior estimation device, storage medium storing posture estimation program, and posture estimation method | |
CN108662728B (en) | Information processing method, information processing apparatus, and recording medium | |
JPWO2019130674A1 (en) | Behavioral anomaly detection device for long-term care facilities, the method and the system | |
JP6910786B2 (en) | Information processing equipment, information processing methods and programs | |
EP3855451A1 (en) | Machine vision system to predict clinical patient parameters | |
JP2018149236A (en) | Health management system, device, and method | |
WO2020145380A1 (en) | Care recording device, care recording system, care recording program, and care recording method | |
JP5170447B2 (en) | Security system | |
JP2008288870A (en) | Video image monitoring system and video image monitoring method | |
JP5025292B2 (en) | Suspicious person detection system and method | |
JP2010178202A (en) | Security system | |
JP2010139325A (en) | Position estimation apparatus and position estimation method | |
JP2010250775A (en) | Crime prevention device and program | |
WO2021092015A1 (en) | Monitoring animal pose dynamics from monocular images | |
JP2010176563A (en) | Security system | |
JP6810977B2 (en) | Monitoring system, monitoring method, monitoring program and its recording medium | |
JP2021190051A (en) | Behavior body identification system | |
Anderson et al. | Evaluation of a video based fall recognition system for elders using voxel space | |
CN113743293B (en) | Fall behavior detection method and device, electronic equipment and storage medium | |
US20210321923A1 (en) | Stress twin for individuals |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110310 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120620 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120620 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120809 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121218 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5170447 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |