JP5167188B2 - Operating state detecting device and operating state detecting method - Google Patents
Operating state detecting device and operating state detecting method Download PDFInfo
- Publication number
- JP5167188B2 JP5167188B2 JP2009088341A JP2009088341A JP5167188B2 JP 5167188 B2 JP5167188 B2 JP 5167188B2 JP 2009088341 A JP2009088341 A JP 2009088341A JP 2009088341 A JP2009088341 A JP 2009088341A JP 5167188 B2 JP5167188 B2 JP 5167188B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- state
- state information
- article
- storage means
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title description 26
- 230000005856 abnormality Effects 0.000 claims description 42
- 238000012545 processing Methods 0.000 claims description 41
- 238000001514 detection method Methods 0.000 claims description 31
- 238000010276 construction Methods 0.000 claims description 20
- 230000002159 abnormal effect Effects 0.000 claims description 8
- 230000009471 action Effects 0.000 description 57
- 238000012544 monitoring process Methods 0.000 description 23
- 238000010586 diagram Methods 0.000 description 21
- 230000006399 behavior Effects 0.000 description 18
- 230000008569 process Effects 0.000 description 17
- 238000009795 derivation Methods 0.000 description 16
- 238000003384 imaging method Methods 0.000 description 9
- 230000008859 change Effects 0.000 description 7
- 238000009434 installation Methods 0.000 description 5
- 239000000470 constituent Substances 0.000 description 3
- 238000003909 pattern recognition Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 206010000117 Abnormal behaviour Diseases 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
Images
Description
この発明は、カメラなどの撮像手段により撮像された画像情報および物品に取り付けられた無線タグからの読取情報から人物や物品などの物体の動きを検出する動作状態検出装置および動作状態検出方法に関する。 The present invention relates to an operation state detection apparatus and an operation state detection method for detecting the movement of an object such as a person or an article from image information captured by an imaging unit such as a camera and read information from a wireless tag attached to the article.
従来から、監視カメラ等で撮影した画像を分析して、人物などの監視対象物の行動を認識する認識装置が知られている。例えば、特許文献1では、ステレオカメラで撮影した映像から、SVM(サポートベクタマシーン)などのパターン認識技術を用いて正常パターンか異常パターンかを判定することにより、複数の監視対象の中から不審な行動をしている監視対象を検出する技術が提案されている。
2. Description of the Related Art Conventionally, a recognition device that analyzes an image captured by a monitoring camera or the like and recognizes an action of a monitoring target such as a person is known. For example, in
しかしながら、特許文献1の方法は、学習した歩行軌跡データを用いることにより、例えば複数人の歩行軌跡情報からパターン認識により異常な行動(歩行軌跡)を検出するものである。すなわち、複数人の歩行軌跡のそれぞれが正常か異常かを判定するのみである。このため、例えば、複数人が共謀して不正行為を行っている場合などでは、個々の人物の歩行軌跡のパターン認識のみでは高精度に行動を検出することができず、結果として異常な行動であると判定できない場合があった。また、人が重要な物品である重要物を移動させるといった行為もなされうるが、人の行動の検出だけでは、人と移動される重要物とを関連づけて重要物を管理するといったことができない。
However, the method of
本発明は、上記に鑑みてなされたものであって、人および物品(重要物)から得られる複数の情報を用いることにより、高精度に物体の動きを検出し、重要物に対するセキュリティの強化とその管理を同時に達成することができる動作状態検出装置および動作状態検出方法を提供することを目的とする。 The present invention has been made in view of the above, and by using a plurality of information obtained from a person and an article (important object), the movement of the object is detected with high accuracy, and security for the important object is enhanced. An object of the present invention is to provide an operation state detection apparatus and an operation state detection method capable of simultaneously achieving the management.
上述した課題を解決し、目的を達成するために、本発明の動作状態検出装置は、撮像された画像情報および無線タグから読み取った読取情報を基に生成される物体の動作状態を表す情報であって、前記物体の動作の種類を表す動詞と前記物体の動作に関連する名詞である格要素とを含み、前記動詞と前記格要素との間の意味関係を示す格フレームによって表された状態情報を構築する状態情報構築手段と、前記状態情報構築手段により構築された状態情報を記憶する記憶手段と、前記記憶手段から、複数の前記物体それぞれの動作状態を表す複数の前記状態情報を取得する状態情報取得手段と、取得された複数の前記状態情報それぞれに含まれる前記動詞の組み合わせに応じた物体の動作状態を予め定めた規則に基づいて、前記組み合わせに対応する物体の動作状態を検出する検出手段と、前記検出手段による検出結果に基づいて異常であるか否かを判定する異常判定手段と、を備えたことを特徴とする。 In order to solve the above-described problems and achieve the object, the operation state detection device of the present invention is information representing an operation state of an object generated based on captured image information and read information read from a wireless tag. A state represented by a case frame including a verb representing a type of action of the object and a case element that is a noun related to the action of the object, and indicating a semantic relationship between the verb and the case element State information construction means for constructing information, storage means for storing the state information constructed by the state information construction means, and a plurality of the state information representing the operation states of the plurality of objects are acquired from the storage means. A state information acquisition means that performs the action state of the object according to the combination of the verbs included in each of the acquired plurality of state information based on a predetermined rule. Detecting means for detecting the operating state of the object response, characterized in that and an abnormality judging means for judging whether the abnormality based on the detection result by the detection means.
本発明の動作状態検出装置は、撮像された画像情報および無線タグから読み取った読取情報を基に生成される物体の動作状態を表す情報であって、前記物体の動作の種類を表す動詞と前記物体の動作に関連する名詞である格要素とを含み、前記動詞と前記格要素との間の意味関係を示す格フレームによって表された状態情報を構築する状態情報構築手段と、前記状態情報構築手段により構築された状態情報を記憶する第1の記憶手段と、前記物体の、少なくとも保管状態と最終取扱者と前記物体の位置とを含む管理情報を記憶する第2の記憶手段と、前記記憶手段から、複数の前記物体それぞれの動作状態を表す複数の前記状態情報を取得する状態情報取得手段と、対象とする物品である物体に対する状態情報が前記第1の記憶手段から取得できる場合に、該物体に対する状態情報から場所の移動の有無を検出し、さらに場所の移動が検出された場合に、前記第2の記憶手段に記憶された前記管理情報を更新する固定資産管理手段と、を備えたことを特徴とする。 The operation state detection apparatus of the present invention is information representing an operation state of an object generated based on captured image information and read information read from a wireless tag, the verb representing the type of the object operation, State information constructing means for constructing state information represented by a case frame including a case element that is a noun related to the motion of an object, and indicating a semantic relationship between the verb and the case element, and the state information construction First storage means for storing state information constructed by the means, second storage means for storing management information including at least a storage state, a final handler, and a position of the object of the object, and the storage The state information acquisition means for acquiring a plurality of state information representing the operation state of each of the plurality of objects, and the state information for the object that is the target article are acquired from the first storage means. Fixed asset management means for detecting the presence / absence of movement of the location from the state information with respect to the object, and updating the management information stored in the second storage means when the movement of the location is further detected. And.
本発明の動作状態検出方法は、状態情報構築手段が、撮像された画像情報および無線タグから読み取った読取情報を基に生成される物体の動作状態を表す情報であって、前記物体の動作の種類を表す動詞と前記物体の動作に関連する名詞である格要素とを含み、前記動詞と前記格要素との間の意味関係を示す格フレームによって表された状態情報を構築し、構築した状態情報を記憶手段に記憶させる状態情報構築ステップと、状態情報取得手段が、前記記憶手段から、複数の前記物体それぞれの動作状態を表す複数の前記状態情報を取得する状態情報取得ステップと、検出手段が、取得された複数の前記状態情報それぞれに含まれる前記動詞の組み合わせに応じた物体の動作状態を予め定めた規則に基づいて、前記組み合わせに対応する物体の動作状態を検出する検出ステップと、異常判定手段が、前記検出ステップによる検出結果に基づいて異常であるか否かを判定する異常判定ステップと、を含むことを特徴とする。 The operation state detection method of the present invention is information representing the operation state of an object generated by the state information construction unit based on the captured image information and the read information read from the wireless tag. A state that includes a verb representing a type and a case element that is a noun related to the action of the object, and that is constructed by constructing state information represented by a case frame indicating a semantic relationship between the verb and the case element A state information construction step for storing information in the storage means; a state information acquisition means for acquiring a plurality of the state information representing the operation states of the plurality of objects from the storage means; and a detection means. Is an object corresponding to the combination based on a rule that predetermines the motion state of the object according to the combination of the verbs included in each of the acquired plurality of state information A detection step of detecting an operating state, the abnormality determination means, characterized in that it comprises a, and an abnormality determination step of determining whether or not an abnormality based on the detection result of the detecting step.
本発明の動作状態検出方法は、状態情報構築手段が、撮像された画像情報および無線タグから読み取った読取情報を基に生成される物体の動作状態を表す情報であって、前記物体の動作の種類を表す動詞と前記物体の動作に関連する名詞である格要素とを含み、前記動詞と前記格要素との間の意味関係を示す格フレームによって表された状態情報を構築し、構築した状態情報を第1の記憶手段に記憶させる状態情報構築ステップと、状態情報取得手段が、前記第1の記憶手段から、複数の前記物体それぞれの動作状態を表す複数の前記状態情報を取得する状態情報取得ステップと、固定資産管理手段が、対象とする物品である物体に対する状態情報が前記第1の記憶手段から取得できる場合に、該物体に対する状態情報から場所の移動の有無を検出し、さらに場所の移動が検出された場合に、前記物体の、少なくとも保管状態と最終取扱者と前記物体の位置とを含む管理情報を記憶する第2の記憶手段に記憶された管理情報を更新する固定資産管理処理ステップと、を含むことを特徴とする。 The operation state detection method of the present invention is information representing the operation state of an object generated by the state information construction unit based on the captured image information and the read information read from the wireless tag. A state that includes a verb representing a type and a case element that is a noun related to the action of the object, and that is constructed by constructing state information represented by a case frame indicating a semantic relationship between the verb and the case element State information construction step for storing information in the first storage means, and state information acquisition means for acquiring the plurality of state information representing the operation states of the plurality of objects from the first storage means. When the acquisition step and the fixed asset management means can acquire the state information for the object that is the target article from the first storage means, the presence / absence of movement of the place from the state information for the object Management information stored in second storage means for storing management information including at least a storage state, a final handler, and a position of the object when the object is detected and further movement of the place is detected. And a fixed asset management processing step to be updated.
本発明によれば、予め定められた規則に基づき、複数の物体(人および物品)それぞれの動作状態を表す複数の状態情報に含まれる各物体の動作の種類を表す動詞の組み合わせに応じた物体の動作状態を検出することができるため、高精度に物体の動作を検出することができ、また無線タグからの読取情報も利用して物品と人物とを関連づけ動作状態を判別することにより、重要物などの物品に対するセキュリティの強化とその管理を同時に達成することができるという効果を奏する。 According to the present invention, based on a predetermined rule, an object corresponding to a combination of verbs representing the type of motion of each object included in the plurality of state information representing the motion state of each of the plurality of objects (people and articles) It is possible to detect the movement of an object with high accuracy, and to detect the movement state by associating an article with a person using information read from a wireless tag. There is an effect that it is possible to simultaneously achieve security enhancement and management for articles such as goods.
以下に添付図面を参照して、この発明にかかる警備装置の一実施の形態を詳細に説明する。 Hereinafter, an embodiment of a security device according to the present invention will be described in detail with reference to the accompanying drawings.
本実施の形態は、監視カメラ等の撮像装置とRFID読取装置からの情報を用いて所定領域を警備する警備装置として本発明の動作状態検出装置を実現した例である。なお、本発明を適用可能な装置は警備装置に限られず、本発明は、撮像された画像情報およびRFIDタグ情報から物体(人物および物品)に関する情報を解析して、各物体の動作状態を検出する機能を備える任意の装置に適用できることに留意されたい。 The present embodiment is an example in which the operation state detection device of the present invention is realized as a security device that guards a predetermined area using information from an imaging device such as a monitoring camera and an RFID reader. The device to which the present invention can be applied is not limited to the security device, and the present invention analyzes the information on the object (person and article) from the captured image information and RFID tag information, and detects the operation state of each object. Note that the present invention can be applied to any device having a function to
本実施の形態の警備装置は、監視カメラ等の撮像装置で撮像した画像情報から、監視対象物である人物の行動(動作状態)を解析し、解析結果を深層格フレーム構造で表して記憶部に保存する。また、物品に取り付けられたRFIDタグ(無線タグ)からこのRFIDタグに記録された情報(RFIDタグ情報)をRFID読取装置で読み取り、読み取ったRFIDタグ情報と上記画像情報の解析結果を基に、当該物品に関する情報を深層格フレーム構造で表して記憶部に保存する。そして、記憶部に保存した各深層格フレームを相互に比較することによって、さらに人物の行動や物品の動作状態(特には、移動)を検出する。具体的には、同時刻に発生した複数人物の行動や物品の移動の組み合わせが、事前に定めた組み合わせに一致する場合に、当該組み合わせに応じた所定の動作状態が発生したことを検出する。 The security device according to the present embodiment analyzes the behavior (operation state) of a person who is a monitoring target from image information captured by an imaging device such as a monitoring camera, and represents the analysis result in a deep case frame structure. Save to. In addition, information (RFID tag information) recorded on the RFID tag from an RFID tag (wireless tag) attached to the article is read by the RFID reader, and based on the read RFID tag information and the analysis result of the image information, Information about the article is expressed in a deep case frame structure and stored in the storage unit. Then, by comparing the deep case frames stored in the storage unit with each other, the action of the person and the operation state (particularly, movement) of the article are further detected. Specifically, when the combination of the actions of a plurality of persons and the movement of an article that occurred at the same time matches a predetermined combination, it is detected that a predetermined operation state corresponding to the combination has occurred.
はじめに、本実施の形態の警備装置を含む監視システムの構成例について説明する。図1は、本実施の形態における監視システム10の構成を示すブロック図である。図1に示すように、監視システム10は、警備装置100と、管理用PC200と、警備装置100に接続される撮像装置(カメラ)3001〜300nとRFID読取装置(RFIDリーダ)4001〜400nとを備えている。また、同図に示すように他のPC200’を設けてもよい。警備装置100と管理用PC200は、電話回線、無線または有線のネットワーク、インターネットなどのネットワークを介して接続されている。
First, a configuration example of a monitoring system including a security device according to the present embodiment will be described. FIG. 1 is a block diagram showing a configuration of a
管理用PC200は、警備装置100が異常を検知した場合には、監視エリアの異常を検知した警備装置100からの通知を受け、待機中の警備員に対して異常が検知された監視エリア(不図示)へ向かう旨の指示を出すとともに、必要に応じて警察や消防等の関係機関への通報を行う。また、管理用PC200や他のPC200’は、RFIDタグが取り付けられた物品の現在の状態や位置のモニタリング等にも使用される。
When the
撮像装置3001〜300nは、警備対象である監視エリアを撮像するカメラであり、各監視エリアに設置されている。
The
RFID読取装置4001〜400nは、警備対象である各監視エリアに設置されており、主に重要物である物品に取り付けられたRFIDタグからRFIDタグ情報(ID等)を読み取る。
The
次に、警備装置100について説明する。警備装置100は、画像入力部111、画像処理部112、状態情報構築部113、データ入力部114、異常判定部115、固定資産管理部116、およびアクセス制御部117を備える制御部110と、状態情報DB(データベース)121、行動導出規則DB122、物品登録DB123、環境情報DB124、人物DB125、および物品管理DB126を備える記憶部120と、を備えている。なお、制御部110は、CPU(プロセッサ)およびメモリを含み、CPUが、メモリにロードされた上記各部に対応するプログラムを実行することにより各部の機能を実現する。また、各DBを備える記憶部120は、ハードディスク、光ディスク、メモリカード、RAM(Random Access Memory)などの一般的に利用されている任意の記憶媒体により構成することができる。この記憶部120は、また、上記プログラムを格納する。
Next, the
画像入力部111は、撮像装置3001〜300nによって撮像された画像情報が入力される。
Image information captured by the
画像処理部112は、画像入力部111に入力された画像情報を解析することにより、画像情報から物体の動作状態や特徴を検出する(詳細は後述)。そして、状態情報構築部113が、画像処理部112により検出された動作状態を表す状態情報を生成して状態情報DB121に保存する。
The image processing unit 112 analyzes the image information input to the
画像処理部112は、例えば画像情報から人物領域を抽出することにより、人物が「存在する」という動作状態を検出する。また、画像処理部112は、検出した人物の視線方向を検出することにより、当該人物の「見る」という動作状態を検出する。また、画像処理部112は、人物以外の他の物体を画像情報から抽出し、抽出した物体が新たに現れた場合には「取り出す」という動作状態を、抽出した物体が以前から存在し、人物の手の位置と重なった場合には「触る」という動作状態を検出する。 For example, the image processing unit 112 extracts the person region from the image information, thereby detecting an operation state in which the person “exists”. In addition, the image processing unit 112 detects an operation state of “seeing” the person by detecting the detected gaze direction of the person. Further, the image processing unit 112 extracts an object other than a person from the image information, and when the extracted object newly appears, the image processing unit 112 sets an operation state of “removal”, and the extracted object has existed before. When the position of the hand overlaps, an operation state of “touch” is detected.
なお、画像処理部112が人物または物品を抽出する方法としては、連続する画像情報の背景を比較することにより抽出した変動領域を人物領域とする方法や、人物パターンまたは物品パターンと照合することにより人物または物品を抽出する方法などの、従来から用いられている任意の手法を用いることができる。また、画像処理部112が人物の視線方向を検出する方法としては、顔領域パターンと照合することにより顔領域を抽出するとともに視線方向を検出する従来から用いられている任意の方法を用いることができる。 In addition, as a method for the image processing unit 112 to extract a person or an article, a variation area extracted by comparing backgrounds of continuous image information is used as a person area, or by comparing with a person pattern or an article pattern. Any conventionally used method such as a method of extracting a person or an article can be used. In addition, as a method for the image processing unit 112 to detect the gaze direction of the person, any conventional method for extracting a face area and detecting the gaze direction by matching with a face area pattern may be used. it can.
データ入力部114は、RFID読取装置4001〜400nが読み取ったRFIDタグ情報が入力される。状態情報構築部113は、画像処理部112による解析結果およびデータ入力部114に入力されたRFIDタグ情報を基に、物体(人または物品)の動作状態を後述の深層格フレームによる状態情報として構築する。なお、複数ある撮像装置3001〜300nやRFID読取装置4001〜400nは、各々そのIDにより識別され、入力される情報はそのIDとともに利用される。これらのIDは、各装置とそれらが設置されたエリアとを対応付けることができるので、撮像装置3001〜300nやRFID読取装置4001〜400nにより検出された物体が所在するエリアを特定するのに利用することができる。
The RFID tag information read by the
アクセス制御部117は、ネットワークを介して管理用PC200や他のPC200’との間で各種情報を送受信する際のアクセス制御を行う。なお、異常な動作状態を検出する異常判定部115および重要物などの物品の管理のための処理を行う固定資産管理部116の詳細については後に詳述する。
The
状態情報DB121は、状態情報構築部113より構築された、物体の動作状態を深層格フレーム構造(後述)で表した状態情報を、時系列に構造化し(図4参照)記憶する。なお、深層格フレーム(以下、単に格フレームとも言う)とは、動詞を基準として、動詞に対する名詞の意味関係を深層格として表した言語構造をいう。
The state information DB 121 stores the state information, which is constructed by the state
図2は、状態情報DB121に記憶される状態情報のデータ構造の一例を示す図である。図2に示すように、状態情報は、格フレームを識別する格フレームID(CFID)と、“しゃがむ”などの動作(行動)の種類を表す行動名(ActNm)と、動作に関連する名詞である格要素(深層格)とを含んでいる。深層格には、主格(Agent)、属性格(Feature)、場所格(PosCase)、時間格(TimeCase)、源泉格(SrcCase)、目標格(DstCase)、対象格(ObjCase)、および道具格(ToolCase)が含まれる。 FIG. 2 is a diagram illustrating an example of a data structure of state information stored in the state information DB 121. As shown in FIG. 2, the status information includes a case frame ID (CFID) for identifying a case frame, an action name (ActNm) indicating the type of action (action) such as “squatting”, and a noun related to the action. It contains a case element (deep case). The deep case includes a main case (Agent), an attribute case (Feature), a place case (PosCase), a time case (TimeCase), a source case (SrcCase), a target case (DstCase), a target case (ObjCase), and a tool case ( ToolCase).
図3に、状態情報DB151に記憶される状態情報の具体例を示す。主格は、動作を引き起こす主体を表し、具体的には、同図に示すように、追跡番号(ID)と認証名(Name)を含む。属性格は、主格に関する情報をいう。例えば、属性格は、顔特徴(Face)、体特徴(Body)、歩行特徴(Gate)に分けられる。顔特徴(Face)は、顔検出信頼度(FConf)、顔特徴(Ident)、口開閉度合(Mouth)、視線方向(PanTilt)、マスクの有無(Mask)、サングラスの有無(SG)、性別(Sex)、年代(Age)、頭色(HColor)等を含む。また、体特徴は、身長(Height)、上半身色(BColor)、下半身色(LColor)等を含む。また、歩行特徴は、歩幅(StepWidth)、体型(Posture)、脚長(LLength)、歩速(WSpeed)等を含む。 FIG. 3 shows a specific example of the state information stored in the state information DB 151. The main character represents a subject that causes an action, and specifically includes a tracking number (ID) and an authentication name (Name) as shown in FIG. The attribute case refers to information on the main case. For example, the attribute case is divided into a facial feature (Face), a body feature (Body), and a walking feature (Gate). The face feature (Face) includes face detection reliability (FConf), face feature (Ident), mouth opening / closing degree (Mouth), gaze direction (PanTilt), presence / absence of mask (Mask), presence / absence of sunglasses (SG), gender ( Sex), age (Age), head color (HCColor) and the like. The body features include height, upper body color (BColor), lower body color (LCColor), and the like. The walking features include a step width, a body shape, a leg length, a walking speed, and the like.
場所格は、動作や状態が起こる場所を表す。例えば、場所格は、場所名(PName)、頭部座標(Head)、体座標(Body)、足座標(Leg)、右手座標(RHnad)、LHand(左手座標)、重心座標(WB)等を含む。 A place case represents a place where an action or a state occurs. For example, the location case includes a location name (PName), head coordinates (Head), body coordinates (Body), foot coordinates (Leg), right-hand coordinates (RHnad), LHand (left-hand coordinates), barycentric coordinates (WB), and the like. Including.
時間格は、動作や状態変化が起きた時間を表す。例えば、時間格は、動作や新たな状態が起こった日時(時刻)と、その動作や状態変化が終了するまでの経過時間(PassTime)等を含む。 The time case represents the time when the movement or state change occurred. For example, the time case includes a date and time (time) when an operation or a new state occurs, an elapsed time (PassTime) until the operation or state change ends, and the like.
源泉格は、移動や状態変化などの起点を表す。例えば、源泉格は、主格が移動や動作等を行う起点の位置を表す場所情報(PosCase)、起点での主格の属性を表す属性情報(Feature)、およびそのときの時間情報(TimeCase)を含む。 The source case represents the starting point of movement or state change. For example, the source case includes location information (PosCase) indicating the position of the starting point where the leading character moves, moves, etc., attribute information (Feature) indicating the attribute of the leading character at the starting point, and time information (TimeCase) at that time .
目標格は、移動や状態変化などの終点を表す。例えば、目標格は、主格が移動や動作等を行う終点の位置を表す場所情報(PosCase)、終点での主格の属性を表す属性情報(Feature)、およびそのときの時間情報(TimeCase)を含む。 The target case represents an end point such as movement or state change. For example, the target case includes location information (PosCase) indicating the position of the end point where the main character moves or moves, attribute information (Feature) indicating the attribute of the main character at the end point, and time information (TimeCase) at that time .
対象格は、動作や状態の対象となる事物を表す。対象格は、固有の識別情報である追跡番号(ID)、および認証名(Name)等を含む。 A target case represents an object that is the target of an action or state. The target case includes a tracking number (ID), which is unique identification information, and an authentication name (Name).
道具格は、動作の補助的手段を表す。道具格は、固有の識別情報である追跡番号(ID)、および認証名(Name)を含む。 The tool scale represents an auxiliary means of movement. The instrument includes a tracking number (ID), which is unique identification information, and an authentication name (Name).
前述の状態情報構築部113は、このように構成される格フレームに具体的な値を設定することにより、画像処理部112による解析結果およびデータ入力部114に入力されたRFIDタグ情報を、物体の動作状態を表わす状態情報として構築する。なお、利用できる深層格は上述のものに限られず、さらに細分化してもよく、例えば精神的事象の経験者を表す経験者格などの、その他のあらゆる深層格を用いることができる。
The state
図1に戻り、行動導出規則DB122は、後述する異常判定部115が、状態情報DB111に保存された格フレームを比較して動作状態を検出するときに参照する行動導出規則を記憶する。この行動導出規則は、状態情報DB121に蓄積された格フレームを比較し、前後の格フレーム間で変化があれば、その変化を表わす格フレームを生成して再構成するための規則を蓄積したものである。図5に、行動導出規則DB122に記憶される行動検出規則のデータ構造の一例を示す。
Returning to FIG. 1, the behavior
図5に示すように、行動導出規則は、比較元となる情報であって、時間的に前の状態情報である前格フレームと、比較先となる情報であって、時間的に後の状態情報である後格フレームと、その他の条件とを、導出される状態情報と対応づけた形式となっている。 As shown in FIG. 5, the action derivation rule is information that is a comparison source, and is a previous frame that is state information that is temporally previous, and information that is a comparison destination that is temporally subsequent. This is a format in which the post-grade frame that is information and other conditions are associated with the derived state information.
前格フレームおよび後格フレームは、それぞれ行動名と格情報とを含んでいる。格情報には、比較すべき少なくとも1つの深層格を設定する。 Each of the front case frame and the back case frame includes an action name and case information. In the case information, at least one deep case to be compared is set.
前格フレームおよび後格フレームは、2つの格フレームが差異を有するパターンを表す情報(差分情報)に相当する。すなわち、ある2つの格フレームが、それぞれ前格フレームと後格フレームとで、設定された行動名および格情報が適合するとき、この2つの格フレーム間には差異が存在すると判断される。例えば、図5では、ある前格フレーム(格フレーム1)の行動名が「存在する」、場所格に含まれる体位置が「A」であり、後格フレーム(格フレーム2)の行動名が「存在する」、場所格に含まれる体位置が「B」であるとき、前格フレームと後格フレームとの間には差分が存在すると判断される。そして、差分が存在すると判断された場合、差分に対応する行動として、「導出できる状態情報」欄に記載された行動名の行動(上記例では「移動する」)が検出される。 The front case frame and the back case frame correspond to information (difference information) representing a pattern in which two case frames have a difference. That is, when two action frames and the action information set in the case frame and the case frame match each other, it is determined that there is a difference between the two case frames. For example, in FIG. 5, the action name of a certain front case frame (case frame 1) is “exists”, the body position included in the place case is “A”, and the action name of the back case frame (case frame 2) is When the body position included in the place case is “B”, it is determined that there is a difference between the front case frame and the back case frame. When it is determined that there is a difference, an action having the action name described in the “state information that can be derived” column (“moving” in the above example) is detected as an action corresponding to the difference.
その他の条件には、必要に応じて、比較する状態情報が満たすべき条件が設定される。例えば、同図の行動名「しゃがむ」の行動を導出する行動導出規則では、前格フレームに含まれる頭部位置Bと、後格フレームに含まれる頭部位置Cとが、B>Cの関係を満たすことが条件として設定されている。 In other conditions, conditions to be satisfied by the state information to be compared are set as necessary. For example, in the behavior derivation rule for deriving the behavior with the behavior name “Squam” in the same figure, the relationship B> C between the head position B included in the front case frame and the head position C included in the back case frame. Satisfying is set as a condition.
導出できる状態情報は、導出される行動の行動名と、保存すべき少なくとも1つの深層格を表す格情報とを含んでいる。同図では、例えば、行動名「移動する」の行動が検出された場合は、前格フレームに含まれる体位置Aおよび後格フレームに含まれる体位置Bを、それぞれ導出した行動に対応する格フレームの源泉格の体位置Aおよび目標格の体位置Bとして保存する例が示されている。 The state information that can be derived includes the action name of the derived action and case information that represents at least one deep case to be saved. In the figure, for example, when an action with the action name “move” is detected, the body position A included in the front case frame and the body position B included in the back case frame are respectively corresponding to the derived actions. An example of saving as the body position A of the source case of the frame and the body position B of the target case is shown.
なお、行動導出規則は同図に示す形式に限られるものではなく、複数の状態情報間の差分に応じて予め定められた行動を決定可能なものであれば任意の形式の規則を適用することができる。 Note that the behavior derivation rules are not limited to the format shown in the figure, and rules of any format can be applied as long as predetermined behaviors can be determined according to differences between a plurality of state information. Can do.
図6に、物品登録DB123のデータ構造の一例を示す。物品登録DB123は、同図に示すように、登録管理される物品(特には、重要物)のID(このIDは、物品に取り付けられたRFIDタグから読み取られるIDに対応する)、品名(金庫鍵、顧客リスト、ノートPC、プロジェクタ等)、アクセス制限、タイプ、保管位置を対応付け、物品登録情報として記憶している。上記「アクセス制限」とは、各物品に設定される使用条件である。物品毎に複数のアクセス制限を設定可能であり、各条件から逸脱した状態が異常判定部115により検知されると異常と判定されることになる。このアクセス条件として、例えば、0〜99の値を使用者条件として、100〜199の値を場所条件として、200〜299の値を時間条件として、300〜399の値を用途条件として、割り当てる。また、「タイプ」とは、各物品の性質を示すもので、例えば、0は鍵を、1はCD/DVDを、2は書籍/書類を、3はPC機器を、4は工具をというように、数値で物品の性質(種類)を示す。図6の例では、ID=0の金庫鍵の場合、アクセス制限が0,100,200という使用者条件、場所条件、時間条件の3つの使用条件が設定され、この物品のタイプは「0」すなわち鍵で、その保管場所が鍵保管箱であることが登録されている。
FIG. 6 shows an example of the data structure of the
ここで、アクセス制限の具体例を図7に示す。上記のように、100〜199の値は場所条件、200〜299の値は時間条件、300〜399の値は用途条件として、割り当てているが、使用者条件としては、使用条件を「管理権限者のみ」とする場合0を、「使用時、複数人の立ち会いを要する」場合1を、また「使用許可を受けている者のみ」とする場合2をというように値を割り当てている。場所条件としては、「エリア間の移動は禁止」とする場合100を、「エリア間移動時にチェックが必要」とする場合101を、「フロア外持ち出し禁止」とする場合102をというように値を割り当てている。また、時間条件としては、「30分以内」を条件とする場合200を、「1日以内」を条件とする場合201を、「1週間以内」を条件とする場合202を割り当て、用途条件としては、「複製禁止」とする場合300を、「複製時、複数人の立ち会いを要する」とする場合301というように値を割り当てている。 A specific example of access restriction is shown in FIG. As described above, the values of 100 to 199 are assigned as place conditions, the values of 200 to 299 are assigned as time conditions, and the values of 300 to 399 are assigned as application conditions. Values are assigned such that 0 is set to “only the user”, 1 is set to “requires the presence of a plurality of people at the time of use”, and 2 is set to “only the person who is permitted to use”. As the place condition, the value is set to 100 when “move between areas is prohibited”, 101 when “check is necessary when moving between areas”, 102 when “pickout out of floor” is set, etc. Assigned. Also, as the time condition, 200 is assigned when “within 30 minutes”, 201 is assigned with “within 1 day”, 202 is assigned with “within 1 week”, and the usage conditions are assigned. Is assigned a value such as “300 when copying is prohibited” and 301 when “requires the presence of multiple people during copying”.
図8に、環境情報DB124のデータ構造の一例を示す。環境情報DB124は、同図に示すように、各監視エリアや各監視エリアに設けられたRFIDリーダ(RFID読取装置4001〜400n)等の設置物のID、名称、起点座標、終点座標、およびエリア/設置物種別が登録されている。監視エリアの起点座標と終点座標とで、監視エリアの範囲を定義している。各監視エリアのRFIDリーダ等の設置物の起点座標と終点座標は、当該設置物の設置位置の座標を示している。
FIG. 8 shows an example of the data structure of the
図9に、人物DB125のデータ構造の一例を示す。人物DB125は、同図に示すように、人物と、この人物の重要物へのアクセスに対する権限に関する情報を対応付け登録したものである。具体的には、人物のID、名称、管理権限(管理者/ユーザ/ゲスト等)、所属部署(総務部/開発部/運用部等)、使用許可期限が人物毎に登録される。人物の重要物へのアクセスに対する権限に関する情報としては、例えば、出入管理等の情報を流用することも可能である。
FIG. 9 shows an example of the data structure of the
図10に、物品管理DB126のデータ構造の一例を示す。物品管理DB126は、物品の現在の状態を管理するためのDBであり、同図に示すように、物品のID、名称、状態(保管/持ち出し等)、最終取扱者、最新更新位置、最新更新時間を含む管理情報が物品毎に登録されている。なお、記憶部120の各DBは、定期的に、または必要に応じて、あるいは所定のイベントに応じて、それらの更新が行われる。例えば、状態情報DB121は、定期的な更新の時間間隔が長い場合には、定期的な更新以外に、画像処理部112により物体の移動が検出された時点においても更新するようにすることが望ましい。
FIG. 10 shows an example of the data structure of the
異常判定部115は、状態情報DB121から複数の状態情報を取得する。例えば、異常判定部115は、状態情報構築部113によって生成され状態情報DB111に保存された状態情報のうち、時刻が連続する2つの状態情報を取得する。また、異常判定部115は、状態情報DB121に保存された状態情報のうち、同一時刻で主格が異なる2つの状態情報を取得する。取得された状態情報は、図5の行動導出規則によって行動を検出するときに利用される。なお、上記時刻は厳密に同一である必要はなく、誤差が所定の時間範囲内であれば略同一の時刻と判断するように構成してもよい。
The
また、異常判定部115は、時刻が連続する2つの状態情報が行動導出規則DB122に保存された行動導出規則に適合するか否かを判定することによって、新たな行動を検出する。
In addition, the
具体的には、異常判定部115は、先に取得した時刻が連続する2つの状態情報の行動名および格情報が一致する行動導出規則を行動導出規則DB122から取得する。そして、2つの状態情報の行動名および格情報が一致する行動導出規則が取得できた場合には、当該行動検出規則で定められた行動を新たな行動として検出する。そして、後述の異常判定処理を実行する。
Specifically, the
(異常判定)
異常判定部115は、さらに、状態情報DB121に時系列に登録されている人物に対する状態情報および物品に対する状態情報から異常判定を行う。その具体例を、図11に示す。図11は、状態情報から異常判定を行う際の具体例を示す図である。同図において、物品にはRFIDタグが取り付けられているものとする。また、図12に、図11に示す状況で画像処理により得られる情報とRFIDリーダから得られる情報の例を示す。
(Abnormality judgment)
The
図11に示すように、各エリアには、カメラとRFIDリーダが設置されており、各エリアにおいて、人物の行動を解析し、物品のエリア間の移動を検出する。図11の(1)、(2)、(3)の各状態において得られる情報として、図12に示す情報が得られる。すなわち、(1)で画像処理部112による画像処理により得られる情報は、[行動名:存在する]、[主格:人物A、人物B]、[場所格(場所名):エリアA]であり、同じく(1)でRFIDリーダから得られる情報は、[行動名:存在する]、[主格:物品]、[場所格:エリアA]である。また、図11の(2)で画像処理部112による画像処理により得られる情報は、[行動名:存在する]、[主格:人物A、人物B]、[場所格:エリアC]であり、同じく(2)でRFIDリーダから得られる情報は、[行動名:存在する]、[主格:物品]、[場所格:エリアC]である。また、図11の(3)で画像処理部112による画像処理により得られる情報は、[行動名:存在する]、[主格:人物A]、[場所格:エリアB]であり、同じく(3)でRFIDリーダから得られる情報は、[行動名:存在する]、[主格:物品]、[場所格:エリアB]である。なお、この例では物品の動作状態の検出をRFIDリーダから得られる情報によるものとしているが、もちろん画像情報を解析して得られる情報を利用することもできる。この例のように、RFIDリーダから得られる情報を用いることにより、物品がカメラにより撮像できない状況にあっても、その動作状態を検出するための情報を得ることができる。 As shown in FIG. 11, a camera and an RFID reader are installed in each area, and in each area, a person's behavior is analyzed and movement between areas of the article is detected. Information shown in FIG. 12 is obtained as information obtained in the states (1), (2), and (3) of FIG. That is, the information obtained by the image processing by the image processing unit 112 in (1) is [behavior name: exists], [main character: person A, person B], [location case (location name): area A]. Similarly, the information obtained from the RFID reader in (1) is [behavior name: exists], [main character: article], and [location character: area A]. Also, information obtained by image processing by the image processing unit 112 in (2) of FIG. 11 is [action name: exists], [main character: person A, person B], [location character: area C], Similarly, the information obtained from the RFID reader in (2) is [action name: exists], [master: article], [location case: area C]. Also, the information obtained by the image processing by the image processing unit 112 in (3) of FIG. 11 is [action name: exists], [main character: person A], [location character: area B]. ), The information obtained from the RFID reader is [action name: exists], [master: article], and [location case: area B]. In this example, the detection of the operation state of the article is based on information obtained from the RFID reader. Of course, information obtained by analyzing image information can also be used. By using the information obtained from the RFID reader as in this example, it is possible to obtain information for detecting the operation state even when the article cannot be captured by the camera.
このような状況で、図7に示したアクセス制限として「100」が設定されている場合、すなわち「エリア間の移動は禁止」という条件が設定されている場合、図11の(2)で、状態情報DB121の更新のためRFIDリーダから情報を取得した際に、物品の「エリアAからエリアBへの移動」が時系列の状態情報として状態情報DB121に登録されるため(このとき生成される格フレームは、先に登録されている格フレーム(状態情報)とは場所格が異なる(エリアA→エリアB))、この状態情報を基に異常と判定することができる。 In this situation, when “100” is set as the access restriction shown in FIG. 7, that is, when the condition “movement between areas is prohibited” is set, (2) in FIG. When information is acquired from the RFID reader for updating the state information DB 121, “movement from area A to area B” of the article is registered in the state information DB 121 as time-series state information (generated at this time). The case frame has a different location case from the previously registered case frame (state information) (area A → area B)), and can be determined to be abnormal based on this state information.
また、このような状況で、図7に示したアクセス制限として「1」が設定されている場合、すなわち「使用時、複数人の立会いを要する」という条件が設定されている場合、図11の(1)、(2)の状況では、物体のあるエリアに人物Aおよび人物Bが存在するため、アクセス制限の条件を満たし異常とならないが、(3)の状況のように、エリアBに物体と人物Aしか存在しないことが、状態情報から検出されると、異常判定部115は、この状態情報を基に異常と判定することになる。
Further, in this situation, when “1” is set as the access restriction shown in FIG. 7, that is, when the condition “requires the presence of multiple people when used” is set, In the situations (1) and (2), the person A and the person B exist in the area where the object is present, so that the access restriction condition is not met and no abnormality occurs. However, as in the situation (3), the object When it is detected from the state information that only the person A exists, the
(異常判定処理)
ここで、図13を用いて、本実施形態の警備装置100の異常判定部115による異常判定処理について説明する。図13は、異常判定部115による異常判定処理を示すフローチャートである。なお、物品にはRFIDタグが取り付けられているものとする。
(Abnormality judgment processing)
Here, the abnormality determination process by the
はじめに、対象物品に対する格フレームが状態情報DB121に登録されているか判断する(ステップS1301)。ここでは、この物品の主格であるID(追跡番号)を基に、状態情報DB121を検索し、該当する格フレームが登録されているか否か判断をする。 First, it is determined whether a case frame for the target article is registered in the state information DB 121 (step S1301). Here, the status information DB 121 is searched based on the ID (tracking number) which is the main character of the article, and it is determined whether or not the corresponding case frame is registered.
状態情報DB121に対象物品の格フレームが登録されている場合(ステップS1301でYes)、ステップS1302に移行し、このステップにおいて、物品登録DB123からこの物品の情報を取得する。ここでは、当該物品のIDを基に、物品登録DB123を検索し、対応する、品名、アクセス制限(使用者条件、場所条件、時間条件、用途条件等)、タイプ、保管位置等の情報を取得する。
When the case frame of the target article is registered in the state information DB 121 (Yes in step S1301), the process proceeds to step S1302, and in this step, information on the article is acquired from the
次いで、状態情報DB121から対象物品の直近に存在する人物の状態情報を取得する(ステップS1303)。通常、自走式の物体を除いて、一般の物品は人が移動させるものであるので、物品の移動がある場合には、その空間的・時間的直近に人物が存在すると考えられる。したがって、ここでは、状態情報DB121に登録されている物品の格フレーム(状態情報)から得られる場所格および時間格を基に、該当物品に対して空間的・時間的直近に存在する人物に対する状態情報を取得する。 Next, the status information of the person who is closest to the target article is acquired from the status information DB 121 (step S1303). Usually, a general article is moved by a person except for a self-propelled object. Therefore, when an article is moved, it is considered that a person exists in the closest space and time. Therefore, here, based on the place case and time case obtained from the case frame (state information) of the article registered in the state information DB 121, the state for the person who is closest to the article in space and time Get information.
そして、ステップS1304で使用者条件、場所条件、時間条件、用途条件のチェックをする。ここでは、ステップS1302で取得された情報の内アクセス制限として前述の使用者条件、場所条件、時間条件、用途条件のいずれかまたは全部が設定されている場合、ステップS1303で取得した人物に対する状態情報がこれらの条件を満たしているかチェックする。なお、使用者条件に関しては、人物に対する状態情報から特定される人物について人物DB125を参照し、その管理権限や使用許可期限等が使用者条件に合致するかもチェックする。また、場所条件や用途条件(例えば、複製禁止の場合、複写機のある位置/空間に物品が存在することを禁止条件とするなど)に関しては、人物や物品の位置が、状態情報において場所名の他、座標でも特定されるため、環境情報DB124を参照し、人物や物品が存在する位置関係を特定した上で、人物や物品に対する状態情報が場所条件等に合致するかをチェックする。
In step S1304, user conditions, place conditions, time conditions, and usage conditions are checked. Here, when any or all of the above-mentioned user conditions, place conditions, time conditions, and usage conditions are set as access restrictions in the information acquired in step S1302, the state information for the person acquired in step S1303. Checks whether these conditions are met. Regarding the user condition, the
上記人物に対する状態情報が、いずれかの条件を逸脱している場合(ステップS1305でYes)、管理用PC200に異常を通知する異常出力を行う(ステップS1306)。
If the status information for the person deviates from any of the conditions (Yes in step S1305), an abnormality output for notifying the
以上の、物品と人物とを関連づけて監視する異常判定処理により、物品(RFIDタグ付き)に対するセキュリティをより強化することができる。 Through the above-described abnormality determination process for monitoring an article and a person in association with each other, security for the article (with an RFID tag) can be further strengthened.
続いて、固定資産管理部116による固定資産管理のための処理について説明する。固定資産管理部116は、状態情報DB121から複数の状態情報を取得する。例えば、時刻が連続する2つの状態情報を取得する。この状態情報の主格(ID等)および場所格(なお、物品の場合、図3に示す人物に対する頭部座標等の情報はない)を基に、その動作状態(移動)を検出する。そして、後述の固定資産管理処理を実行する。なお、上記時刻は厳密に同一である必要はなく、誤差が所定の時間範囲内であれば略同一の時刻と判断するように構成してもよい。
Next, processing for fixed asset management by the fixed
(固定資産管理)
以下に、本実施形態の監視システム10を利用した固定資産の手法について説明する。その具体例を図14〜16に示す。ここで、図14は、状態情報から固定資産管理のための処理を行う際の具体例を示す図である。図15は、図14の状況で画像処理により得られる情報とRFIDリーダから得られる情報の例を示す図である。図16は、物品管理DBの更新過程を例示した図である。なお、図14において、物品にはRFIDタグが取り付けられているものとする。
(Fixed assets management)
Below, the method of the fixed asset using the
図14に示すように、各エリアには、カメラとRFIDリーダが設置されており、各エリアにおいて、人物の行動を解析し、物品の動作状態としてこの物品のエリア間の移動を検出する。図14の(1)、(2)、(3)の各状態において得られる情報として、図15に示す情報が得られる。すなわち、(1)で画像処理部112による画像処理により得られる情報は、[行動名:存在する]、[主格:人物A]、[場所格(場所名):エリアA]、[時間格:T1]であり、同じく(1)でRFIDリーダから得られる情報は、[行動名:存在する]、[主格:物品]、[場所格:エリアA]、[時間格:T1]である。また、図14の(2)で画像処理部112による画像処理により得られる情報は、[行動名:存在する]、[主格:人物A、人物B]、[場所格:エリアC]、[時間格:T2]であり、同じく(2)でRFIDリーダから得られる情報は、[行動名:存在する]、[主格:物品]、[場所格:エリアC]、[時間格:T3]である。また、図14の(3)で画像処理部112による画像処理により得られる情報は、[行動名:存在する]、[主格:人物B]、[場所格:エリアB]、[時間格:T3]であり、同じく(3)でRFIDリーダから得られる情報は、[行動名:存在する]、[主格:物品]、[場所格:エリアB]、[時間格:T3]である。 As shown in FIG. 14, a camera and an RFID reader are installed in each area. In each area, a person's behavior is analyzed, and movement between the areas of the article is detected as an operation state of the article. Information shown in FIG. 15 is obtained as information obtained in the states (1), (2), and (3) of FIG. That is, the information obtained by the image processing by the image processing unit 112 in (1) is [behavior name: exists], [main character: person A], [location case (location name): area A], [time case: Similarly, the information obtained from the RFID reader in (1) is [Action Name: Exists], [Main Character: Article], [Location Case: Area A], [Time Case: T1]. Also, the information obtained by the image processing by the image processing unit 112 in (2) of FIG. 14 is [behavior name: exists], [main character: person A, person B], [location character: area C], [time] Similarly, the information obtained from the RFID reader in (2) is [Action Name: Exists], [Primary: Goods], [Location Case: Area C], [Time Case: T3]. . Also, the information obtained by the image processing by the image processing unit 112 in (3) of FIG. 14 is [behavior name: exists], [main character: person B], [location character: area B], [time character: T3. Similarly, the information obtained from the RFID reader in (3) is [action name: exists], [master: article], [location case: area B], [time case: T3].
ここで、物品管理DB126の初期状態は、図16の(A)の状態にあるとする。図14に示す(1)の状態では、人物Aと物品がエリアA内にあり、人物Aが物品を持ち出そうとしている。この状態で、物品管理DB126の更新がなされると、物品管理DB126は、図16の(B)のように更新される。すなわち、物品更新DBの項目の内、「状態」、「最終取扱者」、「最新更新位置」、「最終更新時間」が、それぞれ「持ち出し」、「人物A」、「エリアA」、「T1」(ただし、T1はこの更新時の時間である)に更新される。
Here, it is assumed that the initial state of the
次いで、図14の(2)の状態になると(このときエリアCにおいて人物Aは人物Bと合流している)、物品管理DB126は、図16の(C)のように更新される。すなわち、物品更新DBの項目の内、「最新更新位置」、「最終更新時間」が、それぞれ、「エリアC」、「T2」(ただし、T2はこの更新時の時間である)に更新される。
Next, when the state shown in (2) of FIG. 14 is reached (at this time, the person A joins the person B in the area C), the
次いで、図14の(3)の状態になると(このとき、物品は人物Aから人物Bに手渡され、物品と人物BはエリアBに存在している)、物品管理DB126は、図16の(D)のように更新される。すなわち、物品更新DBの項目の内、「最終取扱者」、「最新更新位置」、「最終更新時間」が、それぞれ「人物B」、「エリアB」、「T3」(ただし、T3はこの更新時の時間である)に更新される。 Next, when the state shown in (3) of FIG. 14 is reached (at this time, the article is handed over from person A to person B, and the article and person B exist in area B), the article management DB 126 (see FIG. It is updated as in D). That is, among the items in the article update DB, “last handler”, “latest update position”, and “last update time” are “person B”, “area B”, and “T3” (however, T3 is this update). Time).
以上のように、RFIDタグ付き物品の管理状態が物品管理DB126に登録され管理される。
As described above, the management state of the RFID-tagged article is registered and managed in the
(固定資産管理処理)
ここで、図17を用いて、本実施形態の警備装置100の固定資産管理部116による固定資産管理処理について説明する。図17は、固定資産管理部116による固定資産管理処理を示すフローチャートである。なお、物品にはRFIDタグが取り付けられており、RFIDリーダによりそのRFIDタグ情報が読み取られ、当該物品のIDが取得されているものとする。また、この処理は、例えば、定期的に行われる。
(Fixed asset management processing)
Here, the fixed asset management processing by the fixed
はじめに、対象物品に対する格フレームが状態情報DB121に登録されているか(状態情報DB121から取得可能か)判断する(ステップS1701)。ここでは、この物品の主格であるID(追跡番号)を基に、状態情報DB121を検索し、該当する格フレーム(最新の格フレームとその1つ前の時点の格フレーム)が登録されているか否か判断をする。状態情報DB121に該当する格フレームが存在しない場合(ステップS1701でNo)、この処理は終了する。 First, it is determined whether a case frame for the target article is registered in the state information DB 121 (can be acquired from the state information DB 121) (step S1701). Here, the status information DB 121 is searched based on the ID (tracking number) which is the main case of the article, and whether the corresponding case frame (the latest case frame and the case frame immediately before) is registered. Judge whether or not. If there is no case frame corresponding to the state information DB 121 (No in step S1701), this process ends.
一方、状態情報DB121に当該物品の格フレームが登録されている場合(ステップS1701でYes)、ステップS1702に移行し、このステップにおいて、場所の移動が発生しているか判断する。この判断は、当該時点において、最新の格フレーム(状態情報)と時間的に近接する1つ前の格フレーム(状態情報)を取得し、これらの間において当該物品の場所格に変化があるか否かを判定することにより行う。このステップにおいて場所の移動がないと判定された場合は(ステップS1702でNo)、ステップS1709へ移行し、このステップにおいて物品管理DB126の「最終更新時間」を当該物品の最新の状態情報の時間格の情報に更新する。
On the other hand, when the case frame of the article is registered in the state information DB 121 (Yes in step S1701), the process proceeds to step S1702, and in this step, it is determined whether or not a place movement has occurred. This determination is based on obtaining the previous case frame (state information) that is temporally close to the latest case frame (state information) at that time, and whether there is a change in the location case of the article between them. This is done by determining whether or not. If it is determined in this step that the location has not moved (No in step S1702), the process proceeds to step S1709, and in this step, the “last update time” of the
ステップS1702において場所の移動があったと判定された場合(ステップS1702でYes)、ステップS1703に移行し、このステップにおいて物品管理DB126の「最終更新位置」を最新の状態情報の場所格の情報に更新する。
If it is determined in step S1702 that the location has been moved (Yes in step S1702), the process proceeds to step S1703, where the “last updated position” in the
次いで、物品管理DB126より状態項目の情報を取得し(ステップS1704)、この情報が「保管」であるのか「持ち出し」であるのか判定する(ステップS1705)。 Next, information on the state item is acquired from the article management DB 126 (step S1704), and it is determined whether this information is “storage” or “take-out” (step S1705).
ステップS1705で、状態項目の情報が「保管」であると判定された場合(ステップS1705でYes)、状態項目を「持ち出し」に更新する(ステップS1706)。 If it is determined in step S1705 that the status item information is “storage” (Yes in step S1705), the status item is updated to “take out” (step S1706).
次いで、状態情報DB121から対象物品の直近に存在する人物の状態情報を取得する(ステップS1707)。ここでは、状態情報DB121に登録されている当該物品の格フレーム(状態情報)から得られる場所格および時間格を基に、該当物品に対して空間的・時間的直近に存在する人物に対する状態情報(特には、主格)を取得する。 Next, the status information of the person who is closest to the target article is acquired from the status information DB 121 (step S1707). Here, based on the location case and the time case obtained from the case frame (state information) of the article registered in the state information DB 121, the state information for the person who is closest to the article in space and time (Especially the main character).
そして、物品管理DB126の最終取扱者項目をステップS1707で取得した人物に対する状態情報(主格)で更新する(ステップS1708)。
Then, the final handler item in the
最後に、物品管理DB126の「最終更新時間」を当該物品の最新の状態情報の時間格の情報に更新する(ステップS1709)。
Finally, the “last update time” of the
一方、ステップS1705で、状態項目の情報が「保管」でない、すなわち「持ち出し」であると判定された場合(ステップS1705でNo)、ステップS1710へ移行し、このステップで、物品登録DB123より保管位置の情報を取得する。そして、対象物品の状態情報の場所格がステップS1710で取得した保管位置と一致するか否か判断する(ステップS1711)。
On the other hand, if it is determined in step S1705 that the status item information is not “storage”, that is, “take-out” (No in step S1705), the process proceeds to step S1710. In this step, the storage position is stored from the
ステップS1711の判断で、対象物品の状態情報の場所格がステップS1710で取得した保管位置と一致すると判定された場合(ステップS1711でYes)、物品管理DB126の状態項目を「保管」に更新し(ステップS1712)、ステップS1707へ移行する。一方、対象物品の状態情報の場所格がステップS1710で取得した保管位置と一致しないと判定された場合は(ステップS1711でNo)、何もせずに、ステップS1707へ移行する。ステップS1707以降の処理は上述のとおりである。
If it is determined in step S1711 that the location of the state information of the target article matches the storage position acquired in step S1710 (Yes in step S1711), the state item in the
以上のようにして更新される物品管理DB126の情報は、管理用PC200や他のPC200’からアクセスし、参照することができる。したがって、物品が、いまどのような状態にあるのか容易に知ることができる。
Information in the
なお、本発明は、上記実施の形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施の形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施の形態に示される全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態にわたる構成要素を適宜組み合わせても良い。 It should be noted that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.
10 監視システム
100 警備装置
110 制御部
111 画像入力部
112 画像処理部
113 状態情報構築部
114 データ入力部
115 異常判定部
116 固定資産管理部
117 アクセス制御部
120 記憶部
121 状態情報DB
122 行動導出規則DB
123 物品登録DB
124 環境情報DB
125 人物DB
126 物品管理DB
200 管理用PC
200’ PC
3001〜300n 撮像装置
4001〜400n RFID読取装置
DESCRIPTION OF
122 Action derivation rule DB
123 article registration DB
124 Environmental Information DB
125 person DB
126 Goods management DB
200 Management PC
200 'PC
300 1 to 300 n
Claims (9)
前記状態情報構築手段により構築された状態情報を記憶する記憶手段と、
前記記憶手段から、複数の前記物体それぞれの動作状態を表す複数の前記状態情報を取得する状態情報取得手段と、
取得された複数の前記状態情報それぞれに含まれる前記動詞の組み合わせに応じた物体の動作状態を予め定めた規則に基づいて、前記組み合わせに対応する物体の動作状態を検出する検出手段と、
前記検出手段による検出結果に基づいて異常であるか否かを判定する異常判定手段と、
を備えたことを特徴とする動作状態検出装置。 Information indicating the motion state of the object generated based on the captured image information and the read information read from the wireless tag, and is a verb indicating the type of motion of the object and a noun related to the motion of the object State information constructing means for constructing state information represented by a case frame including a case element and indicating a semantic relationship between the verb and the case element;
Storage means for storing status information constructed by the status information construction means;
State information acquisition means for acquiring a plurality of state information representing the operation states of the plurality of objects from the storage means;
Detecting means for detecting an operation state of an object corresponding to the combination based on a rule that predetermines an operation state of the object according to a combination of the verbs included in each of the acquired plurality of state information;
An abnormality determining means for determining whether or not there is an abnormality based on a detection result by the detecting means;
An operation state detection apparatus comprising:
前記状態取得手段は、前記状態記憶手段から、前記時刻が略同一である複数の前記状態情報を取得すること、
を特徴とする請求項1に記載の動作状態検出装置。 The state information includes a time when the movement of the object occurs as the case element,
The status acquisition means acquires a plurality of the status information having substantially the same time from the status storage means;
The operation state detection device according to claim 1.
前記状態情報構築手段により構築された状態情報を記憶する第1の記憶手段と、
前記物体の、少なくとも保管状態と最終取扱者と前記物体の位置とを含む管理情報を記憶する第2の記憶手段と、
前記第1の記憶手段から、複数の前記物体それぞれの動作状態を表す複数の前記状態情報を取得する状態情報取得手段と、
対象とする物品である物体に対する状態情報が前記第1の記憶手段から取得できる場合に、該物体に対する状態情報から場所の移動の有無を検出し、さらに場所の移動が検出された場合に、前記第2の記憶手段に記憶された前記管理情報を更新する固定資産管理手段と、
を備えたことを特徴とする動作状態検出装置。 Information indicating the motion state of the object generated based on the captured image information and the read information read from the wireless tag, and is a verb indicating the type of motion of the object and a noun related to the motion of the object State information constructing means for constructing state information represented by a case frame including a case element and indicating a semantic relationship between the verb and the case element;
First storage means for storing state information constructed by the state information construction means;
Second storage means for storing management information including at least a storage state of the object, a final handler, and a position of the object;
State information acquisition means for acquiring a plurality of pieces of state information representing respective operation states of the plurality of objects from the first storage means;
When the state information for the object that is the target article can be acquired from the first storage unit, the presence / absence of movement of the place is detected from the state information for the object, and when the movement of the place is further detected, Fixed asset management means for updating the management information stored in the second storage means;
An operation state detection apparatus comprising:
前記状態取得手段は、前記状態記憶手段から、前記時刻が略同一である複数の前記状態情報を取得すること、
を特徴とする請求項5に記載の動作状態検出装置。 The state information includes a time when the movement of the object occurs as the case element,
The status acquisition means acquires a plurality of the status information having substantially the same time from the status storage means;
The operation state detection device according to claim 5.
状態情報取得手段が、前記記憶手段から、複数の前記物体それぞれの動作状態を表す複数の前記状態情報を取得する状態情報取得ステップと、
検出手段が、取得された複数の前記状態情報それぞれに含まれる前記動詞の組み合わせに応じた物体の動作状態を予め定めた規則に基づいて、前記組み合わせに対応する物体の動作状態を検出する検出ステップと、
異常判定手段が、前記検出ステップによる検出結果に基づいて異常であるか否かを判定する異常判定ステップと、
を含むことを特徴とする動作状態検出方法。 The state information construction means is information representing the motion state of the object generated based on the captured image information and the read information read from the wireless tag, and a verb representing the motion type of the object and the motion of the object State information that includes a case element that is a noun related to, and that constructs state information represented by a case frame indicating a semantic relationship between the verb and the case element, and stores the constructed state information in a storage means Construction steps and
State information acquisition means for acquiring a plurality of the state information representing the operation state of each of the plurality of objects from the storage means,
A detecting step in which the detecting means detects the motion state of the object corresponding to the combination based on a rule that predetermines the motion state of the object according to the combination of the verbs included in each of the acquired plurality of state information. When,
An abnormality determination step for determining whether the abnormality determination means is abnormal based on the detection result of the detection step;
An operation state detection method comprising:
状態情報取得手段が、前記第1の記憶手段から、複数の前記物体それぞれの動作状態を表す複数の前記状態情報を取得する状態情報取得ステップと、
固定資産管理手段が、対象とする物品である物体に対する状態情報が前記第1の記憶手段から取得できる場合に、該物体に対する状態情報から場所の移動の有無を検出し、さらに場所の移動が検出された場合に、前記物体の、少なくとも保管状態と最終取扱者と前記物体の位置とを含む管理情報を記憶する第2の記憶手段に記憶された管理情報を更新する固定資産管理処理ステップと、
を含むことを特徴とする動作状態検出方法。 The state information construction means is information representing the motion state of the object generated based on the captured image information and the read information read from the wireless tag, and a verb representing the motion type of the object and the motion of the object A state element represented by a case frame that indicates a semantic relationship between the verb and the case element, and stores the built state information in the first storage means State information construction step to be
A state information acquisition unit that acquires a plurality of the state information representing the operation states of the plurality of objects from the first storage unit;
When the state information for the object that is the target article can be acquired from the first storage means, the fixed asset management means detects the presence / absence of movement of the place from the state information for the object, and further detects the movement of the place. A fixed asset management processing step for updating management information stored in second storage means for storing management information including at least a storage state, a final handler, and a position of the object when the object is stored;
An operation state detection method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009088341A JP5167188B2 (en) | 2009-03-31 | 2009-03-31 | Operating state detecting device and operating state detecting method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009088341A JP5167188B2 (en) | 2009-03-31 | 2009-03-31 | Operating state detecting device and operating state detecting method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010238180A JP2010238180A (en) | 2010-10-21 |
JP5167188B2 true JP5167188B2 (en) | 2013-03-21 |
Family
ID=43092407
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009088341A Active JP5167188B2 (en) | 2009-03-31 | 2009-03-31 | Operating state detecting device and operating state detecting method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5167188B2 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003087771A (en) * | 2001-09-07 | 2003-03-20 | Oki Electric Ind Co Ltd | Monitoring system and monitoring method |
JP4706914B2 (en) * | 2005-08-31 | 2011-06-22 | ブラザー工業株式会社 | Goods management system |
JP4780415B2 (en) * | 2007-03-16 | 2011-09-28 | 大日本印刷株式会社 | Equipment management system |
-
2009
- 2009-03-31 JP JP2009088341A patent/JP5167188B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2010238180A (en) | 2010-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220245655A1 (en) | Systems and methods for sensor data analysis through machine learning | |
US11763567B2 (en) | Automated store system and server | |
EP2874098B1 (en) | Image recognition apparatus and data registration method for image recognition apparatus | |
JP6202283B2 (en) | Incident video processing apparatus, incident video processing system, incident video processing method, and program | |
JP5077164B2 (en) | Tracking device and tracking method | |
US20230401916A1 (en) | Information processing apparatus, information processing system, and information processing method | |
JP5091095B2 (en) | Motion detection device and motion detection method | |
JP6124223B2 (en) | Incident video log data generation apparatus, incident video processing system, incident video log data generation method, and program | |
JP2024015359A (en) | person detection system | |
CN105659250A (en) | World-driven access control | |
JP7201072B2 (en) | Surveillance device, suspicious object detection method, and program | |
JP2007061394A (en) | Monitoring device, method and program | |
US20210027240A1 (en) | Goods receipt management system and method | |
JP7371595B2 (en) | Apparatus, system, method and program | |
JP5167188B2 (en) | Operating state detecting device and operating state detecting method | |
US20200126146A1 (en) | Commodity data processing system | |
Baltanas et al. | A face recognition system for assistive robots | |
JP2004334589A (en) | Apparatus for managing admission | |
JP2021012657A (en) | Information processing apparatus, information processing method, and camera | |
JP2010170212A (en) | Action estimation device and method | |
US11763595B2 (en) | Method and system for identifying, tracking, and collecting data on a person of interest | |
WO2022079527A1 (en) | Goods receipt management system and method | |
Kapoor et al. | IoT based real-time face detection and recognition system | |
CN115147887A (en) | Face recognition rate improving method, access control device and computer-readable storage medium | |
JP2021111201A (en) | Face authentication system and face authentication method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111018 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121121 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121127 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121221 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151228 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5167188 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |