JP5167188B2 - Operating state detecting device and operating state detecting method - Google Patents

Operating state detecting device and operating state detecting method Download PDF

Info

Publication number
JP5167188B2
JP5167188B2 JP2009088341A JP2009088341A JP5167188B2 JP 5167188 B2 JP5167188 B2 JP 5167188B2 JP 2009088341 A JP2009088341 A JP 2009088341A JP 2009088341 A JP2009088341 A JP 2009088341A JP 5167188 B2 JP5167188 B2 JP 5167188B2
Authority
JP
Japan
Prior art keywords
information
state
state information
article
storage means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009088341A
Other languages
Japanese (ja)
Other versions
JP2010238180A (en
Inventor
拓雄 森口
健宏 馬渕
聡 二見
正貴 村川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SOHGO SECURITY SERVICES CO.,LTD.
Original Assignee
SOHGO SECURITY SERVICES CO.,LTD.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SOHGO SECURITY SERVICES CO.,LTD. filed Critical SOHGO SECURITY SERVICES CO.,LTD.
Priority to JP2009088341A priority Critical patent/JP5167188B2/en
Publication of JP2010238180A publication Critical patent/JP2010238180A/en
Application granted granted Critical
Publication of JP5167188B2 publication Critical patent/JP5167188B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、カメラなどの撮像手段により撮像された画像情報および物品に取り付けられた無線タグからの読取情報から人物や物品などの物体の動きを検出する動作状態検出装置および動作状態検出方法に関する。   The present invention relates to an operation state detection apparatus and an operation state detection method for detecting the movement of an object such as a person or an article from image information captured by an imaging unit such as a camera and read information from a wireless tag attached to the article.

従来から、監視カメラ等で撮影した画像を分析して、人物などの監視対象物の行動を認識する認識装置が知られている。例えば、特許文献1では、ステレオカメラで撮影した映像から、SVM(サポートベクタマシーン)などのパターン認識技術を用いて正常パターンか異常パターンかを判定することにより、複数の監視対象の中から不審な行動をしている監視対象を検出する技術が提案されている。   2. Description of the Related Art Conventionally, a recognition device that analyzes an image captured by a monitoring camera or the like and recognizes an action of a monitoring target such as a person is known. For example, in Patent Document 1, it is suspicious from a plurality of monitoring targets by determining whether the pattern is a normal pattern or an abnormal pattern using a pattern recognition technique such as SVM (support vector machine) from video captured by a stereo camera. Techniques have been proposed for detecting an action target to be monitored.

特開2008−217602号公報JP 2008-217602 A

しかしながら、特許文献1の方法は、学習した歩行軌跡データを用いることにより、例えば複数人の歩行軌跡情報からパターン認識により異常な行動(歩行軌跡)を検出するものである。すなわち、複数人の歩行軌跡のそれぞれが正常か異常かを判定するのみである。このため、例えば、複数人が共謀して不正行為を行っている場合などでは、個々の人物の歩行軌跡のパターン認識のみでは高精度に行動を検出することができず、結果として異常な行動であると判定できない場合があった。また、人が重要な物品である重要物を移動させるといった行為もなされうるが、人の行動の検出だけでは、人と移動される重要物とを関連づけて重要物を管理するといったことができない。   However, the method of Patent Document 1 detects abnormal behavior (walking trajectory) by pattern recognition from the walking trajectory information of a plurality of persons, for example, by using learned walking trajectory data. That is, it is only determined whether each of a plurality of walking trajectories is normal or abnormal. For this reason, for example, when a plurality of people conspire to perform a fraud, it is not possible to detect an action with high accuracy only by pattern recognition of the walking trajectory of each person, resulting in an abnormal action. In some cases, it could not be determined. In addition, an action such as moving an important object, which is an important article, can be performed. However, it is impossible to manage an important object by associating a person with the important object to be moved only by detecting the action of the person.

本発明は、上記に鑑みてなされたものであって、人および物品(重要物)から得られる複数の情報を用いることにより、高精度に物体の動きを検出し、重要物に対するセキュリティの強化とその管理を同時に達成することができる動作状態検出装置および動作状態検出方法を提供することを目的とする。   The present invention has been made in view of the above, and by using a plurality of information obtained from a person and an article (important object), the movement of the object is detected with high accuracy, and security for the important object is enhanced. An object of the present invention is to provide an operation state detection apparatus and an operation state detection method capable of simultaneously achieving the management.

上述した課題を解決し、目的を達成するために、本発明の動作状態検出装置は、撮像された画像情報および無線タグから読み取った読取情報を基に生成される物体の動作状態を表す情報であって、前記物体の動作の種類を表す動詞と前記物体の動作に関連する名詞である格要素とを含み、前記動詞と前記格要素との間の意味関係を示す格フレームによって表された状態情報を構築する状態情報構築手段と、前記状態情報構築手段により構築された状態情報を記憶する記憶手段と、前記記憶手段から、複数の前記物体それぞれの動作状態を表す複数の前記状態情報を取得する状態情報取得手段と、取得された複数の前記状態情報それぞれに含まれる前記動詞の組み合わせに応じた物体の動作状態を予め定めた規則に基づいて、前記組み合わせに対応する物体の動作状態を検出する検出手段と、前記検出手段による検出結果に基づいて異常であるか否かを判定する異常判定手段と、を備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, the operation state detection device of the present invention is information representing an operation state of an object generated based on captured image information and read information read from a wireless tag. A state represented by a case frame including a verb representing a type of action of the object and a case element that is a noun related to the action of the object, and indicating a semantic relationship between the verb and the case element State information construction means for constructing information, storage means for storing the state information constructed by the state information construction means, and a plurality of the state information representing the operation states of the plurality of objects are acquired from the storage means. A state information acquisition means that performs the action state of the object according to the combination of the verbs included in each of the acquired plurality of state information based on a predetermined rule. Detecting means for detecting the operating state of the object response, characterized in that and an abnormality judging means for judging whether the abnormality based on the detection result by the detection means.

本発明の動作状態検出装置は、撮像された画像情報および無線タグから読み取った読取情報を基に生成される物体の動作状態を表す情報であって、前記物体の動作の種類を表す動詞と前記物体の動作に関連する名詞である格要素とを含み、前記動詞と前記格要素との間の意味関係を示す格フレームによって表された状態情報を構築する状態情報構築手段と、前記状態情報構築手段により構築された状態情報を記憶する第1の記憶手段と、前記物体の、少なくとも保管状態と最終取扱者と前記物体の位置とを含む管理情報を記憶する第2の記憶手段と、前記記憶手段から、複数の前記物体それぞれの動作状態を表す複数の前記状態情報を取得する状態情報取得手段と、対象とする物品である物体に対する状態情報が前記第1の記憶手段から取得できる場合に、該物体に対する状態情報から場所の移動の有無を検出し、さらに場所の移動が検出された場合に、前記第2の記憶手段に記憶された前記管理情報を更新する固定資産管理手段と、を備えたことを特徴とする。   The operation state detection apparatus of the present invention is information representing an operation state of an object generated based on captured image information and read information read from a wireless tag, the verb representing the type of the object operation, State information constructing means for constructing state information represented by a case frame including a case element that is a noun related to the motion of an object, and indicating a semantic relationship between the verb and the case element, and the state information construction First storage means for storing state information constructed by the means, second storage means for storing management information including at least a storage state, a final handler, and a position of the object of the object, and the storage The state information acquisition means for acquiring a plurality of state information representing the operation state of each of the plurality of objects, and the state information for the object that is the target article are acquired from the first storage means. Fixed asset management means for detecting the presence / absence of movement of the location from the state information with respect to the object, and updating the management information stored in the second storage means when the movement of the location is further detected. And.

本発明の動作状態検出方法は、状態情報構築手段が、撮像された画像情報および無線タグから読み取った読取情報を基に生成される物体の動作状態を表す情報であって、前記物体の動作の種類を表す動詞と前記物体の動作に関連する名詞である格要素とを含み、前記動詞と前記格要素との間の意味関係を示す格フレームによって表された状態情報を構築し、構築した状態情報を記憶手段に記憶させる状態情報構築ステップと、状態情報取得手段が、前記記憶手段から、複数の前記物体それぞれの動作状態を表す複数の前記状態情報を取得する状態情報取得ステップと、検出手段が、取得された複数の前記状態情報それぞれに含まれる前記動詞の組み合わせに応じた物体の動作状態を予め定めた規則に基づいて、前記組み合わせに対応する物体の動作状態を検出する検出ステップと、異常判定手段が、前記検出ステップによる検出結果に基づいて異常であるか否かを判定する異常判定ステップと、を含むことを特徴とする。   The operation state detection method of the present invention is information representing the operation state of an object generated by the state information construction unit based on the captured image information and the read information read from the wireless tag. A state that includes a verb representing a type and a case element that is a noun related to the action of the object, and that is constructed by constructing state information represented by a case frame indicating a semantic relationship between the verb and the case element A state information construction step for storing information in the storage means; a state information acquisition means for acquiring a plurality of the state information representing the operation states of the plurality of objects from the storage means; and a detection means. Is an object corresponding to the combination based on a rule that predetermines the motion state of the object according to the combination of the verbs included in each of the acquired plurality of state information A detection step of detecting an operating state, the abnormality determination means, characterized in that it comprises a, and an abnormality determination step of determining whether or not an abnormality based on the detection result of the detecting step.

本発明の動作状態検出方法は、状態情報構築手段が、撮像された画像情報および無線タグから読み取った読取情報を基に生成される物体の動作状態を表す情報であって、前記物体の動作の種類を表す動詞と前記物体の動作に関連する名詞である格要素とを含み、前記動詞と前記格要素との間の意味関係を示す格フレームによって表された状態情報を構築し、構築した状態情報を第1の記憶手段に記憶させる状態情報構築ステップと、状態情報取得手段が、前記第1の記憶手段から、複数の前記物体それぞれの動作状態を表す複数の前記状態情報を取得する状態情報取得ステップと、固定資産管理手段が、対象とする物品である物体に対する状態情報が前記第1の記憶手段から取得できる場合に、該物体に対する状態情報から場所の移動の有無を検出し、さらに場所の移動が検出された場合に、前記物体の、少なくとも保管状態と最終取扱者と前記物体の位置とを含む管理情報を記憶する第2の記憶手段に記憶された管理情報を更新する固定資産管理処理ステップと、を含むことを特徴とする。   The operation state detection method of the present invention is information representing the operation state of an object generated by the state information construction unit based on the captured image information and the read information read from the wireless tag. A state that includes a verb representing a type and a case element that is a noun related to the action of the object, and that is constructed by constructing state information represented by a case frame indicating a semantic relationship between the verb and the case element State information construction step for storing information in the first storage means, and state information acquisition means for acquiring the plurality of state information representing the operation states of the plurality of objects from the first storage means. When the acquisition step and the fixed asset management means can acquire the state information for the object that is the target article from the first storage means, the presence / absence of movement of the place from the state information for the object Management information stored in second storage means for storing management information including at least a storage state, a final handler, and a position of the object when the object is detected and further movement of the place is detected. And a fixed asset management processing step to be updated.

本発明によれば、予め定められた規則に基づき、複数の物体(人および物品)それぞれの動作状態を表す複数の状態情報に含まれる各物体の動作の種類を表す動詞の組み合わせに応じた物体の動作状態を検出することができるため、高精度に物体の動作を検出することができ、また無線タグからの読取情報も利用して物品と人物とを関連づけ動作状態を判別することにより、重要物などの物品に対するセキュリティの強化とその管理を同時に達成することができるという効果を奏する。   According to the present invention, based on a predetermined rule, an object corresponding to a combination of verbs representing the type of motion of each object included in the plurality of state information representing the motion state of each of the plurality of objects (people and articles) It is possible to detect the movement of an object with high accuracy, and to detect the movement state by associating an article with a person using information read from a wireless tag. There is an effect that it is possible to simultaneously achieve security enhancement and management for articles such as goods.

図1は、本実施の形態における監視システムの構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of a monitoring system in the present embodiment. 図2は、状態情報DBに記憶される状態情報のデータ構造の一例を示す図である。FIG. 2 is a diagram illustrating an example of a data structure of state information stored in the state information DB. 図3は、状態情報DBに記憶される状態情報の具体例を示す図である。FIG. 3 is a diagram illustrating a specific example of the state information stored in the state information DB. 図4は、時系列で構造化された深層格フレームの概念図である。FIG. 4 is a conceptual diagram of a deep case frame structured in time series. 図5は、行動導出規則DBに記憶される行動検出規則のデータ構造の一例を示す図である。FIG. 5 is a diagram illustrating an example of a data structure of behavior detection rules stored in the behavior derivation rule DB. 図6は、物品登録DBのデータ構造の一例を示す図である。FIG. 6 is a diagram illustrating an example of the data structure of the article registration DB. 図7は、アクセス制限の具体例を示す図である。FIG. 7 is a diagram illustrating a specific example of access restriction. 図8は、環境情報DBのデータ構造の一例を示す図である。FIG. 8 is a diagram illustrating an example of the data structure of the environment information DB. 図9は、人物DBのデータ構造の一例を示す図である。FIG. 9 is a diagram illustrating an example of the data structure of the person DB. 図10は、物品管理DBのデータ構造の一例を示す図である。FIG. 10 is a diagram illustrating an example of the data structure of the article management DB. 図11は、状態情報から異常判定を行う際の具体例を示す図である。FIG. 11 is a diagram illustrating a specific example when abnormality determination is performed from state information. 図12は、図11に示す状況で画像処理により得られる情報とRFIDリーダから得られる情報の例を示す図である。FIG. 12 is a diagram illustrating an example of information obtained by image processing and information obtained from the RFID reader in the situation illustrated in FIG. 図13は、異常判定部による異常判定処理を示すフローチャートである。FIG. 13 is a flowchart illustrating an abnormality determination process performed by the abnormality determination unit. 図14は、状態情報から固定資産管理のための処理を行う際の具体例を示す図である。FIG. 14 is a diagram illustrating a specific example when processing for fixed asset management is performed from state information. 図15は、図14の状況で画像処理により得られる情報とRFIDリーダから得られる情報の例を示す図である。FIG. 15 is a diagram illustrating an example of information obtained by image processing and information obtained from the RFID reader in the situation of FIG. 図16は、物品管理DBの更新過程を例示した図である。FIG. 16 is a diagram illustrating an update process of the article management DB. 図17は、固定資産管理部による固定資産管理処理を示すフローチャートである。FIG. 17 is a flowchart showing fixed asset management processing by the fixed asset management unit.

以下に添付図面を参照して、この発明にかかる警備装置の一実施の形態を詳細に説明する。   Hereinafter, an embodiment of a security device according to the present invention will be described in detail with reference to the accompanying drawings.

本実施の形態は、監視カメラ等の撮像装置とRFID読取装置からの情報を用いて所定領域を警備する警備装置として本発明の動作状態検出装置を実現した例である。なお、本発明を適用可能な装置は警備装置に限られず、本発明は、撮像された画像情報およびRFIDタグ情報から物体(人物および物品)に関する情報を解析して、各物体の動作状態を検出する機能を備える任意の装置に適用できることに留意されたい。   The present embodiment is an example in which the operation state detection device of the present invention is realized as a security device that guards a predetermined area using information from an imaging device such as a monitoring camera and an RFID reader. The device to which the present invention can be applied is not limited to the security device, and the present invention analyzes the information on the object (person and article) from the captured image information and RFID tag information, and detects the operation state of each object. Note that the present invention can be applied to any device having a function to

本実施の形態の警備装置は、監視カメラ等の撮像装置で撮像した画像情報から、監視対象物である人物の行動(動作状態)を解析し、解析結果を深層格フレーム構造で表して記憶部に保存する。また、物品に取り付けられたRFIDタグ(無線タグ)からこのRFIDタグに記録された情報(RFIDタグ情報)をRFID読取装置で読み取り、読み取ったRFIDタグ情報と上記画像情報の解析結果を基に、当該物品に関する情報を深層格フレーム構造で表して記憶部に保存する。そして、記憶部に保存した各深層格フレームを相互に比較することによって、さらに人物の行動や物品の動作状態(特には、移動)を検出する。具体的には、同時刻に発生した複数人物の行動や物品の移動の組み合わせが、事前に定めた組み合わせに一致する場合に、当該組み合わせに応じた所定の動作状態が発生したことを検出する。   The security device according to the present embodiment analyzes the behavior (operation state) of a person who is a monitoring target from image information captured by an imaging device such as a monitoring camera, and represents the analysis result in a deep case frame structure. Save to. In addition, information (RFID tag information) recorded on the RFID tag from an RFID tag (wireless tag) attached to the article is read by the RFID reader, and based on the read RFID tag information and the analysis result of the image information, Information about the article is expressed in a deep case frame structure and stored in the storage unit. Then, by comparing the deep case frames stored in the storage unit with each other, the action of the person and the operation state (particularly, movement) of the article are further detected. Specifically, when the combination of the actions of a plurality of persons and the movement of an article that occurred at the same time matches a predetermined combination, it is detected that a predetermined operation state corresponding to the combination has occurred.

はじめに、本実施の形態の警備装置を含む監視システムの構成例について説明する。図1は、本実施の形態における監視システム10の構成を示すブロック図である。図1に示すように、監視システム10は、警備装置100と、管理用PC200と、警備装置100に接続される撮像装置(カメラ)300〜300とRFID読取装置(RFIDリーダ)400〜400とを備えている。また、同図に示すように他のPC200’を設けてもよい。警備装置100と管理用PC200は、電話回線、無線または有線のネットワーク、インターネットなどのネットワークを介して接続されている。 First, a configuration example of a monitoring system including a security device according to the present embodiment will be described. FIG. 1 is a block diagram showing a configuration of a monitoring system 10 in the present embodiment. As shown in FIG. 1, the monitoring system 10 includes a security device 100, a management PC 200, imaging devices (cameras) 300 1 to 300 n connected to the security device 100, and RFID readers (RFID readers) 400 1 to 400 1 . 400 n . Further, as shown in the figure, another PC 200 ′ may be provided. The security device 100 and the management PC 200 are connected via a network such as a telephone line, a wireless or wired network, and the Internet.

管理用PC200は、警備装置100が異常を検知した場合には、監視エリアの異常を検知した警備装置100からの通知を受け、待機中の警備員に対して異常が検知された監視エリア(不図示)へ向かう旨の指示を出すとともに、必要に応じて警察や消防等の関係機関への通報を行う。また、管理用PC200や他のPC200’は、RFIDタグが取り付けられた物品の現在の状態や位置のモニタリング等にも使用される。   When the security device 100 detects an abnormality, the management PC 200 receives a notification from the security device 100 that has detected an abnormality in the monitoring area, and receives a notification from the monitoring device that has detected an abnormality in the standby security officer The instruction to go to the figure) is given and, if necessary, reports are made to related organizations such as the police and fire department. The management PC 200 and other PCs 200 'are also used for monitoring the current state and position of an article to which an RFID tag is attached.

撮像装置300〜300は、警備対象である監視エリアを撮像するカメラであり、各監視エリアに設置されている。 The imaging devices 300 1 to 300 n are cameras that image a monitoring area that is a security target, and are installed in each monitoring area.

RFID読取装置400〜400は、警備対象である各監視エリアに設置されており、主に重要物である物品に取り付けられたRFIDタグからRFIDタグ情報(ID等)を読み取る。 The RFID readers 400 1 to 400 n are installed in each monitoring area to be guarded, and read RFID tag information (ID or the like) from RFID tags attached to articles that are mainly important objects.

次に、警備装置100について説明する。警備装置100は、画像入力部111、画像処理部112、状態情報構築部113、データ入力部114、異常判定部115、固定資産管理部116、およびアクセス制御部117を備える制御部110と、状態情報DB(データベース)121、行動導出規則DB122、物品登録DB123、環境情報DB124、人物DB125、および物品管理DB126を備える記憶部120と、を備えている。なお、制御部110は、CPU(プロセッサ)およびメモリを含み、CPUが、メモリにロードされた上記各部に対応するプログラムを実行することにより各部の機能を実現する。また、各DBを備える記憶部120は、ハードディスク、光ディスク、メモリカード、RAM(Random Access Memory)などの一般的に利用されている任意の記憶媒体により構成することができる。この記憶部120は、また、上記プログラムを格納する。   Next, the security device 100 will be described. The security device 100 includes an image input unit 111, an image processing unit 112, a state information construction unit 113, a data input unit 114, an abnormality determination unit 115, a fixed asset management unit 116, and an access control unit 117, and a state And a storage unit 120 including an information DB (database) 121, an action derivation rule DB 122, an article registration DB 123, an environment information DB 124, a person DB 125, and an article management DB 126. The control unit 110 includes a CPU (processor) and a memory, and the function of each unit is realized by the CPU executing a program corresponding to each unit loaded in the memory. In addition, the storage unit 120 including each DB can be configured by any storage medium that is generally used, such as a hard disk, an optical disk, a memory card, and a RAM (Random Access Memory). The storage unit 120 also stores the program.

画像入力部111は、撮像装置300〜300によって撮像された画像情報が入力される。 Image information captured by the imaging devices 300 1 to 300 n is input to the image input unit 111.

画像処理部112は、画像入力部111に入力された画像情報を解析することにより、画像情報から物体の動作状態や特徴を検出する(詳細は後述)。そして、状態情報構築部113が、画像処理部112により検出された動作状態を表す状態情報を生成して状態情報DB121に保存する。   The image processing unit 112 analyzes the image information input to the image input unit 111 to detect an operation state and a feature of the object from the image information (details will be described later). Then, the state information construction unit 113 generates state information representing the operation state detected by the image processing unit 112 and stores it in the state information DB 121.

画像処理部112は、例えば画像情報から人物領域を抽出することにより、人物が「存在する」という動作状態を検出する。また、画像処理部112は、検出した人物の視線方向を検出することにより、当該人物の「見る」という動作状態を検出する。また、画像処理部112は、人物以外の他の物体を画像情報から抽出し、抽出した物体が新たに現れた場合には「取り出す」という動作状態を、抽出した物体が以前から存在し、人物の手の位置と重なった場合には「触る」という動作状態を検出する。   For example, the image processing unit 112 extracts the person region from the image information, thereby detecting an operation state in which the person “exists”. In addition, the image processing unit 112 detects an operation state of “seeing” the person by detecting the detected gaze direction of the person. Further, the image processing unit 112 extracts an object other than a person from the image information, and when the extracted object newly appears, the image processing unit 112 sets an operation state of “removal”, and the extracted object has existed before. When the position of the hand overlaps, an operation state of “touch” is detected.

なお、画像処理部112が人物または物品を抽出する方法としては、連続する画像情報の背景を比較することにより抽出した変動領域を人物領域とする方法や、人物パターンまたは物品パターンと照合することにより人物または物品を抽出する方法などの、従来から用いられている任意の手法を用いることができる。また、画像処理部112が人物の視線方向を検出する方法としては、顔領域パターンと照合することにより顔領域を抽出するとともに視線方向を検出する従来から用いられている任意の方法を用いることができる。   In addition, as a method for the image processing unit 112 to extract a person or an article, a variation area extracted by comparing backgrounds of continuous image information is used as a person area, or by comparing with a person pattern or an article pattern. Any conventionally used method such as a method of extracting a person or an article can be used. In addition, as a method for the image processing unit 112 to detect the gaze direction of the person, any conventional method for extracting a face area and detecting the gaze direction by matching with a face area pattern may be used. it can.

データ入力部114は、RFID読取装置400〜400が読み取ったRFIDタグ情報が入力される。状態情報構築部113は、画像処理部112による解析結果およびデータ入力部114に入力されたRFIDタグ情報を基に、物体(人または物品)の動作状態を後述の深層格フレームによる状態情報として構築する。なお、複数ある撮像装置300〜300やRFID読取装置400〜400は、各々そのIDにより識別され、入力される情報はそのIDとともに利用される。これらのIDは、各装置とそれらが設置されたエリアとを対応付けることができるので、撮像装置300〜300やRFID読取装置400〜400により検出された物体が所在するエリアを特定するのに利用することができる。 The RFID tag information read by the RFID readers 400 1 to 400 n is input to the data input unit 114. The state information construction unit 113 constructs the operation state of the object (person or article) as state information by a deep case frame described later based on the analysis result by the image processing unit 112 and the RFID tag information input to the data input unit 114. To do. A plurality of imaging devices 300 1 to 300 n and RFID reading devices 400 1 to 400 n are identified by their IDs, and input information is used together with the IDs. Since these IDs can associate each device with the area in which they are installed, the IDs identify the areas where the objects detected by the imaging devices 300 1 to 300 n and the RFID readers 400 1 to 400 n are located. Can be used for

アクセス制御部117は、ネットワークを介して管理用PC200や他のPC200’との間で各種情報を送受信する際のアクセス制御を行う。なお、異常な動作状態を検出する異常判定部115および重要物などの物品の管理のための処理を行う固定資産管理部116の詳細については後に詳述する。   The access control unit 117 performs access control when transmitting / receiving various types of information to / from the management PC 200 and other PCs 200 'via the network. Details of the abnormality determination unit 115 that detects an abnormal operation state and the fixed asset management unit 116 that performs processing for management of articles such as important items will be described in detail later.

状態情報DB121は、状態情報構築部113より構築された、物体の動作状態を深層格フレーム構造(後述)で表した状態情報を、時系列に構造化し(図4参照)記憶する。なお、深層格フレーム(以下、単に格フレームとも言う)とは、動詞を基準として、動詞に対する名詞の意味関係を深層格として表した言語構造をいう。   The state information DB 121 stores the state information, which is constructed by the state information construction unit 113 and expresses the motion state of the object in a deep case frame structure (described later) in time series (see FIG. 4). The deep case frame (hereinafter also simply referred to as a case frame) refers to a language structure that expresses the semantic relationship of a noun to a verb as a deep case with a verb as a reference.

図2は、状態情報DB121に記憶される状態情報のデータ構造の一例を示す図である。図2に示すように、状態情報は、格フレームを識別する格フレームID(CFID)と、“しゃがむ”などの動作(行動)の種類を表す行動名(ActNm)と、動作に関連する名詞である格要素(深層格)とを含んでいる。深層格には、主格(Agent)、属性格(Feature)、場所格(PosCase)、時間格(TimeCase)、源泉格(SrcCase)、目標格(DstCase)、対象格(ObjCase)、および道具格(ToolCase)が含まれる。   FIG. 2 is a diagram illustrating an example of a data structure of state information stored in the state information DB 121. As shown in FIG. 2, the status information includes a case frame ID (CFID) for identifying a case frame, an action name (ActNm) indicating the type of action (action) such as “squatting”, and a noun related to the action. It contains a case element (deep case). The deep case includes a main case (Agent), an attribute case (Feature), a place case (PosCase), a time case (TimeCase), a source case (SrcCase), a target case (DstCase), a target case (ObjCase), and a tool case ( ToolCase).

図3に、状態情報DB151に記憶される状態情報の具体例を示す。主格は、動作を引き起こす主体を表し、具体的には、同図に示すように、追跡番号(ID)と認証名(Name)を含む。属性格は、主格に関する情報をいう。例えば、属性格は、顔特徴(Face)、体特徴(Body)、歩行特徴(Gate)に分けられる。顔特徴(Face)は、顔検出信頼度(FConf)、顔特徴(Ident)、口開閉度合(Mouth)、視線方向(PanTilt)、マスクの有無(Mask)、サングラスの有無(SG)、性別(Sex)、年代(Age)、頭色(HColor)等を含む。また、体特徴は、身長(Height)、上半身色(BColor)、下半身色(LColor)等を含む。また、歩行特徴は、歩幅(StepWidth)、体型(Posture)、脚長(LLength)、歩速(WSpeed)等を含む。   FIG. 3 shows a specific example of the state information stored in the state information DB 151. The main character represents a subject that causes an action, and specifically includes a tracking number (ID) and an authentication name (Name) as shown in FIG. The attribute case refers to information on the main case. For example, the attribute case is divided into a facial feature (Face), a body feature (Body), and a walking feature (Gate). The face feature (Face) includes face detection reliability (FConf), face feature (Ident), mouth opening / closing degree (Mouth), gaze direction (PanTilt), presence / absence of mask (Mask), presence / absence of sunglasses (SG), gender ( Sex), age (Age), head color (HCColor) and the like. The body features include height, upper body color (BColor), lower body color (LCColor), and the like. The walking features include a step width, a body shape, a leg length, a walking speed, and the like.

場所格は、動作や状態が起こる場所を表す。例えば、場所格は、場所名(PName)、頭部座標(Head)、体座標(Body)、足座標(Leg)、右手座標(RHnad)、LHand(左手座標)、重心座標(WB)等を含む。   A place case represents a place where an action or a state occurs. For example, the location case includes a location name (PName), head coordinates (Head), body coordinates (Body), foot coordinates (Leg), right-hand coordinates (RHnad), LHand (left-hand coordinates), barycentric coordinates (WB), and the like. Including.

時間格は、動作や状態変化が起きた時間を表す。例えば、時間格は、動作や新たな状態が起こった日時(時刻)と、その動作や状態変化が終了するまでの経過時間(PassTime)等を含む。   The time case represents the time when the movement or state change occurred. For example, the time case includes a date and time (time) when an operation or a new state occurs, an elapsed time (PassTime) until the operation or state change ends, and the like.

源泉格は、移動や状態変化などの起点を表す。例えば、源泉格は、主格が移動や動作等を行う起点の位置を表す場所情報(PosCase)、起点での主格の属性を表す属性情報(Feature)、およびそのときの時間情報(TimeCase)を含む。   The source case represents the starting point of movement or state change. For example, the source case includes location information (PosCase) indicating the position of the starting point where the leading character moves, moves, etc., attribute information (Feature) indicating the attribute of the leading character at the starting point, and time information (TimeCase) at that time .

目標格は、移動や状態変化などの終点を表す。例えば、目標格は、主格が移動や動作等を行う終点の位置を表す場所情報(PosCase)、終点での主格の属性を表す属性情報(Feature)、およびそのときの時間情報(TimeCase)を含む。   The target case represents an end point such as movement or state change. For example, the target case includes location information (PosCase) indicating the position of the end point where the main character moves or moves, attribute information (Feature) indicating the attribute of the main character at the end point, and time information (TimeCase) at that time .

対象格は、動作や状態の対象となる事物を表す。対象格は、固有の識別情報である追跡番号(ID)、および認証名(Name)等を含む。   A target case represents an object that is the target of an action or state. The target case includes a tracking number (ID), which is unique identification information, and an authentication name (Name).

道具格は、動作の補助的手段を表す。道具格は、固有の識別情報である追跡番号(ID)、および認証名(Name)を含む。   The tool scale represents an auxiliary means of movement. The instrument includes a tracking number (ID), which is unique identification information, and an authentication name (Name).

前述の状態情報構築部113は、このように構成される格フレームに具体的な値を設定することにより、画像処理部112による解析結果およびデータ入力部114に入力されたRFIDタグ情報を、物体の動作状態を表わす状態情報として構築する。なお、利用できる深層格は上述のものに限られず、さらに細分化してもよく、例えば精神的事象の経験者を表す経験者格などの、その他のあらゆる深層格を用いることができる。   The state information constructing unit 113 described above sets the specific value in the case frame configured as described above, thereby analyzing the analysis result by the image processing unit 112 and the RFID tag information input to the data input unit 114 as an object. It is constructed as state information representing the operation state of The available deep cases are not limited to those described above, and may be further subdivided. For example, any other deep case such as an experienced person representing an experienced person of a mental event can be used.

図1に戻り、行動導出規則DB122は、後述する異常判定部115が、状態情報DB111に保存された格フレームを比較して動作状態を検出するときに参照する行動導出規則を記憶する。この行動導出規則は、状態情報DB121に蓄積された格フレームを比較し、前後の格フレーム間で変化があれば、その変化を表わす格フレームを生成して再構成するための規則を蓄積したものである。図5に、行動導出規則DB122に記憶される行動検出規則のデータ構造の一例を示す。   Returning to FIG. 1, the behavior derivation rule DB 122 stores a behavior derivation rule that is referred to when the abnormality determination unit 115 described later compares the case frames stored in the state information DB 111 to detect an operation state. This action derivation rule compares the case frames stored in the state information DB 121, and if there is a change between the previous and next case frames, a rule for generating and reconstructing a case frame representing the change is stored. It is. FIG. 5 shows an example of the data structure of the action detection rule stored in the action derivation rule DB 122.

図5に示すように、行動導出規則は、比較元となる情報であって、時間的に前の状態情報である前格フレームと、比較先となる情報であって、時間的に後の状態情報である後格フレームと、その他の条件とを、導出される状態情報と対応づけた形式となっている。   As shown in FIG. 5, the action derivation rule is information that is a comparison source, and is a previous frame that is state information that is temporally previous, and information that is a comparison destination that is temporally subsequent. This is a format in which the post-grade frame that is information and other conditions are associated with the derived state information.

前格フレームおよび後格フレームは、それぞれ行動名と格情報とを含んでいる。格情報には、比較すべき少なくとも1つの深層格を設定する。   Each of the front case frame and the back case frame includes an action name and case information. In the case information, at least one deep case to be compared is set.

前格フレームおよび後格フレームは、2つの格フレームが差異を有するパターンを表す情報(差分情報)に相当する。すなわち、ある2つの格フレームが、それぞれ前格フレームと後格フレームとで、設定された行動名および格情報が適合するとき、この2つの格フレーム間には差異が存在すると判断される。例えば、図5では、ある前格フレーム(格フレーム1)の行動名が「存在する」、場所格に含まれる体位置が「A」であり、後格フレーム(格フレーム2)の行動名が「存在する」、場所格に含まれる体位置が「B」であるとき、前格フレームと後格フレームとの間には差分が存在すると判断される。そして、差分が存在すると判断された場合、差分に対応する行動として、「導出できる状態情報」欄に記載された行動名の行動(上記例では「移動する」)が検出される。   The front case frame and the back case frame correspond to information (difference information) representing a pattern in which two case frames have a difference. That is, when two action frames and the action information set in the case frame and the case frame match each other, it is determined that there is a difference between the two case frames. For example, in FIG. 5, the action name of a certain front case frame (case frame 1) is “exists”, the body position included in the place case is “A”, and the action name of the back case frame (case frame 2) is When the body position included in the place case is “B”, it is determined that there is a difference between the front case frame and the back case frame. When it is determined that there is a difference, an action having the action name described in the “state information that can be derived” column (“moving” in the above example) is detected as an action corresponding to the difference.

その他の条件には、必要に応じて、比較する状態情報が満たすべき条件が設定される。例えば、同図の行動名「しゃがむ」の行動を導出する行動導出規則では、前格フレームに含まれる頭部位置Bと、後格フレームに含まれる頭部位置Cとが、B>Cの関係を満たすことが条件として設定されている。   In other conditions, conditions to be satisfied by the state information to be compared are set as necessary. For example, in the behavior derivation rule for deriving the behavior with the behavior name “Squam” in the same figure, the relationship B> C between the head position B included in the front case frame and the head position C included in the back case frame. Satisfying is set as a condition.

導出できる状態情報は、導出される行動の行動名と、保存すべき少なくとも1つの深層格を表す格情報とを含んでいる。同図では、例えば、行動名「移動する」の行動が検出された場合は、前格フレームに含まれる体位置Aおよび後格フレームに含まれる体位置Bを、それぞれ導出した行動に対応する格フレームの源泉格の体位置Aおよび目標格の体位置Bとして保存する例が示されている。   The state information that can be derived includes the action name of the derived action and case information that represents at least one deep case to be saved. In the figure, for example, when an action with the action name “move” is detected, the body position A included in the front case frame and the body position B included in the back case frame are respectively corresponding to the derived actions. An example of saving as the body position A of the source case of the frame and the body position B of the target case is shown.

なお、行動導出規則は同図に示す形式に限られるものではなく、複数の状態情報間の差分に応じて予め定められた行動を決定可能なものであれば任意の形式の規則を適用することができる。   Note that the behavior derivation rules are not limited to the format shown in the figure, and rules of any format can be applied as long as predetermined behaviors can be determined according to differences between a plurality of state information. Can do.

図6に、物品登録DB123のデータ構造の一例を示す。物品登録DB123は、同図に示すように、登録管理される物品(特には、重要物)のID(このIDは、物品に取り付けられたRFIDタグから読み取られるIDに対応する)、品名(金庫鍵、顧客リスト、ノートPC、プロジェクタ等)、アクセス制限、タイプ、保管位置を対応付け、物品登録情報として記憶している。上記「アクセス制限」とは、各物品に設定される使用条件である。物品毎に複数のアクセス制限を設定可能であり、各条件から逸脱した状態が異常判定部115により検知されると異常と判定されることになる。このアクセス条件として、例えば、0〜99の値を使用者条件として、100〜199の値を場所条件として、200〜299の値を時間条件として、300〜399の値を用途条件として、割り当てる。また、「タイプ」とは、各物品の性質を示すもので、例えば、0は鍵を、1はCD/DVDを、2は書籍/書類を、3はPC機器を、4は工具をというように、数値で物品の性質(種類)を示す。図6の例では、ID=0の金庫鍵の場合、アクセス制限が0,100,200という使用者条件、場所条件、時間条件の3つの使用条件が設定され、この物品のタイプは「0」すなわち鍵で、その保管場所が鍵保管箱であることが登録されている。   FIG. 6 shows an example of the data structure of the article registration DB 123. As shown in the figure, the article registration DB 123 includes an ID of an article (particularly an important object) to be registered and managed (this ID corresponds to an ID read from an RFID tag attached to the article), an article name (safe Key, customer list, notebook PC, projector, etc.), access restriction, type, and storage position are associated with each other and stored as article registration information. The “access restriction” is a use condition set for each article. A plurality of access restrictions can be set for each article, and when a state deviating from each condition is detected by the abnormality determination unit 115, it is determined to be abnormal. As this access condition, for example, a value of 0 to 99 is assigned as a user condition, a value of 100 to 199 is assigned as a location condition, a value of 200 to 299 is assigned as a time condition, and a value of 300 to 399 is assigned as an application condition. The “type” indicates the property of each article. For example, 0 is a key, 1 is a CD / DVD, 2 is a book / document, 3 is a PC device, and 4 is a tool. The properties (types) of the articles are indicated by numerical values. In the example of FIG. 6, in the case of a safe key with ID = 0, three usage conditions of user conditions, access conditions of 0, 100, and 200, a location condition, and a time condition are set, and the type of this item is “0”. That is, it is registered that the storage location is a key storage box with a key.

ここで、アクセス制限の具体例を図7に示す。上記のように、100〜199の値は場所条件、200〜299の値は時間条件、300〜399の値は用途条件として、割り当てているが、使用者条件としては、使用条件を「管理権限者のみ」とする場合0を、「使用時、複数人の立ち会いを要する」場合1を、また「使用許可を受けている者のみ」とする場合2をというように値を割り当てている。場所条件としては、「エリア間の移動は禁止」とする場合100を、「エリア間移動時にチェックが必要」とする場合101を、「フロア外持ち出し禁止」とする場合102をというように値を割り当てている。また、時間条件としては、「30分以内」を条件とする場合200を、「1日以内」を条件とする場合201を、「1週間以内」を条件とする場合202を割り当て、用途条件としては、「複製禁止」とする場合300を、「複製時、複数人の立ち会いを要する」とする場合301というように値を割り当てている。   A specific example of access restriction is shown in FIG. As described above, the values of 100 to 199 are assigned as place conditions, the values of 200 to 299 are assigned as time conditions, and the values of 300 to 399 are assigned as application conditions. Values are assigned such that 0 is set to “only the user”, 1 is set to “requires the presence of a plurality of people at the time of use”, and 2 is set to “only the person who is permitted to use”. As the place condition, the value is set to 100 when “move between areas is prohibited”, 101 when “check is necessary when moving between areas”, 102 when “pickout out of floor” is set, etc. Assigned. Also, as the time condition, 200 is assigned when “within 30 minutes”, 201 is assigned with “within 1 day”, 202 is assigned with “within 1 week”, and the usage conditions are assigned. Is assigned a value such as “300 when copying is prohibited” and 301 when “requires the presence of multiple people during copying”.

図8に、環境情報DB124のデータ構造の一例を示す。環境情報DB124は、同図に示すように、各監視エリアや各監視エリアに設けられたRFIDリーダ(RFID読取装置400〜400)等の設置物のID、名称、起点座標、終点座標、およびエリア/設置物種別が登録されている。監視エリアの起点座標と終点座標とで、監視エリアの範囲を定義している。各監視エリアのRFIDリーダ等の設置物の起点座標と終点座標は、当該設置物の設置位置の座標を示している。 FIG. 8 shows an example of the data structure of the environment information DB 124. As shown in the figure, the environment information DB 124 includes IDs, names, start point coordinates, end point coordinates of installation objects such as RFID readers (RFID readers 400 1 to 400 n ) provided in each monitoring area and each monitoring area, And area / installation type are registered. The range of the monitoring area is defined by the starting point coordinates and the ending point coordinates of the monitoring area. The starting point coordinates and the ending point coordinates of the installation object such as the RFID reader in each monitoring area indicate the coordinates of the installation position of the installation object.

図9に、人物DB125のデータ構造の一例を示す。人物DB125は、同図に示すように、人物と、この人物の重要物へのアクセスに対する権限に関する情報を対応付け登録したものである。具体的には、人物のID、名称、管理権限(管理者/ユーザ/ゲスト等)、所属部署(総務部/開発部/運用部等)、使用許可期限が人物毎に登録される。人物の重要物へのアクセスに対する権限に関する情報としては、例えば、出入管理等の情報を流用することも可能である。   FIG. 9 shows an example of the data structure of the person DB 125. As shown in the figure, the person DB 125 is obtained by associating and registering a person and information related to the authority for the person's access to the important object. Specifically, a person's ID, name, management authority (administrator / user / guest, etc.), department (general affairs department / development department / operation department, etc.), and use permission deadline are registered for each person. For example, information such as entry / exit management can be used as the information related to the authority of a person to access important items.

図10に、物品管理DB126のデータ構造の一例を示す。物品管理DB126は、物品の現在の状態を管理するためのDBであり、同図に示すように、物品のID、名称、状態(保管/持ち出し等)、最終取扱者、最新更新位置、最新更新時間を含む管理情報が物品毎に登録されている。なお、記憶部120の各DBは、定期的に、または必要に応じて、あるいは所定のイベントに応じて、それらの更新が行われる。例えば、状態情報DB121は、定期的な更新の時間間隔が長い場合には、定期的な更新以外に、画像処理部112により物体の移動が検出された時点においても更新するようにすることが望ましい。   FIG. 10 shows an example of the data structure of the article management DB 126. The article management DB 126 is a DB for managing the current state of the article. As shown in the figure, the article ID, name, state (storage / take-out, etc.), final handler, latest update position, latest update Management information including time is registered for each article. Each DB in the storage unit 120 is updated regularly, as necessary, or in response to a predetermined event. For example, the state information DB 121 is preferably updated when the movement of the object is detected by the image processing unit 112 in addition to the periodic update when the time interval of the regular update is long. .

異常判定部115は、状態情報DB121から複数の状態情報を取得する。例えば、異常判定部115は、状態情報構築部113によって生成され状態情報DB111に保存された状態情報のうち、時刻が連続する2つの状態情報を取得する。また、異常判定部115は、状態情報DB121に保存された状態情報のうち、同一時刻で主格が異なる2つの状態情報を取得する。取得された状態情報は、図5の行動導出規則によって行動を検出するときに利用される。なお、上記時刻は厳密に同一である必要はなく、誤差が所定の時間範囲内であれば略同一の時刻と判断するように構成してもよい。   The abnormality determination unit 115 acquires a plurality of state information from the state information DB 121. For example, the abnormality determination unit 115 acquires two pieces of state information having consecutive times among the state information generated by the state information construction unit 113 and stored in the state information DB 111. Moreover, the abnormality determination part 115 acquires two state information from which the main character differs at the same time among the state information preserve | saved in state information DB121. The acquired state information is used when an action is detected by the action derivation rule of FIG. The times need not be exactly the same, and may be configured to be determined to be substantially the same if the error is within a predetermined time range.

また、異常判定部115は、時刻が連続する2つの状態情報が行動導出規則DB122に保存された行動導出規則に適合するか否かを判定することによって、新たな行動を検出する。   In addition, the abnormality determination unit 115 detects a new action by determining whether or not two pieces of state information with successive times are compatible with the action derivation rule stored in the action derivation rule DB 122.

具体的には、異常判定部115は、先に取得した時刻が連続する2つの状態情報の行動名および格情報が一致する行動導出規則を行動導出規則DB122から取得する。そして、2つの状態情報の行動名および格情報が一致する行動導出規則が取得できた場合には、当該行動検出規則で定められた行動を新たな行動として検出する。そして、後述の異常判定処理を実行する。   Specifically, the abnormality determination unit 115 acquires from the behavior derivation rule DB 122 an action derivation rule in which the action name and the case information of the two pieces of state information having the previously acquired times match. Then, when an action derivation rule that matches the action name and the case information of the two state information can be acquired, the action determined by the action detection rule is detected as a new action. And the abnormality determination process mentioned later is performed.

(異常判定)
異常判定部115は、さらに、状態情報DB121に時系列に登録されている人物に対する状態情報および物品に対する状態情報から異常判定を行う。その具体例を、図11に示す。図11は、状態情報から異常判定を行う際の具体例を示す図である。同図において、物品にはRFIDタグが取り付けられているものとする。また、図12に、図11に示す状況で画像処理により得られる情報とRFIDリーダから得られる情報の例を示す。
(Abnormality judgment)
The abnormality determination unit 115 further performs an abnormality determination from the state information for the person registered in time series in the state information DB 121 and the state information for the article. A specific example is shown in FIG. FIG. 11 is a diagram illustrating a specific example when abnormality determination is performed from state information. In the figure, it is assumed that an RFID tag is attached to the article. FIG. 12 shows an example of information obtained by image processing and information obtained from the RFID reader in the situation shown in FIG.

図11に示すように、各エリアには、カメラとRFIDリーダが設置されており、各エリアにおいて、人物の行動を解析し、物品のエリア間の移動を検出する。図11の(1)、(2)、(3)の各状態において得られる情報として、図12に示す情報が得られる。すなわち、(1)で画像処理部112による画像処理により得られる情報は、[行動名:存在する]、[主格:人物A、人物B]、[場所格(場所名):エリアA]であり、同じく(1)でRFIDリーダから得られる情報は、[行動名:存在する]、[主格:物品]、[場所格:エリアA]である。また、図11の(2)で画像処理部112による画像処理により得られる情報は、[行動名:存在する]、[主格:人物A、人物B]、[場所格:エリアC]であり、同じく(2)でRFIDリーダから得られる情報は、[行動名:存在する]、[主格:物品]、[場所格:エリアC]である。また、図11の(3)で画像処理部112による画像処理により得られる情報は、[行動名:存在する]、[主格:人物A]、[場所格:エリアB]であり、同じく(3)でRFIDリーダから得られる情報は、[行動名:存在する]、[主格:物品]、[場所格:エリアB]である。なお、この例では物品の動作状態の検出をRFIDリーダから得られる情報によるものとしているが、もちろん画像情報を解析して得られる情報を利用することもできる。この例のように、RFIDリーダから得られる情報を用いることにより、物品がカメラにより撮像できない状況にあっても、その動作状態を検出するための情報を得ることができる。   As shown in FIG. 11, a camera and an RFID reader are installed in each area, and in each area, a person's behavior is analyzed and movement between areas of the article is detected. Information shown in FIG. 12 is obtained as information obtained in the states (1), (2), and (3) of FIG. That is, the information obtained by the image processing by the image processing unit 112 in (1) is [behavior name: exists], [main character: person A, person B], [location case (location name): area A]. Similarly, the information obtained from the RFID reader in (1) is [behavior name: exists], [main character: article], and [location character: area A]. Also, information obtained by image processing by the image processing unit 112 in (2) of FIG. 11 is [action name: exists], [main character: person A, person B], [location character: area C], Similarly, the information obtained from the RFID reader in (2) is [action name: exists], [master: article], [location case: area C]. Also, the information obtained by the image processing by the image processing unit 112 in (3) of FIG. 11 is [action name: exists], [main character: person A], [location character: area B]. ), The information obtained from the RFID reader is [action name: exists], [master: article], and [location case: area B]. In this example, the detection of the operation state of the article is based on information obtained from the RFID reader. Of course, information obtained by analyzing image information can also be used. By using the information obtained from the RFID reader as in this example, it is possible to obtain information for detecting the operation state even when the article cannot be captured by the camera.

このような状況で、図7に示したアクセス制限として「100」が設定されている場合、すなわち「エリア間の移動は禁止」という条件が設定されている場合、図11の(2)で、状態情報DB121の更新のためRFIDリーダから情報を取得した際に、物品の「エリアAからエリアBへの移動」が時系列の状態情報として状態情報DB121に登録されるため(このとき生成される格フレームは、先に登録されている格フレーム(状態情報)とは場所格が異なる(エリアA→エリアB))、この状態情報を基に異常と判定することができる。   In this situation, when “100” is set as the access restriction shown in FIG. 7, that is, when the condition “movement between areas is prohibited” is set, (2) in FIG. When information is acquired from the RFID reader for updating the state information DB 121, “movement from area A to area B” of the article is registered in the state information DB 121 as time-series state information (generated at this time). The case frame has a different location case from the previously registered case frame (state information) (area A → area B)), and can be determined to be abnormal based on this state information.

また、このような状況で、図7に示したアクセス制限として「1」が設定されている場合、すなわち「使用時、複数人の立会いを要する」という条件が設定されている場合、図11の(1)、(2)の状況では、物体のあるエリアに人物Aおよび人物Bが存在するため、アクセス制限の条件を満たし異常とならないが、(3)の状況のように、エリアBに物体と人物Aしか存在しないことが、状態情報から検出されると、異常判定部115は、この状態情報を基に異常と判定することになる。   Further, in this situation, when “1” is set as the access restriction shown in FIG. 7, that is, when the condition “requires the presence of multiple people when used” is set, In the situations (1) and (2), the person A and the person B exist in the area where the object is present, so that the access restriction condition is not met and no abnormality occurs. However, as in the situation (3), the object When it is detected from the state information that only the person A exists, the abnormality determination unit 115 determines that there is an abnormality based on this state information.

(異常判定処理)
ここで、図13を用いて、本実施形態の警備装置100の異常判定部115による異常判定処理について説明する。図13は、異常判定部115による異常判定処理を示すフローチャートである。なお、物品にはRFIDタグが取り付けられているものとする。
(Abnormality judgment processing)
Here, the abnormality determination process by the abnormality determination unit 115 of the security device 100 according to the present embodiment will be described with reference to FIG. FIG. 13 is a flowchart showing the abnormality determination process by the abnormality determination unit 115. Note that an RFID tag is attached to the article.

はじめに、対象物品に対する格フレームが状態情報DB121に登録されているか判断する(ステップS1301)。ここでは、この物品の主格であるID(追跡番号)を基に、状態情報DB121を検索し、該当する格フレームが登録されているか否か判断をする。   First, it is determined whether a case frame for the target article is registered in the state information DB 121 (step S1301). Here, the status information DB 121 is searched based on the ID (tracking number) which is the main character of the article, and it is determined whether or not the corresponding case frame is registered.

状態情報DB121に対象物品の格フレームが登録されている場合(ステップS1301でYes)、ステップS1302に移行し、このステップにおいて、物品登録DB123からこの物品の情報を取得する。ここでは、当該物品のIDを基に、物品登録DB123を検索し、対応する、品名、アクセス制限(使用者条件、場所条件、時間条件、用途条件等)、タイプ、保管位置等の情報を取得する。   When the case frame of the target article is registered in the state information DB 121 (Yes in step S1301), the process proceeds to step S1302, and in this step, information on the article is acquired from the article registration DB 123. Here, the article registration DB 123 is searched based on the ID of the article, and the corresponding information such as the article name, access restriction (user condition, place condition, time condition, usage condition, etc.), type, storage position, etc. is acquired. To do.

次いで、状態情報DB121から対象物品の直近に存在する人物の状態情報を取得する(ステップS1303)。通常、自走式の物体を除いて、一般の物品は人が移動させるものであるので、物品の移動がある場合には、その空間的・時間的直近に人物が存在すると考えられる。したがって、ここでは、状態情報DB121に登録されている物品の格フレーム(状態情報)から得られる場所格および時間格を基に、該当物品に対して空間的・時間的直近に存在する人物に対する状態情報を取得する。   Next, the status information of the person who is closest to the target article is acquired from the status information DB 121 (step S1303). Usually, a general article is moved by a person except for a self-propelled object. Therefore, when an article is moved, it is considered that a person exists in the closest space and time. Therefore, here, based on the place case and time case obtained from the case frame (state information) of the article registered in the state information DB 121, the state for the person who is closest to the article in space and time Get information.

そして、ステップS1304で使用者条件、場所条件、時間条件、用途条件のチェックをする。ここでは、ステップS1302で取得された情報の内アクセス制限として前述の使用者条件、場所条件、時間条件、用途条件のいずれかまたは全部が設定されている場合、ステップS1303で取得した人物に対する状態情報がこれらの条件を満たしているかチェックする。なお、使用者条件に関しては、人物に対する状態情報から特定される人物について人物DB125を参照し、その管理権限や使用許可期限等が使用者条件に合致するかもチェックする。また、場所条件や用途条件(例えば、複製禁止の場合、複写機のある位置/空間に物品が存在することを禁止条件とするなど)に関しては、人物や物品の位置が、状態情報において場所名の他、座標でも特定されるため、環境情報DB124を参照し、人物や物品が存在する位置関係を特定した上で、人物や物品に対する状態情報が場所条件等に合致するかをチェックする。   In step S1304, user conditions, place conditions, time conditions, and usage conditions are checked. Here, when any or all of the above-mentioned user conditions, place conditions, time conditions, and usage conditions are set as access restrictions in the information acquired in step S1302, the state information for the person acquired in step S1303. Checks whether these conditions are met. Regarding the user condition, the person DB 125 is referred to for the person specified from the state information for the person, and it is also checked whether the management authority, the use permission deadline, and the like match the user condition. In addition, regarding the location conditions and application conditions (for example, in the case of copy prohibition, the prohibition condition is that an article exists in a certain position / space of the copying machine) In addition, since the coordinates are specified, the environmental information DB 124 is referred to, the positional relationship where the person or the article exists is specified, and it is checked whether the state information for the person or the article matches the location condition or the like.

上記人物に対する状態情報が、いずれかの条件を逸脱している場合(ステップS1305でYes)、管理用PC200に異常を通知する異常出力を行う(ステップS1306)。   If the status information for the person deviates from any of the conditions (Yes in step S1305), an abnormality output for notifying the management PC 200 of the abnormality is performed (step S1306).

以上の、物品と人物とを関連づけて監視する異常判定処理により、物品(RFIDタグ付き)に対するセキュリティをより強化することができる。   Through the above-described abnormality determination process for monitoring an article and a person in association with each other, security for the article (with an RFID tag) can be further strengthened.

続いて、固定資産管理部116による固定資産管理のための処理について説明する。固定資産管理部116は、状態情報DB121から複数の状態情報を取得する。例えば、時刻が連続する2つの状態情報を取得する。この状態情報の主格(ID等)および場所格(なお、物品の場合、図3に示す人物に対する頭部座標等の情報はない)を基に、その動作状態(移動)を検出する。そして、後述の固定資産管理処理を実行する。なお、上記時刻は厳密に同一である必要はなく、誤差が所定の時間範囲内であれば略同一の時刻と判断するように構成してもよい。   Next, processing for fixed asset management by the fixed asset management unit 116 will be described. The fixed asset management unit 116 acquires a plurality of pieces of state information from the state information DB 121. For example, two pieces of state information with continuous time are acquired. The operation state (movement) is detected on the basis of the main character (ID or the like) and the place character of the state information (in the case of an article, there is no information such as head coordinates for the person shown in FIG. 3). And the fixed asset management process mentioned later is performed. The times need not be exactly the same, and may be configured to be determined to be substantially the same if the error is within a predetermined time range.

(固定資産管理)
以下に、本実施形態の監視システム10を利用した固定資産の手法について説明する。その具体例を図14〜16に示す。ここで、図14は、状態情報から固定資産管理のための処理を行う際の具体例を示す図である。図15は、図14の状況で画像処理により得られる情報とRFIDリーダから得られる情報の例を示す図である。図16は、物品管理DBの更新過程を例示した図である。なお、図14において、物品にはRFIDタグが取り付けられているものとする。
(Fixed assets management)
Below, the method of the fixed asset using the monitoring system 10 of this embodiment is demonstrated. Specific examples thereof are shown in FIGS. Here, FIG. 14 is a diagram illustrating a specific example when processing for fixed asset management is performed from the state information. FIG. 15 is a diagram illustrating an example of information obtained by image processing and information obtained from the RFID reader in the situation of FIG. FIG. 16 is a diagram illustrating an update process of the article management DB. In FIG. 14, it is assumed that an RFID tag is attached to the article.

図14に示すように、各エリアには、カメラとRFIDリーダが設置されており、各エリアにおいて、人物の行動を解析し、物品の動作状態としてこの物品のエリア間の移動を検出する。図14の(1)、(2)、(3)の各状態において得られる情報として、図15に示す情報が得られる。すなわち、(1)で画像処理部112による画像処理により得られる情報は、[行動名:存在する]、[主格:人物A]、[場所格(場所名):エリアA]、[時間格:T1]であり、同じく(1)でRFIDリーダから得られる情報は、[行動名:存在する]、[主格:物品]、[場所格:エリアA]、[時間格:T1]である。また、図14の(2)で画像処理部112による画像処理により得られる情報は、[行動名:存在する]、[主格:人物A、人物B]、[場所格:エリアC]、[時間格:T2]であり、同じく(2)でRFIDリーダから得られる情報は、[行動名:存在する]、[主格:物品]、[場所格:エリアC]、[時間格:T3]である。また、図14の(3)で画像処理部112による画像処理により得られる情報は、[行動名:存在する]、[主格:人物B]、[場所格:エリアB]、[時間格:T3]であり、同じく(3)でRFIDリーダから得られる情報は、[行動名:存在する]、[主格:物品]、[場所格:エリアB]、[時間格:T3]である。   As shown in FIG. 14, a camera and an RFID reader are installed in each area. In each area, a person's behavior is analyzed, and movement between the areas of the article is detected as an operation state of the article. Information shown in FIG. 15 is obtained as information obtained in the states (1), (2), and (3) of FIG. That is, the information obtained by the image processing by the image processing unit 112 in (1) is [behavior name: exists], [main character: person A], [location case (location name): area A], [time case: Similarly, the information obtained from the RFID reader in (1) is [Action Name: Exists], [Main Character: Article], [Location Case: Area A], [Time Case: T1]. Also, the information obtained by the image processing by the image processing unit 112 in (2) of FIG. 14 is [behavior name: exists], [main character: person A, person B], [location character: area C], [time] Similarly, the information obtained from the RFID reader in (2) is [Action Name: Exists], [Primary: Goods], [Location Case: Area C], [Time Case: T3]. . Also, the information obtained by the image processing by the image processing unit 112 in (3) of FIG. 14 is [behavior name: exists], [main character: person B], [location character: area B], [time character: T3. Similarly, the information obtained from the RFID reader in (3) is [action name: exists], [master: article], [location case: area B], [time case: T3].

ここで、物品管理DB126の初期状態は、図16の(A)の状態にあるとする。図14に示す(1)の状態では、人物Aと物品がエリアA内にあり、人物Aが物品を持ち出そうとしている。この状態で、物品管理DB126の更新がなされると、物品管理DB126は、図16の(B)のように更新される。すなわち、物品更新DBの項目の内、「状態」、「最終取扱者」、「最新更新位置」、「最終更新時間」が、それぞれ「持ち出し」、「人物A」、「エリアA」、「T1」(ただし、T1はこの更新時の時間である)に更新される。   Here, it is assumed that the initial state of the article management DB 126 is in the state of FIG. In the state of (1) shown in FIG. 14, the person A and the article are in the area A, and the person A is about to take out the article. When the article management DB 126 is updated in this state, the article management DB 126 is updated as shown in FIG. That is, among the items in the article update DB, “state”, “last handler”, “latest update position”, and “last update time” are “take-out”, “person A”, “area A”, “T1”, respectively. (Where T1 is the time at the time of this update).

次いで、図14の(2)の状態になると(このときエリアCにおいて人物Aは人物Bと合流している)、物品管理DB126は、図16の(C)のように更新される。すなわち、物品更新DBの項目の内、「最新更新位置」、「最終更新時間」が、それぞれ、「エリアC」、「T2」(ただし、T2はこの更新時の時間である)に更新される。   Next, when the state shown in (2) of FIG. 14 is reached (at this time, the person A joins the person B in the area C), the article management DB 126 is updated as shown in (C) of FIG. That is, among the items in the article update DB, “latest update position” and “last update time” are updated to “area C” and “T2” (where T2 is the time at the time of this update), respectively. .

次いで、図14の(3)の状態になると(このとき、物品は人物Aから人物Bに手渡され、物品と人物BはエリアBに存在している)、物品管理DB126は、図16の(D)のように更新される。すなわち、物品更新DBの項目の内、「最終取扱者」、「最新更新位置」、「最終更新時間」が、それぞれ「人物B」、「エリアB」、「T3」(ただし、T3はこの更新時の時間である)に更新される。   Next, when the state shown in (3) of FIG. 14 is reached (at this time, the article is handed over from person A to person B, and the article and person B exist in area B), the article management DB 126 (see FIG. It is updated as in D). That is, among the items in the article update DB, “last handler”, “latest update position”, and “last update time” are “person B”, “area B”, and “T3” (however, T3 is this update). Time).

以上のように、RFIDタグ付き物品の管理状態が物品管理DB126に登録され管理される。   As described above, the management state of the RFID-tagged article is registered and managed in the article management DB 126.

(固定資産管理処理)
ここで、図17を用いて、本実施形態の警備装置100の固定資産管理部116による固定資産管理処理について説明する。図17は、固定資産管理部116による固定資産管理処理を示すフローチャートである。なお、物品にはRFIDタグが取り付けられており、RFIDリーダによりそのRFIDタグ情報が読み取られ、当該物品のIDが取得されているものとする。また、この処理は、例えば、定期的に行われる。
(Fixed asset management processing)
Here, the fixed asset management processing by the fixed asset management unit 116 of the security device 100 of the present embodiment will be described with reference to FIG. FIG. 17 is a flowchart showing fixed asset management processing by the fixed asset management unit 116. It is assumed that an RFID tag is attached to the article, the RFID tag information is read by the RFID reader, and the ID of the article is acquired. Moreover, this process is performed regularly, for example.

はじめに、対象物品に対する格フレームが状態情報DB121に登録されているか(状態情報DB121から取得可能か)判断する(ステップS1701)。ここでは、この物品の主格であるID(追跡番号)を基に、状態情報DB121を検索し、該当する格フレーム(最新の格フレームとその1つ前の時点の格フレーム)が登録されているか否か判断をする。状態情報DB121に該当する格フレームが存在しない場合(ステップS1701でNo)、この処理は終了する。   First, it is determined whether a case frame for the target article is registered in the state information DB 121 (can be acquired from the state information DB 121) (step S1701). Here, the status information DB 121 is searched based on the ID (tracking number) which is the main case of the article, and whether the corresponding case frame (the latest case frame and the case frame immediately before) is registered. Judge whether or not. If there is no case frame corresponding to the state information DB 121 (No in step S1701), this process ends.

一方、状態情報DB121に当該物品の格フレームが登録されている場合(ステップS1701でYes)、ステップS1702に移行し、このステップにおいて、場所の移動が発生しているか判断する。この判断は、当該時点において、最新の格フレーム(状態情報)と時間的に近接する1つ前の格フレーム(状態情報)を取得し、これらの間において当該物品の場所格に変化があるか否かを判定することにより行う。このステップにおいて場所の移動がないと判定された場合は(ステップS1702でNo)、ステップS1709へ移行し、このステップにおいて物品管理DB126の「最終更新時間」を当該物品の最新の状態情報の時間格の情報に更新する。   On the other hand, when the case frame of the article is registered in the state information DB 121 (Yes in step S1701), the process proceeds to step S1702, and in this step, it is determined whether or not a place movement has occurred. This determination is based on obtaining the previous case frame (state information) that is temporally close to the latest case frame (state information) at that time, and whether there is a change in the location case of the article between them. This is done by determining whether or not. If it is determined in this step that the location has not moved (No in step S1702), the process proceeds to step S1709, and in this step, the “last update time” of the article management DB 126 is set to the time status of the latest state information of the article. Update to information.

ステップS1702において場所の移動があったと判定された場合(ステップS1702でYes)、ステップS1703に移行し、このステップにおいて物品管理DB126の「最終更新位置」を最新の状態情報の場所格の情報に更新する。   If it is determined in step S1702 that the location has been moved (Yes in step S1702), the process proceeds to step S1703, where the “last updated position” in the article management DB 126 is updated to the location information of the latest state information. To do.

次いで、物品管理DB126より状態項目の情報を取得し(ステップS1704)、この情報が「保管」であるのか「持ち出し」であるのか判定する(ステップS1705)。   Next, information on the state item is acquired from the article management DB 126 (step S1704), and it is determined whether this information is “storage” or “take-out” (step S1705).

ステップS1705で、状態項目の情報が「保管」であると判定された場合(ステップS1705でYes)、状態項目を「持ち出し」に更新する(ステップS1706)。   If it is determined in step S1705 that the status item information is “storage” (Yes in step S1705), the status item is updated to “take out” (step S1706).

次いで、状態情報DB121から対象物品の直近に存在する人物の状態情報を取得する(ステップS1707)。ここでは、状態情報DB121に登録されている当該物品の格フレーム(状態情報)から得られる場所格および時間格を基に、該当物品に対して空間的・時間的直近に存在する人物に対する状態情報(特には、主格)を取得する。   Next, the status information of the person who is closest to the target article is acquired from the status information DB 121 (step S1707). Here, based on the location case and the time case obtained from the case frame (state information) of the article registered in the state information DB 121, the state information for the person who is closest to the article in space and time (Especially the main character).

そして、物品管理DB126の最終取扱者項目をステップS1707で取得した人物に対する状態情報(主格)で更新する(ステップS1708)。   Then, the final handler item in the article management DB 126 is updated with the status information (main character) for the person acquired in step S1707 (step S1708).

最後に、物品管理DB126の「最終更新時間」を当該物品の最新の状態情報の時間格の情報に更新する(ステップS1709)。   Finally, the “last update time” of the article management DB 126 is updated to information on the time case of the latest status information of the article (step S1709).

一方、ステップS1705で、状態項目の情報が「保管」でない、すなわち「持ち出し」であると判定された場合(ステップS1705でNo)、ステップS1710へ移行し、このステップで、物品登録DB123より保管位置の情報を取得する。そして、対象物品の状態情報の場所格がステップS1710で取得した保管位置と一致するか否か判断する(ステップS1711)。   On the other hand, if it is determined in step S1705 that the status item information is not “storage”, that is, “take-out” (No in step S1705), the process proceeds to step S1710. In this step, the storage position is stored from the article registration DB 123. Get information about. Then, it is determined whether or not the location of the state information of the target article matches the storage position acquired in step S1710 (step S1711).

ステップS1711の判断で、対象物品の状態情報の場所格がステップS1710で取得した保管位置と一致すると判定された場合(ステップS1711でYes)、物品管理DB126の状態項目を「保管」に更新し(ステップS1712)、ステップS1707へ移行する。一方、対象物品の状態情報の場所格がステップS1710で取得した保管位置と一致しないと判定された場合は(ステップS1711でNo)、何もせずに、ステップS1707へ移行する。ステップS1707以降の処理は上述のとおりである。   If it is determined in step S1711 that the location of the state information of the target article matches the storage position acquired in step S1710 (Yes in step S1711), the state item in the article management DB 126 is updated to “storage” ( Step S1712) and the process proceeds to Step S1707. On the other hand, if it is determined that the location of the state information of the target article does not match the storage position acquired in step S1710 (No in step S1711), the process proceeds to step S1707 without doing anything. The processing after step S1707 is as described above.

以上のようにして更新される物品管理DB126の情報は、管理用PC200や他のPC200’からアクセスし、参照することができる。したがって、物品が、いまどのような状態にあるのか容易に知ることができる。   Information in the article management DB 126 updated as described above can be accessed and referenced from the management PC 200 or another PC 200 '. Therefore, it is possible to easily know the state of the article now.

なお、本発明は、上記実施の形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施の形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施の形態に示される全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態にわたる構成要素を適宜組み合わせても良い。   It should be noted that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

10 監視システム
100 警備装置
110 制御部
111 画像入力部
112 画像処理部
113 状態情報構築部
114 データ入力部
115 異常判定部
116 固定資産管理部
117 アクセス制御部
120 記憶部
121 状態情報DB
122 行動導出規則DB
123 物品登録DB
124 環境情報DB
125 人物DB
126 物品管理DB
200 管理用PC
200’ PC
300〜300 撮像装置
400〜400 RFID読取装置
DESCRIPTION OF SYMBOLS 10 Monitoring system 100 Security apparatus 110 Control part 111 Image input part 112 Image processing part 113 State information construction part 114 Data input part 115 Abnormality determination part 116 Fixed asset management part 117 Access control part 120 Storage part 121 State information DB
122 Action derivation rule DB
123 article registration DB
124 Environmental Information DB
125 person DB
126 Goods management DB
200 Management PC
200 'PC
300 1 to 300 n imaging apparatus 400 1 to 400 n RFID reader

Claims (9)

撮像された画像情報および無線タグから読み取った読取情報を基に生成される物体の動作状態を表す情報であって、前記物体の動作の種類を表す動詞と前記物体の動作に関連する名詞である格要素とを含み、前記動詞と前記格要素との間の意味関係を示す格フレームによって表された状態情報を構築する状態情報構築手段と、
前記状態情報構築手段により構築された状態情報を記憶する記憶手段と、
前記記憶手段から、複数の前記物体それぞれの動作状態を表す複数の前記状態情報を取得する状態情報取得手段と、
取得された複数の前記状態情報それぞれに含まれる前記動詞の組み合わせに応じた物体の動作状態を予め定めた規則に基づいて、前記組み合わせに対応する物体の動作状態を検出する検出手段と、
前記検出手段による検出結果に基づいて異常であるか否かを判定する異常判定手段と、
を備えたことを特徴とする動作状態検出装置。
Information indicating the motion state of the object generated based on the captured image information and the read information read from the wireless tag, and is a verb indicating the type of motion of the object and a noun related to the motion of the object State information constructing means for constructing state information represented by a case frame including a case element and indicating a semantic relationship between the verb and the case element;
Storage means for storing status information constructed by the status information construction means;
State information acquisition means for acquiring a plurality of state information representing the operation states of the plurality of objects from the storage means;
Detecting means for detecting an operation state of an object corresponding to the combination based on a rule that predetermines an operation state of the object according to a combination of the verbs included in each of the acquired plurality of state information;
An abnormality determining means for determining whether or not there is an abnormality based on a detection result by the detecting means;
An operation state detection apparatus comprising:
前記状態情報は、前記格要素として前記物体の動作が発生した時刻を含み、
前記状態取得手段は、前記状態記憶手段から、前記時刻が略同一である複数の前記状態情報を取得すること、
を特徴とする請求項1に記載の動作状態検出装置。
The state information includes a time when the movement of the object occurs as the case element,
The status acquisition means acquires a plurality of the status information having substantially the same time from the status storage means;
The operation state detection device according to claim 1.
前記状態情報構築手段は、撮像された画像情報を基に人物に対する状態情報を構築し、少なくとも無線タグから読み取った読取情報を基に物品に対する状態情報を構築することを特徴とする請求項1または請求項2に記載の動作状態検出装置。   2. The status information construction unit constructs status information for a person based on captured image information, and constructs status information for an article based on at least read information read from a wireless tag. The operation state detection apparatus according to claim 2. 前記異常判定手段は、対象とする物品に対する状態情報が前記記憶手段に記憶されている場合に、前記物品に対し時間的・空間的に直近する人物に対する状態情報を前記記憶手段から取得し、前記物品および前記人物に対するそれぞれの状態情報が、前記物品および前記人物に対し規定された使用条件を逸脱している場合に異常と判定することを特徴とする請求項3に記載の動作状態検出装置。   The abnormality determination means acquires state information for a person who is closest in time and space to the article from the storage means when state information for the target article is stored in the storage means, The operation state detection device according to claim 3, wherein when the state information for the article and the person deviates from the use conditions defined for the article and the person, it is determined as abnormal. 撮像された画像情報および無線タグから読み取った読取情報を基に生成される物体の動作状態を表す情報であって、前記物体の動作の種類を表す動詞と前記物体の動作に関連する名詞である格要素とを含み、前記動詞と前記格要素との間の意味関係を示す格フレームによって表された状態情報を構築する状態情報構築手段と、
前記状態情報構築手段により構築された状態情報を記憶する第1の記憶手段と、
前記物体の、少なくとも保管状態と最終取扱者と前記物体の位置とを含む管理情報を記憶する第2の記憶手段と、
前記第1の記憶手段から、複数の前記物体それぞれの動作状態を表す複数の前記状態情報を取得する状態情報取得手段と、
対象とする物品である物体に対する状態情報が前記第1の記憶手段から取得できる場合に、該物体に対する状態情報から場所の移動の有無を検出し、さらに場所の移動が検出された場合に、前記第2の記憶手段に記憶された前記管理情報を更新する固定資産管理手段と、
を備えたことを特徴とする動作状態検出装置。
Information indicating the motion state of the object generated based on the captured image information and the read information read from the wireless tag, and is a verb indicating the type of motion of the object and a noun related to the motion of the object State information constructing means for constructing state information represented by a case frame including a case element and indicating a semantic relationship between the verb and the case element;
First storage means for storing state information constructed by the state information construction means;
Second storage means for storing management information including at least a storage state of the object, a final handler, and a position of the object;
State information acquisition means for acquiring a plurality of pieces of state information representing respective operation states of the plurality of objects from the first storage means;
When the state information for the object that is the target article can be acquired from the first storage unit, the presence / absence of movement of the place is detected from the state information for the object, and when the movement of the place is further detected, Fixed asset management means for updating the management information stored in the second storage means;
An operation state detection apparatus comprising:
前記状態情報は、前記格要素として前記物体の動作が発生した時刻を含み、
前記状態取得手段は、前記状態記憶手段から、前記時刻が略同一である複数の前記状態情報を取得すること、
を特徴とする請求項5に記載の動作状態検出装置。
The state information includes a time when the movement of the object occurs as the case element,
The status acquisition means acquires a plurality of the status information having substantially the same time from the status storage means;
The operation state detection device according to claim 5.
前記固定資産管理手段は、前記物品である物体の保管場所からの場所の移動が検出された場合、該物体に対し時間的・空間的に直近する人物である物体に対する状態情報を前記第1の記憶手段から取得し、前記物品および前記人物に対するそれぞれの状態情報を基に、前記第2の記憶手段に記憶された管理情報を更新することを特徴とする請求項5または請求項6に記載の動作状態検出装置。   When the movement of the location from the storage location of the object that is the article is detected, the fixed asset management means obtains the state information for the object that is the person closest in time and space to the object. The management information acquired from the storage means and updated in the second storage means is updated based on the respective state information for the article and the person. Operating state detection device. 状態情報構築手段が、撮像された画像情報および無線タグから読み取った読取情報を基に生成される物体の動作状態を表す情報であって、前記物体の動作の種類を表す動詞と前記物体の動作に関連する名詞である格要素とを含み、前記動詞と前記格要素との間の意味関係を示す格フレームによって表された状態情報を構築し、構築した状態情報を記憶手段に記憶させる状態情報構築ステップと、
状態情報取得手段が、前記記憶手段から、複数の前記物体それぞれの動作状態を表す複数の前記状態情報を取得する状態情報取得ステップと、
検出手段が、取得された複数の前記状態情報それぞれに含まれる前記動詞の組み合わせに応じた物体の動作状態を予め定めた規則に基づいて、前記組み合わせに対応する物体の動作状態を検出する検出ステップと、
異常判定手段が、前記検出ステップによる検出結果に基づいて異常であるか否かを判定する異常判定ステップと、
を含むことを特徴とする動作状態検出方法。
The state information construction means is information representing the motion state of the object generated based on the captured image information and the read information read from the wireless tag, and a verb representing the motion type of the object and the motion of the object State information that includes a case element that is a noun related to, and that constructs state information represented by a case frame indicating a semantic relationship between the verb and the case element, and stores the constructed state information in a storage means Construction steps and
State information acquisition means for acquiring a plurality of the state information representing the operation state of each of the plurality of objects from the storage means,
A detecting step in which the detecting means detects the motion state of the object corresponding to the combination based on a rule that predetermines the motion state of the object according to the combination of the verbs included in each of the acquired plurality of state information. When,
An abnormality determination step for determining whether the abnormality determination means is abnormal based on the detection result of the detection step;
An operation state detection method comprising:
状態情報構築手段が、撮像された画像情報および無線タグから読み取った読取情報を基に生成される物体の動作状態を表す情報であって、前記物体の動作の種類を表す動詞と前記物体の動作に関連する名詞である格要素とを含み、前記動詞と前記格要素との間の意味関係を示す格フレームによって表された状態情報を構築し、構築した状態情報を第1の記憶手段に記憶させる状態情報構築ステップと、
状態情報取得手段が、前記第1の記憶手段から、複数の前記物体それぞれの動作状態を表す複数の前記状態情報を取得する状態情報取得ステップと、
固定資産管理手段が、対象とする物品である物体に対する状態情報が前記第1の記憶手段から取得できる場合に、該物体に対する状態情報から場所の移動の有無を検出し、さらに場所の移動が検出された場合に、前記物体の、少なくとも保管状態と最終取扱者と前記物体の位置とを含む管理情報を記憶する第2の記憶手段に記憶された管理情報を更新する固定資産管理処理ステップと、
を含むことを特徴とする動作状態検出方法。
The state information construction means is information representing the motion state of the object generated based on the captured image information and the read information read from the wireless tag, and a verb representing the motion type of the object and the motion of the object A state element represented by a case frame that indicates a semantic relationship between the verb and the case element, and stores the built state information in the first storage means State information construction step to be
A state information acquisition unit that acquires a plurality of the state information representing the operation states of the plurality of objects from the first storage unit;
When the state information for the object that is the target article can be acquired from the first storage means, the fixed asset management means detects the presence / absence of movement of the place from the state information for the object, and further detects the movement of the place. A fixed asset management processing step for updating management information stored in second storage means for storing management information including at least a storage state, a final handler, and a position of the object when the object is stored;
An operation state detection method comprising:
JP2009088341A 2009-03-31 2009-03-31 Operating state detecting device and operating state detecting method Active JP5167188B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009088341A JP5167188B2 (en) 2009-03-31 2009-03-31 Operating state detecting device and operating state detecting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009088341A JP5167188B2 (en) 2009-03-31 2009-03-31 Operating state detecting device and operating state detecting method

Publications (2)

Publication Number Publication Date
JP2010238180A JP2010238180A (en) 2010-10-21
JP5167188B2 true JP5167188B2 (en) 2013-03-21

Family

ID=43092407

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009088341A Active JP5167188B2 (en) 2009-03-31 2009-03-31 Operating state detecting device and operating state detecting method

Country Status (1)

Country Link
JP (1) JP5167188B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003087771A (en) * 2001-09-07 2003-03-20 Oki Electric Ind Co Ltd Monitoring system and monitoring method
JP4706914B2 (en) * 2005-08-31 2011-06-22 ブラザー工業株式会社 Goods management system
JP4780415B2 (en) * 2007-03-16 2011-09-28 大日本印刷株式会社 Equipment management system

Also Published As

Publication number Publication date
JP2010238180A (en) 2010-10-21

Similar Documents

Publication Publication Date Title
US20220245655A1 (en) Systems and methods for sensor data analysis through machine learning
US11763567B2 (en) Automated store system and server
EP2874098B1 (en) Image recognition apparatus and data registration method for image recognition apparatus
JP6202283B2 (en) Incident video processing apparatus, incident video processing system, incident video processing method, and program
JP5077164B2 (en) Tracking device and tracking method
US20230401916A1 (en) Information processing apparatus, information processing system, and information processing method
JP5091095B2 (en) Motion detection device and motion detection method
JP6124223B2 (en) Incident video log data generation apparatus, incident video processing system, incident video log data generation method, and program
JP2024015359A (en) person detection system
CN105659250A (en) World-driven access control
JP7201072B2 (en) Surveillance device, suspicious object detection method, and program
JP2007061394A (en) Monitoring device, method and program
US20210027240A1 (en) Goods receipt management system and method
JP7371595B2 (en) Apparatus, system, method and program
JP5167188B2 (en) Operating state detecting device and operating state detecting method
US20200126146A1 (en) Commodity data processing system
Baltanas et al. A face recognition system for assistive robots
JP2004334589A (en) Apparatus for managing admission
JP2021012657A (en) Information processing apparatus, information processing method, and camera
JP2010170212A (en) Action estimation device and method
US11763595B2 (en) Method and system for identifying, tracking, and collecting data on a person of interest
WO2022079527A1 (en) Goods receipt management system and method
Kapoor et al. IoT based real-time face detection and recognition system
CN115147887A (en) Face recognition rate improving method, access control device and computer-readable storage medium
JP2021111201A (en) Face authentication system and face authentication method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111018

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121121

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121221

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151228

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5167188

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250