JP2019096179A - Behavior monitoring system - Google Patents
Behavior monitoring system Download PDFInfo
- Publication number
- JP2019096179A JP2019096179A JP2017226573A JP2017226573A JP2019096179A JP 2019096179 A JP2019096179 A JP 2019096179A JP 2017226573 A JP2017226573 A JP 2017226573A JP 2017226573 A JP2017226573 A JP 2017226573A JP 2019096179 A JP2019096179 A JP 2019096179A
- Authority
- JP
- Japan
- Prior art keywords
- image
- behavior
- person
- neural network
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、施設内の部屋を監視カメラで撮像した画像からニューラルネットワークにより在室者の不審な行動を監視する行動監視システムに関する。 The present invention relates to a behavior monitoring system that monitors suspicious behavior of an occupant by using a neural network from an image obtained by capturing a room in a facility with a surveillance camera.
従来、オフィスビルなどの施設にあっては入退室管理設備が設置されており、部屋の出入口の扉外側に設置したカードリーダ等の読取端末で、利用者が保有するカードから読み取った利用者ID情報を予め登録した利用者識別情報(以下(利用者ID)という)との一致を判別した場合に入退室管理制御装置に認証信号を送り、入退室管理制御装置からの制御信号により扉の電気錠を解錠し、関係者以外の第三者が施設内に入らないように管理している(特許文献1)。 Conventionally, in facilities such as office buildings, entry and exit management facilities have been installed, and a reader terminal such as a card reader installed outside the door of a room entrance, a user ID read from a card held by the user When it is determined that the information matches the user identification information (hereinafter referred to as (user ID)), an authentication signal is sent to the room entry and exit management control device, and the control signal from the room entry and exit management control device The lock is unlocked and managed so that a third party other than the person concerned does not enter the facility (Patent Document 1).
また、施設内に入った利用者の行動を、人物動線追跡技術を利用して監視する監視カメラシステムも知られている。この監視カメラシステムは、監視領域内を移動する人物の行動を追跡する動線データを動線データベースに記憶し、監視領域内を移動する人物をカメラで撮影したカメラ画像データをカメラ画像データベースに記憶し、動線データベースに記憶された人物の動線データのなかから、特定の人物行動を表わす条件データに該当する人物行動が行われた区間を検出し、この検出された区間の当該人物を撮影したカメラ画像データを抽出して再生することにより、不正行為者の行動を確認できるようにしている(特許文献2)。 There is also known a surveillance camera system that monitors the behavior of a user who has entered the facility using human flow line tracking technology. The surveillance camera system stores flow line data for tracking the behavior of a person moving in the monitoring area in a flow line database, and stores camera image data obtained by photographing a person moving in the monitoring area with a camera image database From the flow line data of the person stored in the flow line database, a section in which the person action corresponding to the condition data representing the specific person action is performed is detected, and the person in the detected section is photographed By extracting and reproducing the captured camera image data, it is possible to confirm the behavior of the fraudster (Patent Document 2).
しかしながら、このような従来の入退室管理設備にあっては、利用者がカードを使用して電気錠を解錠して部屋に入る場合に別の人物が一緒に入る共連れの問題があり、登録されている利用者以外の第三者が共連れにより室内に入ってしまう場合があり、その行動を監視することが困難なため、機密漏洩の可能性がある。 However, in such a conventional entry and exit management facility, there is a problem of cohabitation that another person enters together when the user unlocks the electric lock using a card and enters the room. A third party other than the registered user may enter the room by sharing, and it is difficult to monitor the behavior, so there is a possibility of a security leak.
また、オフィスルーム等の多数の利用者が働く場所では、権限のある管理者や担当者がパーソナルコンピュータ等の情報端末機器を使用して例えば銀行決済取引をしたり、書棚に保管した機密情報を収めたファイルを使用した業務等を日常的に行っており、例えば権限のある管理者や担当者が会議等のために一時的に席を外していた場合、権限のない第三者により情報端末機器が不正に操作されたり、書棚に保管されている機密ファイルが不正に閲覧されたり持ち出されたりする可能性がある。 In addition, in places where many users work, such as office rooms, authorized administrators and persons in charge use information terminal devices such as personal computers to carry out, for example, bank settlement transactions, and confidential information stored in bookcases. The business using the stored file is performed on a daily basis, for example, when an authorized administrator or person in charge temporarily takes a seat for a meeting etc., the information terminal is operated by an unauthorized third party. There is a possibility that the device may be tampered with, or confidential files stored in the bookcase may be viewed or taken out illegally.
このような不正行為を防止するためには、例えば監視カメラにより撮像された監視領域の画像を監視することが考えられるが、人為的に画像を常に見ていなければならず、不正行為の発見は困難であり、不正な銀行取引や機密情報の漏洩等が後に発覚して初めて気づくといった問題がある。 In order to prevent such fraudulent activity, for example, it is conceivable to monitor the image of the surveillance area taken by the surveillance camera, but it is necessary to always look at the image artificially, and the discovery of fraudulent activity is It is difficult, and there is a problem that it will be noticed only when unlawful banking or leakage of confidential information is discovered later.
本発明は、多層式のニューラルネットワークに監視カメラで撮像された監視領域の画像を入力して不正行為による異常が発生していないかを監視可能とする行動者監視システムを提供することを目的とする。 An object of the present invention is to provide an actor monitoring system capable of monitoring an image of a monitoring area captured by a monitoring camera in a multi-layered neural network and monitoring whether an abnormality due to a fraud has occurred. Do.
(行動監視システム)
本発明は、行動監視システムに於いて、
監視対象とする監視領域を撮像する撮像部と、
監視領域内の人物を特定し、前記特定した人物の異常行動を判定して出力する行動判定部と、
が設けられ、
行動判定部は、監視領域内に通常存在する人物の許可行動を示す画像により学習された多層式のニューラルネットワークによって構成されたことを特徴とする。
(Action monitoring system)
The present invention relates to a behavior monitoring system
An imaging unit for imaging a monitoring area to be monitored;
An action determination unit that identifies a person in the monitoring area and determines and outputs an abnormal behavior of the identified person;
Is provided,
The action determination unit is characterized by being configured by a multi-layered neural network learned by an image showing permission actions of a person normally present in the monitoring area.
(人物特定部)
行動監視システムは、更に、行動判定部で異常行動が判定された人物を特定して人物特定情報を出力する人物特定部を備える。
(Person identification department)
The behavior monitoring system further includes a person specifying unit that specifies a person whose abnormal behavior has been determined by the behavior determining unit and outputs person specifying information.
(多層式ニューラルネットワークの機能構成1)
行動判定部の多層式のニューラルネットワークは、特徴抽出部と認識部で構成され、
特徴抽出部は、入力した人物の画像から人物に応じた特徴量を抽出して出力する畳み込みニューラルネットワークで構成され、
認識部は、畳み込みニューラルネットワークから出力される特徴量を入力して許可行動の人物か否かを推定する複数の全結合層を備えた全結合ニューラルネットワークで構成される。
(
The multi-layered neural network of the action determination unit is composed of a feature extraction unit and a recognition unit,
The feature extraction unit is configured of a convolutional neural network that extracts and outputs feature amounts according to the person from the input image of the person,
The recognition unit is configured by an all-connected neural network including a plurality of all connected layers that input a feature value output from the convolutional neural network and estimate whether or not the person is a permitted person.
(多層式ニューラルネットワーク機能構成1の学習制御)
行動判定部には、
監視領域内に通常存在する人物の許可行動を示す画像が予め記憶された学習情報記憶部と、
学習情報記憶部に記憶されている画像を読み出して教師ありの学習画像として畳み込みニューラルネットワークに入力した場合に全結合ニューラルネットワークから出力される推定値と所定の期待値との誤差に基づくバックプロパゲーションにより全結合ニューラルネットワーク及び畳み込みニューラルネットワークを学習させる学習制御部と、
が設けられる。
(Learning control of multilayer neural network functional configuration 1)
The behavior determination unit
A learning information storage unit in which an image indicating a permitted action of a person normally present in the monitoring area is stored in advance;
Back propagation based on an error between an estimated value output from all coupled neural networks and a predetermined expected value when an image stored in a learning information storage unit is read out and input to a convolutional neural network as a supervised learning image A learning control unit for learning all coupled neural networks and convolutional neural networks by
Is provided.
(多層式ニューラルネットワークの機能構成2)
行動判定部の多層式のニューラルネットワークは、画像解析部と行動認識部で構成され、
画像解析部は、
入力した人物の画像から人物に応じた特徴量を抽出して所定の中間層から出力する畳み込みニューラルネットワークと、
畳み込みニューラルネットワークから出力された特徴量を入力し、監視領域の画像の画像説明文を生成して出力する再帰型ニューラルネットワークと、
により構成され、
行動認識部は、
所定の異常行動を示す単語が登録された辞書と、
画像解析部から出力された画像説明文を構成する単語を、辞書に登録された単語と比較して人物の異常行動を判定する判定器と、
により構成される。
(Functional configuration 2 of multi-layered neural network)
The multi-layered neural network of the action determination unit includes an image analysis unit and an action recognition unit.
The image analysis unit
A convolutional neural network that extracts feature quantities according to a person from an image of the person that is input, and outputs the extracted feature amount from a predetermined intermediate layer;
A recursive neural network that receives feature quantities output from a convolutional neural network and generates and outputs an image description of an image of a monitoring region;
Configured by
The action recognition unit
A dictionary in which a word indicating a predetermined abnormal behavior is registered;
A determiner that determines an abnormal behavior of a person by comparing words that make up the image description output from the image analysis unit with the words registered in the dictionary;
It consists of
(人物特定による異常行動の判定)
画像解析部は、人物の画像から人物を特定して人物特定情報を出力し、
所定の異常行動を示す単語は監視領域内に通常存在する人物に応じて登録されており、
判定器は画像説明文を構成する単語と、人物特定情報の人物における異常行動を示す単語を比較して人物の異常行動を判定する。
(Determination of abnormal behavior by person identification)
The image analysis unit identifies a person from the image of the person and outputs person identification information;
A word indicating a predetermined abnormal behavior is registered according to a person usually present in the monitoring area,
The determiner compares the words forming the image description with the words indicating abnormal behavior in the person of the person specifying information to determine abnormal behavior of the person.
(多層式ニューラルネットワーク機能構成2の学習制御)
行動判定部には、
監視領域内に通常存在する人物の許可行動を示す画像と、画像の概要を示す所定の画像説明文とのペアが予め記憶された学習情報記憶部と、
学習情報記憶部に記憶されている画像を読出して教師なしの学習画像として畳み込みニューラルネットワークに入力してバックプロパゲーションにより学習させ、当該学習の済んだ畳み込みニューラルネットワークに学習画像を入力して出力された特徴量と学習画像のペアとなる画像説明文を再帰型ニューラルネットワークに教師なしの学習情報として入力してバックプロパゲーションにより学習させる学習制御部と、
が設けられる。
(Learning control of multilayer neural network functional configuration 2)
The behavior determination unit
A learning information storage unit in which a pair of an image indicating permission behavior of a person normally present in the monitoring area and a predetermined image explanatory text indicating an outline of the image is stored in advance;
The image stored in the learning information storage unit is read out and input to the convolutional neural network as an unsupervised learning image to be learned by back propagation, and the learning image is input and output to the learned convolutional neural network A learning control unit for inputting an image description sentence, which is a pair of the feature amount and the learning image, as unsupervised learning information into a recursive neural network and learning by back propagation;
Is provided.
(入退室管理設備との連携)
更に、
施設内の監視領域に入室する利用者を識別し、利用者識別情報が予め登録した利用者識別情報と一致した場合に出入口の扉に設けられた電気錠を解錠する制御を行う入退室管理設備と、
入退室管理設備で利用者を識別した際に入室する利用者を撮像する入室撮像部と、
が設けられ、
人物特定部は、入退室管理設備による電気錠を解錠する制御に連動して、入室撮像部により撮像された利用者画像を記憶し、利用者画像と行動判定部で異常行動が判定された人物の画像と照合して一致した利用者の利用者情報を人物特定情報として出力する。
(Cooperation with room entry and exit management equipment)
Furthermore,
An entry and exit management that performs control to identify a user who enters the monitoring area in the facility and unlocks the electric lock provided on the door of the entrance when the user identification information matches the user identification information registered in advance. Equipment,
An entry imaging unit for imaging a user who enters a room when the user is identified by the entry / exit management facility;
Is provided,
The person identification unit stores the user image captured by the entry imaging unit in conjunction with the control for unlocking the electric lock by the entry / exit management facility, and the user image and the action determination unit determine an abnormal action. User information of the matched user is collated with the image of the person and output as person identification information.
(異常行動の警報と録画)
更に、撮像部で撮像された監視領域の動画を録画する録画装置が設けられ、
行動判定部は、人物の異常行動を判定した場合に、所定の外部装置に異常警報信号を送信して報知させると共に、異常行動を判定した時点を含む前後所定時間の撮像部で撮像された監視領域の動画を録画装置から再生して表示させる。
(Warning and recording of abnormal behavior)
Furthermore, a recording device for recording a moving image of the monitoring area imaged by the imaging unit is provided.
When the behavior determination unit determines an abnormal behavior of a person, it transmits an alarm signal to a predetermined external device for notification and also monitors the image captured by the imaging unit for a predetermined time before and after the time when the abnormal behavior is determined. The video of the area is reproduced from the recording device and displayed.
(マルチ監視)
行動判定部は、撮像部により撮像された監視領域の画像の中に監視対象とする備品が配置された1又は複数の監視区画を設定し、監視区画の画像を切り出して行動判定部に入力することにより監視区画毎に人物の異常行動を判定して出力する。
(Multi-monitoring)
The action determination unit sets one or more monitoring sections in which the equipment to be monitored is arranged in the image of the monitoring area captured by the imaging unit, cuts out the image of the monitoring section, and inputs the image to the action determination section Thus, the abnormal behavior of the person is determined and output for each monitoring section.
(周期的な行動監視)
行動判定部は、所定の周期毎に、監視区画の画像を入力して人物の異常行動を判定して出力する。
(Periodical activity monitoring)
The action determination unit inputs an image of the monitoring section every predetermined period, determines and outputs an abnormal action of the person.
(利用者学習画像のサイズ正規化)
行動判定部は、監視区画の画像を所定サイズの画像に正規化して入力する。
(User training image size normalization)
The behavior determination unit normalizes and inputs an image of the monitoring section into an image of a predetermined size.
(基本的な効果)
本発明は、行動監視システムに於いて、監視対象とする監視領域を撮像する撮像部と、監視領域内の人物を特定し、前記特定した人物の異常行動を判定して出力する行動判定部と、行動判定部で異常行動が判定された人物を特定して人物特定情報を出力する人物特定部とが設けられ、行動判定部は、監視領域内に通常存在する人物の許可行動を示す画像により学習された多層式のニューラルネットワークによって構成されたため、多階層のニューラルネットワークの出力により、学習済みの備品を扱う許可された利用者の画像と一部の特徴は一致するが一部の特徴が一致しない場合や、全ての特徴が一致しない場合、許可された利用者による備品の扱いではないことを示す異常行動が判定され、第三者の不正行為による異常行動を監視することができる。
(Basic effect)
The present invention relates to an action monitoring unit for capturing an image of a monitoring area to be monitored, an action determining unit for identifying a person in the monitoring area, and determining and outputting an abnormal action of the specified person, in the action monitoring system. And a person specifying unit that specifies a person whose abnormal behavior has been determined by the behavior determining unit and outputs the person specifying information, and the behavior determining unit is an image showing permission behavior of the person normally present in the monitoring area. Since it is composed of learned multi-layered neural network, the output of multi-layered neural network matches the image of the authorized user handling the learned equipment with some features but matches some features If not, or if all features do not match, anomalous behavior indicating that the equipment is not handled by an authorized user is determined, and the anomalous behavior caused by a third party's fraudulent activity is monitored. Can.
(人物特定部の効果)
また、行動監視システムは、更に、行動判定部で異常行動が判定された人物を特定して人物特定情報を出力する人物特定部を備えたため、異常行動が判定された人物がだれであるかが特定でき、異常行動が判定された人物に対し迅速且つ適切な対応が可能となる。
(Effect of person identification department)
In addition, since the behavior monitoring system further includes a person specifying unit that specifies a person whose abnormal behavior has been determined by the behavior determination unit and outputs person specifying information, the person whose abnormal behavior is determined is who A person who can be identified and whose abnormal behavior has been determined can be promptly and appropriately dealt with.
(多層式ニューラルネットワークの機能構成1による効果)
また、行動判定部の多層式のニューラルネットワークは、特徴抽出部と認識部で構成され、特徴抽出部は、入力した人物の画像から人物に応じた特徴量を抽出して出力する畳み込みニューラルネットワークで構成され、認識部は、畳み込みニューラルネットワークから出力される特徴量を入力して許可行動の人物か否かを推定する複数の全結合層を備えた全結合ニューラルネットワークで構成されたため、畳み込みニューラルネットワークにより備品を扱っている利用者画像の特徴が自動的に抽出されることで、利用者画像となる入力情報から前処理により人物の特徴、例えば、顔における目、口、耳等の稜線等を抽出するような前処理を必要とすることなく備品を扱う利用者画像の特徴が抽出され、引き続いて行う認識部により学習済みの許可行動の人物とは異なる第三者が備品を扱っている異常行動を高い精度で推定可能とする。
(Effect by
The multi-layered neural network of the action determination unit is composed of a feature extraction unit and a recognition unit, and the feature extraction unit is a convolutional neural network that extracts and outputs feature quantities according to the person from the input image of the person. A convolutional neural network is configured, and the recognition unit is composed of an all-combined neural network including a plurality of all coupled layers that input a feature value output from the convolutional neural network to estimate whether or not the person is a permitted person. The feature of the user image handling the equipment is automatically extracted, and the feature of the person is extracted from the input information that becomes the user image by the pre-processing, for example, ridgelines of eyes, mouth, ears, etc. in the face. The features of the user image for handling the equipment are extracted without the need for preprocessing to be extracted, and learning has been performed by the recognition unit to be performed subsequently The variable behavior of the person and can be estimated with a high degree of accuracy the abnormal behavior of different third party is handling the equipment.
(多層式ニューラルネットワーク機能構成1の学習制御による効果)
また、行動判定部には、監視領域内に通常存在する人物の許可行動を示す画像が予め記憶された学習情報記憶部と、学習情報記憶部に記憶されている画像を読み出して教師ありの学習画像として畳み込みニューラルネットワークに入力した場合に全結合ニューラルネットワークから出力される推定値と所定の期待値との誤差に基づくバックプロパゲーションにより全結合ニューラルネットワーク及び畳み込みニューラルネットワークを学習させる学習制御部とが設けられたため、例えばシステムの運用を開始する前の段階で、オフィスルームの勤務時間帯を対象に、監視カメラにより撮像した監視画像の中から監視対象として設定した1又は複数の監視区画の画像を例えば1分周期で切出して学習画像として記憶し、これを1ケ月程度繰り返すことで多層式ニューラルネットワークの学習に必要な十分の量の学習画像が得られ、監視区画の画像を多層式のニューラルネットワークに入力して学習させることで、システムの運用を開始した場合に、学習済みの多層式のニューラルネットワークによる監視区画における第三者の異常行動を精度良く判定することができる。
(Effect of learning control of multi-layered neural network functional configuration 1)
Also, the behavior determination unit reads out a learning information storage unit in which an image indicating a permitted action of a person normally present in the monitoring area is stored in advance, and an image stored in the learning information storage unit to perform supervised learning. A learning control unit for learning all coupled neural networks and convolutional neural networks by back propagation based on an error between an estimated value output from all coupled neural networks and a predetermined expected value when input to a convolutional neural network as an image; Since it is provided, for example, at the stage before starting the operation of the system, the image of one or more monitoring sections set as the monitoring target out of the monitoring images captured by the monitoring camera for the working hours of the office room For example, it is cut out in a one-minute cycle and stored as a learning image, and this is repeated for about one month As a result, a sufficient amount of learning images necessary for learning in the multi-layered neural network can be obtained, and the image of the monitoring section is input to the multi-layered neural network for learning, and the system operation is started. It is possible to accurately determine the abnormal behavior of the third party in the monitoring section by the already-described multi-layered neural network.
(多層式ニューラルネットワークの機能構成2による効果)
また、行動判定部の多層式のニューラルネットワークは、画像解析部と行動認識部で構成され、画像解析部は、入力した人物の画像から人物に応じた特徴量を抽出して所定の中間層から出力する畳み込みニューラルネットワークと、畳み込みニューラルネットワークから出力された特徴量を入力し、監視領域の画像の画像説明文を生成して出力する再帰型ニューラルネットワークとにより構成され、行動認識部は、所定の異常行動を示す単語が登録された辞書と、画像解析部から出力された画像説明文を構成する単語を、辞書に登録された単語と比較して人物の異常行動を判定する判定器と、
により構成されたため、監視カメラにより撮像された監視領域、例えば1又は複数の監視区画の画像を解析することで、監視区画に存在する備品と備品を扱う利用者の特徴が抽出されて画像説明文が生成され、生成された画像説明文から抽出された単語を辞書の第三者の異常行動を示す所定の単語と比較して一致又は類似した場合に監視区画における第三者の異常行動と判定して報知することができる。
(Effect of functional configuration 2 of multilayer neural network)
In addition, the multi-layered neural network of the action determination unit is composed of an image analysis unit and an action recognition unit, and the image analysis unit extracts feature quantities according to the person from the input person's image and extracts from a predetermined intermediate layer The action recognition unit comprises a convolutional neural network to output and a recursive neural network to which feature amounts output from the convolutional neural network are input to generate and output an image description of the image of the monitoring area, and the action recognition unit A dictionary in which a word indicating an abnormal action is registered, and a determiner that determines an abnormal action of a person by comparing a word forming an image explanatory sentence output from the image analysis unit with a word registered in the dictionary;
Therefore, by analyzing the images of the monitoring area, for example, one or more monitoring sections captured by the monitoring camera, the features of the user who handles the fixtures and the items present in the monitoring section are extracted, and the image explanatory text The third party's abnormal behavior and judgment in the monitoring section when a word is generated and the word extracted from the generated image description matches or is compared with a predetermined word indicating an abnormal behavior of the third party of the dictionary Can be notified.
(人物特定による異常行動の判定による効果)
また、画像解析部は、人物の画像から人物を特定して人物特定情報を出力し、所定の異常行動を示す単語は監視領域内に通常存在する人物に応じて登録されており、判定器は画像説明文を構成する単語と、人物特定情報の人物における異常行動を示す単語を比較して人物の異常行動を判定するようにしたため、特定された人物に許可されている行動か否か監視可能となり、許可された以外の行動、例えば、使用権限のないPCの操作や持ち出し禁止のファイルの持ち出し等の異常行動を判定して警報することができる。
(Effects from the determination of abnormal behavior by person identification)
Further, the image analysis unit identifies a person from the image of the person and outputs person specifying information, and a word indicating a predetermined abnormal action is registered according to the person normally present in the monitoring area, and the determination unit Since the abnormal behavior of the person is determined by comparing the words constituting the image description and the word indicating the abnormal behavior in the person of the person specifying information, it is possible to monitor whether or not the behavior permitted by the specified person Thus, it is possible to determine and issue an action other than the permitted action, for example, an abnormal action such as an operation of a PC without use authority or a carry-out prohibition file.
(多層式ニューラルネットワーク機能構成2の学習制御による効果)
また、行動判定部には、監視領域内に通常存在する人物の許可行動を示す画像と、画像の概要を示す所定の画像説明文とのペアが予め記憶された学習情報記憶部と、学習情報記憶部に記憶されている画像を読出して教師なしの学習画像として畳み込みニューラルネットワークに入力してバックプロパゲーションにより学習させ、当該学習の済んだ畳み込みニューラルネットワークに学習画像を入力して出力された特徴量と学習画像のペアとなる画像説明文を再帰型ニューラルネットワークに教師なしの学習情報として入力してバックプロパゲーションにより学習させる学習制御部とが設けられたため、多層式ニューラルネットワークの機能構成1の学習制御1の効果と同様、システム運用開始前の学習画像とその画像説明文の記憶及びシステム運用中の学習画像とその説明文の記憶による学習情報を使用した多層式ニューラルネットワークの学習により、第三者の異常行動と精度良く判定して報知することができる。
(Effect of learning control of multilayer neural network functional configuration 2)
Further, the action determination unit includes a learning information storage unit in which a pair of an image indicating permitted behavior of a person normally present in the monitoring area and a predetermined image explanatory sentence indicating an outline of the image is stored in advance; The features stored in the storage unit are read out and input to the convolutional neural network as unsupervised learning images and learned by back propagation, and the learning images are input and output in the learned convolutional neural network A learning control unit for inputting an image description sentence as a pair of a quantity and a learning image into the recursive neural network as unsupervised learning information and learning by back propagation is provided. Therefore, the
(入退室管理設備との連携による効果)
更に、施設内の監視領域に入室する利用者を識別し、利用者識別情報が予め登録した利用者識別情報と一致した場合に出入口の扉に設けられた電気錠を解錠する制御を行う入退室管理設備と、入退室管理設備で利用者を識別した際に入室する利用者を撮像する入室撮像部とが設けられ、人物特定部は、入退室管理設備による電気錠を解錠する制御に連動して、入室撮像部により撮像された利用者画像を記憶し、利用者画像と行動判定部で異常行動が判定された人物の画像と照合して一致した利用者の利用者情報を人物特定情報として出力するようにしたため、異常行動が判定された人物が、入退室管理設備によりICカード等の読取りによる電気錠の解錠で入室して入室撮像部により撮像されている利用者であることが特定されて、その人物の入退室管理情報が異常行動が判定された人物の人物特定情報となることで、異常行動が判定された人物が社員のだれであるか又は来訪者のだれであるかが特定でき、異常行動が判定された人物に対し迅速且つ適切な対応が可能となる。
(Effect by cooperation with room entry and exit management equipment)
Furthermore, a user who enters the monitoring area in the facility is identified, and when the user identification information matches the pre-registered user identification information, control is performed to unlock the electric lock provided on the door of the entrance. An exit management facility and an entry imaging unit for imaging a user who enters the room when the user is identified by the entry / exit administration facility are provided, and the person specifying unit performs control to unlock the electric lock by the entry / exit administration facility In conjunction, the user image captured by the room entry imaging unit is stored, and the user image is collated with the user image and the image of the person whose abnormal behavior has been determined by the behavior determination unit, and the user information of the matched user is identified Since the information is output as information, the person whose abnormal behavior has been determined is a user who has entered the room by unlocking the electric lock by reading an IC card or the like by the room access control facility and is imaged by the room entry imaging unit Is identified, that person Since the entry / exit management information is the person identification information of the person whose abnormal behavior has been determined, it is possible to identify who the employee for whom the person whose abnormal behavior has been determined is or who is the visitor. It is possible to respond promptly and appropriately to the determined person.
また、入退室管理設備による在室管理情報から監視領域となる部屋に利用者の入室がないことを検出して夜間や休日には行動判定部の判定動作を休止させることができ、この休止の時間帯を利用して行動判定部の多層式ニューラルネットワークの学習ができる。 In addition, it is possible to detect that the user does not enter the room to be the monitoring area from the occupancy management information by the entry / exit management facility, and to suspend the determination operation of the behavior determination unit at night or on holidays. The time zone can be used to learn the multi-layered neural network of the action determination unit.
また、入退室管理設備の管理情報から、行動監視を行う監視区画の利用者の在室が検出でき、利用者端末のLAN回線に対するネットワーク接続等から利用者端末の使用開始を検出した場合に、所定時間のあいだ監視区域の学習画像の記憶を行って休止時間に行動判定部の多層式ニューラルネットワークの学習ができる。 In addition, when the presence of the user of the monitoring section performing the activity monitoring can be detected from the management information of the entry / exit management facility and the use start of the user terminal is detected from the network connection to the LAN line of the user terminal, etc. The learning image of the monitored area is stored for a predetermined time, and learning of the multi-layered neural network of the behavior determination unit can be performed at the pause time.
(異常行動警報と録画再生による効果)
更に、撮像部で撮像された監視領域の動画を録画する録画装置が設けられ、行動判定部は、人物の異常行動を判定した場合に、所定の外部装置に警報信号を送信して報知させると共に、異常行動を判定した時点を含む前後所定時間の撮像部で撮像された監視領域の動画を録画装置から再生して表示させるようにしたため、第三者の異常行動を判定した場合に、例えば所定の管理装置や監視対象としている備品の扱いが許可された利用者の端末に警報信号を送って警報表示させる人物の異常行動を知しらせ、その根拠となった動画再生により状況を確認して必要な対処を可能とする。
(Abnormal behavior warning and the effect of recording and playback)
Furthermore, a recording device for recording a moving image of the monitoring area imaged by the imaging unit is provided, and the behavior determination unit transmits an alarm signal to a predetermined external device for notification when it determines an abnormal behavior of a person. In the case where the abnormal behavior of the third party is determined, for example, since the moving image of the monitoring area captured by the imaging unit before and after the predetermined time including the time point of determining the abnormal behavior is reproduced from the recording device Send an alarm signal to the terminal of the user who is permitted to handle the equipment to be monitored and the equipment to be monitored to notify the abnormal behavior of the person who is to display the alarm, and confirm the situation by the video reproduction that became the basis Make it possible to
(マルチ監視による効果)
また、行動判定部は、撮像部により撮像された監視領域の画像の中に監視対象とする備品が配置された1又は複数の監視区画を設定し、監視区画の画像を切り出して多階層のニューラルネットワークに入力することにより監視区画毎に人物の異常行動を判定して出力するようにしたため、例えばオフィスルーム等のように多数の利用者が情報端末機器やファイルを使用して業務を遂行している場合、監視カメラで撮像している監視画面に映っている利用者の席及びに備品が映っている場所に例えば矩形の監視区画を必要に応じて複数設定することで、監視区域毎に人物の異常行動をマルチ的に監視することができる。
(Effect by multi-monitoring)
In addition, the behavior determination unit sets one or a plurality of monitoring sections in which the equipment to be monitored is disposed in the image of the monitoring area captured by the imaging unit, extracts the image of the monitoring sections, and performs multi-layered neural network Since the abnormal behavior of the person is determined and output for each monitoring section by inputting to the network, a large number of users perform work using information terminal devices and files, for example, as in an office room. If the user has a seat on the surveillance screen captured by the surveillance camera, the user may set multiple rectangular surveillance zones, for example, in places where equipment is shown on the surveillance screen, as needed. Abnormal behavior can be monitored in multiple ways.
(周期的な行動監視による効果)
また、行動判定部は、所定の周期毎に、監視区画の画像を多層式のニューラルネットワークに入力して人物の異常行動を判定して出力するようにしたため、監視カメラにより撮像された動画の中から行動監視を見逃すことのない例えば1〜2分といった所定周期毎にフレーム画像を読み込んで多層式ニューラルネットワークに入力することにより、多層式ニューラルネットワークの処理負担を軽減した行動監視を可能とする。
(Effect of periodical action monitoring)
In addition, since the action determination unit inputs the image of the monitoring section to the multi-layered neural network at a predetermined cycle to determine and output the abnormal action of the person, the moving image captured by the monitoring camera is output. Since the frame image is read every predetermined period such as 1 to 2 minutes without missing the action monitoring, the action monitoring with reduced processing load of the multilayer neural network is made possible by inputting to the multilayer neural network.
(利用者学習画像のサイズ正規化による効果)
また、行動判定部は、監視区画の画像を所定サイズの画像に正規化して多層式のニューラルネットワークに入力するようにしたため、監視カメラから監視区画までの距離により監視区画の画像サイズが異なるが、切出した監視区画の画像が同じ縦横サイズに正規化されることで、多層式のニューラルネットワークに入力した場合の判定精度を高めることができる。
(Effect of size normalization of user learning image)
Also, since the behavior determination unit normalizes the image of the monitoring section into an image of a predetermined size and inputs it to the multi-layered neural network, the image size of the monitoring section varies depending on the distance from the monitoring camera to the monitoring section. By normalizing the extracted images of the monitoring section to the same vertical and horizontal sizes, it is possible to improve the determination accuracy in the case of being input to the multilayer neural network.
[行動監視システム]
(システムの概要)
図1は行動監視システムの概略を入退室管理設備と共に示した説明図である。図1に示すように、ビル等の施設のオフィスルーム12には撮像部として機能する監視カメラ14が設置され、複数の利用者が在室しているオフィスルーム12内を監視カメラ14により動画撮像している。
Behavior monitoring system
(System overview)
FIG. 1 is an explanatory view showing an outline of a behavior monitoring system together with a room entry and exit management facility. As shown in FIG. 1, a
監視カメラ14はRGBのカラー画像を例えば30フレーム/秒で撮像して動画として出力する。また、1フレームは例えば縦横4056×4056ピクセルの画素配置となる。
The
オフィスルーム12に対し施設の管理センター等には行動監視装置10が設置されている。行動監視装置10には行動判定部16、人物特定部17、学習制御部18及び録画装置20が設けられ、オフィスルーム12に設置された監視カメラ14からの信号線がそれぞれに並列に入力されている。
An
行動判定部16は多層式のニューラルネットワークを備えており、多層式のニューラルネットワークは監視領域となるオフィ―スルーム12の画像内に設定された1又は複数の監視区画に存在する利用者端末等の情報端末機器や書棚等の備品の画像及び監視対象とする備品の使用が許可された利用者(以下「備品使用権限をもつ利用者」という)が備品を扱う画像により予め学習されている。
The
システム運用中に、行動判定部16は、例えばオフィスルーム12に利用者の在室がある場合に行動判定動作を行っており、監視カメラ14により撮像された監視領域の画像を多層式のニューラルネットワークに入力して備品使用権限をもつ利用者以外の第三者(人物)の異常行動、即ち監視領域内に通常存在する人物の許可された行動か否かを判定し、備品使用権限をもつ利用者の利用者端末を含む所定の管理装置に警報信号を送信して報知させると共に、録画装置20で録画している異常行動を判定した時点を含む前後所定時間の監視領域の動画を保存して再生可能としている。
During system operation, the
人物特定部17は、行動判定部16で異常行動が判定された人物を特定して人物特定情報を出力する。例えば人物特定部17は、後の説明で明らかにする入退室管理設備による電気錠28を解錠する制御に連動して、入室カメラ25により撮像された利用者画像を記憶し、利用者画像と行動判定部16で異常行動が判定された人物の画像と照合し、一致した利用者の利用者情報を人物特定情報として出力する。
The
学習制御部18は、システムの運用開始前に、例えばオフィスルーム12の勤務時間帯に監視カメラ14により撮像された監視領域の画像の中から監視対象として設定した1又は複数の監視区画の画像を例えば1分周期で切出して学習画像として記憶し、これを例えば1ケ月程度繰り返すことで多層式ニューラルネットワークの学習に必要な十分の量の学習画像を収集し、監視区画の画像を多層式のニューラルネットワークに入力してディープラーニングにより学習させることで、システムの運用を開始した場合に、学習済みの多層式のニューラルネットワークにより監視区画における第三者の異常行動を精度良く判定することを可能とする。
The
また、システムの運用中に学習制御部18は、例えば備品使用権限をもつ利用者が始業時に利用者端末の使用を開始した場合に、所定時間の間、システムの運用開始前と同様に、監視区域の学習画像の記憶を行い、オフィスルーム12に利用者が在室していないことで行動判定部16の行動判定動作が休止している夜間や休日等の空き時間に、記憶している学習画像を行動判定部16の多層式ニューラルネットワークに入力して学習することで、監視対象とする備品使用権限をもつ利用者の服装や髪形等に変化があっても、この変化が行動判定部16の多層式ニューラルネットワークに反映され、監視区画における第三者の異常行動を精度良く判定することを可能としている。
In addition, during operation of the system, for example, when a user having authority to use equipment starts using the user terminal at the start of work, the
(入退室管理システムの概要)
本実施形態の行動監視システムが設置された施設には、入退室管理設備が併せて設けられている。入退室管理設備として、図1に示すように、在室者の監視対象となるオフィスルーム12の出入口には扉30が設けられており、扉30には電気錠28が設けられ、また扉30の近傍にはカードリーダ26が配置されている。
(Overview of entry and exit management system)
A facility in which the behavior monitoring system of the present embodiment is installed is provided with a room entry and exit management facility. As shown in FIG. 1, a door 30 is provided at the entrance of the
カードリーダ26及び電気錠28は入退室管理制御装置22に伝送線により接続されている。入退室管理制御装置22は例えば建物の各階毎に配置されている。施設の管理センター等には、センター装置23とクライアント装置24が配置され、LAN回線21により相互に接続されると共に各階の入退室管理制御装置22と接続されている。
The
また、オフィスルーム12の出入口には入室撮像部として機能する入室カメラ25が設置され、電気錠28を解錠する制御に連動して入室する利用者を撮像し、撮像した利用者画像を入出力管理制御装置22を介してクライアント装置24に送信し、利用者管理情報に対応して利用者画像を記憶し、例えば行動監視装置10に設けられた人物特定部17に利用者画像を送り、行動判定部16で異常行動が判定された人物の画像と照合し、一致した利用者の利用者情報を人物特定情報として出力させるようにしている。
In addition, an entrance camera 25 functioning as an entrance imaging unit is installed at the entrance of the
入退室管理設備の管理制御は次のようになる。カードリーダ26は、例えば利用者の携帯する磁気カード又は非接触ICカードから利用者ID等の個人情報を読取って事前登録した個人情報と照合し、照合一致により認証成功を判別した場合に認証信号を入退室管理制御装置22へ送信する。
Management control of entry and exit management equipment is as follows. The
入退室管理制御装置22はカードリーダ26から認証信号を受信した場合、対応する出入口に設けた扉30の電気錠28へ制御信号を出力して解錠制御し、入室を可能とする。なお、部屋から出る場合にはカードリーダ26による認証は必要とせず、扉30の内側に設けられたスイッチ釦の操作等により電気錠28を解錠して退出することができる。
When the entry / exit management control device 22 receives an authentication signal from the
センター装置23は、ディスプレイ付きのパーソナルコンピュータであり、入退室管理設備を設置した建物の地図などの管理情報を表示する。クライアント装置24はディスプレイ付きのパーソナルコンピュータであり、LAN回線21を介して入退室管理制御装置22と接続され、入退室管理制御装置22を経由してカードリーダ26との間で磁気カードや非接触ICカードに対応した個人情報の登録、削除、履歴検索などの各種設定や処理を行い、また、カードリーダ26からのカード読取信号に基づく認証処理毎にオフィスルーム12の在室者をカウントし、在室している利用者数及び在室している利用者名(利用者ID)を管理している。
The center device 23 is a personal computer with a display, and displays management information such as a map of a building in which the room access management facility is installed. The client device 24 is a personal computer with a display, and is connected to the room entry and exit management controller 22 via the
行動監視装置10に設けられた行動判定部16はLAN回線21に接続され、本実施形態にあっては、入退室管理設備のクライアント装置24を行動監視システムの管理装置として利用していることから、行動判定部16で監視区画の画像から備品使用権限をもつ利用者以外の第三者の異常行動が判定された場合、LAN回線21を介してクライアント装置24に警報信号を送信して第三者の異常行動を示す警報を報知させると共に、録画装置20で録画している異常行動を判定した時点を含む前後所定時間の監視領域の動画を再生可能としている。
Since the
また、LAN回線21にはオフィスルーム12に設置されている行動監視の対象となる利用者端末32が接続されており、利用者端末32はディスプレイ付きのパーソナルコンピュータを用いている。なお、利用者端末32はオフィスルーム12内に配置されているものであるが、LAN回線21との接続を示すため、オフィスルーム12から取り出した状態で示している。
Further, a
また、行動判定部16は、入退室管理設備のクライアント装置24で管理しているオフィスルーム12の在室管理情報を利用して行動判定動作の休止と起動(休止解除)を制御している。
In addition, the
即ち、行動判定部16は、クライアント装置24の在室管理情報から、監視対象とするオフィスルーム12における夜間や休日等での利用者の在室なしを検出した場合に行動判定動作を休止し、この休止中に利用者の在室ありを検出した場合に、休止を解除して行動判定動作を起動する。
That is, the
このようにシステムの運用中に行動判定部16で行動判定動作が休止されると、学習制御部18は休止による空き時間を利用して、システムの運用開始前と同様に、システム運用中に記憶した監視区域の学習画像により行動判定部16の多層式ニューラルネットワークを学習する制御を行う。
As described above, when the behavior determination operation is suspended by the
(オフィスルーム監視の概要)
図2は監視対象となるオフィスレイアウトの一例を示した説明図、図3は監視画像に対する監視区画の設定を示した説明図である。
(Overview of office room monitoring)
FIG. 2 is an explanatory view showing an example of an office layout to be monitored, and FIG. 3 is an explanatory view showing setting of a monitoring section for a monitoring image.
図2に示すように、行動監視システムの監視対象となるオフィスルーム12は、その内部に複数の机と椅子が配置され、机の上にはパーソナルコンピュータ等の備品が置かれている。オフィスルーム12の机配置は、例えば課や係単位に、図示で上下方向に2列に机が配置され、図示で上側には、管理職の席が配置されている。
As shown in FIG. 2, in the
監視カメラ14はオフィスルーム12の図示で左下のコーナーの天井に近い位置に、室内全体を俯瞰するように配置され、部屋全体を監視画像に映し込めるようにしている。なお、1台に監視カメラ14で部屋全体を撮像できない場合は、必要に応じて複数台の監視カメラ14を設置してもよい。また、監視カメラ14として180°又は360°の撮像範囲を持つ広角の監視カメラ14を設置しても良い。
The
また、オフィスルーム12の出入口に設けられた扉30の外側にはカードリーダ26が配置され、入室の際に利用者はカードリーダ26にカードを読み取らせて電気錠を解錠させる。
In addition, a
オフィスルーム12に対しては、行動監視システムで監視対象とする矩形の点線で示す監視区画34−1〜34−8が設定される。例えば監視区画34−1は管理職となるA部長の席に設定され、監視区画34−1の机には利用者端末32−1があり、利用者端末32−1は部長Aが使用権限をもっている。このため監視領域34−1は利用者端末32−1の備品使用権限をもつA部長以外の第三者による行動を監視することになる。
For the
また、監視領域34−2は書棚35−2に設定され、書棚35−2にはA部長が使用権限を持つ機密書類のファイルが格納されている。このため監視領域34−2は書棚35−2の備品使用権限をもつA部長以外の第三者によるファイル持ち出し等の行動を監視することになる。 Also, the monitoring area 34-2 is set to the bookshelf 35-2, and the bookshelf 35-2 stores files of confidential documents for which the manager of the department A is authorized to use. Therefore, the monitoring area 34-2 monitors an action such as taking out a file by a third party other than the manager A who has the authority to use the equipment of the bookshelf 35-2.
このようなオフィスルーム12に対する監視区画の設定は、図3に示すように、監視カメラ14で撮像された監視領域の監視画像36を利用して行われる。なお、図3の監視画像36は一例であり、図2のオフィスルーム12には対応していない。
Such setting of the monitoring section for the
図3に示すように、行動監視制御の管理装置として機能する図1の入退室管理設備のクライアント装置24に監視画像36を表示させ、この状態で例えば点線の矩形で示す監視区画34−10〜34−12を画面内に設定する。
As shown in FIG. 3, the
例えば監視区画34−10は部長Xの席に設定され、監視区画34−10の机には利用者端末32−10があり、利用者端末32−10は部長Xが使用権限をもっている。このため監視領域34−10は利用者端末32−10の備品使用権限をもつX部長以外の第三者による行動を監視することになる。 For example, the monitoring section 34-10 is set at the seat of the director X, the desk of the monitoring section 34-10 has the user terminal 32-10, and the user terminal 32-10 has the authority of using the director X. For this reason, the monitoring area 34-10 monitors the action by a third party other than the director of department X who has the right to use the equipment of the user terminal 32-10.
また、監視区画34−11は機密情報を扱う社員Yの席に設定され、監視区画34−11の机には利用者端末32−11があり、利用者端末32−11は社員Yが使用権限をもっている。このため監視領域34−11は利用者端末32−11の備品使用権限をもつ社員Y以外の第三者による行動を監視することになる。 Further, the monitoring section 34-11 is set to the seat of the employee Y handling confidential information, the desk of the monitoring section 34-11 has the user terminal 32-11, and the user terminal 32-11 has the use authority of the employee Y. Have Therefore, the monitoring area 34-11 monitors behavior by a third party other than the employee Y who has the authority to use the equipment of the user terminal 32-11.
このように監視画面36により設定された監視区画34−10〜34−12に対しては、行動監視制御以外に、図1に示した学習制御部18により監視区画の画像を切り出して学習画像として記憶し、記憶した学習画像による行動判定部16の多層式ニューラルネットワークを学習させる学習制御が行われる。
For the monitoring sections 34-10 to 34-12 set by the
[行動判定装置の第1実施形態]
図4は、図1の行動監視装置の第1実施形態を機能構成により示したブロック図である。
First Embodiment of Behavior Determination Device
FIG. 4 is a block diagram showing the first embodiment of the behavior monitoring device of FIG. 1 by a functional configuration.
図4に示すように、行動判定部16は、画像切出部44、多層式ニューラルネットワーク46及び時系列判定部48で構成され、また学習制御器18は、画像切出部50、制御部52、学習情報記憶部として機能する学習画像記憶部54、マウスやキーボード等の操作部55及びディスプレイを備えた表示部56で構成され、これらの機能は、ニューラルネットワークの処理に対応したコンピュータ回路のCPUによるプログラムの実行により実現される。
As shown in FIG. 4, the
(行動判定部の機能)
行動判定部16の多層式ニューラルネットワーク46は、学習制御部18による監視区画に設定された備品の画像及び備品使用権限をもつ利用者が備品を扱う画像により学習されている。
(Function of behavior judgment unit)
The multi-layered
行動判定部16は、クライアント装置24で管理されているオフィスルーム12の在室管理情報から在室ありを検出した場合に行動判定動作を開始し、監視カメラ14により撮像されたオフィスルーム12の監視画像を例えば1分程度に定めた行動監視に必要な所定の周期毎に画像切出部44に保持させ、保持された監視画像の中に映っている1又は複数の監視区画の画像を切出して多層式ニューラルネットワーク46に入力し、備品使用権限をもつ利用者の行動を示す推定値を出力させる。
The
例えば図3の監視画像36を例にとると、行動判定部16は、監視画像36を画像切出部44に保持させた状態で、監視画像36に設定されている監視区画34−10〜34−12の画像を切出して多層式ニューラルネットワーク46に順次入力し、例えば監視区画34−10の切出し画像であれば、利用者端末32−10の備品使用権限をもつ部長Xの行動を示す推定値を出力させる。
For example, taking the
また、監視区画34−10の切出し画像に部長Xが映っておらず、利用者端末32−10のみの場合、この切出し画像を入力した多層式ニューラルネットワーク46は、利用者端末32−10の存在を示す推定値を出力させる。
Further, in the case of only the user terminal 32-10, the section image X of the monitoring section 34-10 does not appear, and in the case of only the user terminal 32-10, the multilayer
監視区画の切出し画像を入力した場合に多層式ニューラルネットワーク46が出力する備品使用権限をもつ利用者の行動を示す推定値は0〜1の値を持ち、備品使用権限をもつ利用者の画像であれば推定値は1又は1に近い値となり、第三者の画像であれば推定値は0又は0に近い値となる。
The estimated value indicating the behavior of the user who has the right to use the equipment output by the multi-layered
このため多層式ニューラルネットワーク46は判定閾値を例えば0.5に設定しており、推定値が判定閾値0.5以下の場合は、第三者による異常行動と判定して時系列判定部48に出力する。
For this reason, the multi-layered
時系列判定部48は、多層式ニューラルネットワーク46による異常行動の判定結果が複数回又は所定時間に亘り連続した場合に、第三者による異常行動との判定を確定させ、人物特定部17に出力する。
When the determination result of the abnormal behavior by the multilayer
人物特定部17には、図1に示した入退室管理設備による電気錠28を解錠する制御に連動して入室カメラ25により撮像された利用者画像が記憶されており、記憶している利用者画像と行動判定部16で異常行動が判定された人物の画像と照合し、一致した利用者の利用者情報を入退室管理設備のクライアント装置24から取得して人物特定情報とし、異常行動が判定された人物の画像、人物特定情報を含む警報信号を例えば入退室管理設備のクライアント装置24に送信して警報信号を送信して第三者の異常行動を警報により報知させると共に、録画装置20で録画している異常行動を判定した時点を含む前後所定時間の監視領域の動画を再生可能としている。
The
また、人物特定部17からの警報信号は、異常行動が判定された監視区画の利用者端末32にも送信され、席を外していた利用者が戻ってきて利用者端末32を操作した場合に、第三者の異常行動の警報を報知させると共に、録画装置20で録画している異常行動を判定した時点を含む前後所定時間の監視領域の動画を再生可能とし、判定された第三者の異常行動を確認して必要な対処を可能とする。
Further, the alarm signal from the
また、行動判定部16の多層式ニューラルネットワーク46は、入力された監視区画の画像に備品のみが映っており、備品使用権限をもつ利用者が映っていなかった場合、多層式ニューラルネットワーク46は監視対象となる備品の存在を示す推定値として1又は1に近い値を出力する。
In addition, the multilayer
これに対し監視対象としている備品が不正に持ち出されたような場合、備品の映っていない監視区画の画像が多層式ニューラルネットワーク46に入力され、監視対象となる備品の存在を示す推定値は0又は0に近い値となり、閾値0.5以下となるため警報信号が出力されて異常が報知され、また、異常発生時点を含む前後所定時間の録画装置20による動画再生が可能となる。これにより監視対象としている備品の盗難等の監視も可能となる。
On the other hand, when the equipment to be monitored is taken out illegally, the image of the monitoring area where the equipment is not shown is input to the multilayer
また、行動判定部16は、監視画像から監視区画の画像を切り出した場合、所定サイズの画像に正規化して多層式ニューラルネットワークに入力させる制御を行う。
In addition, when the image of the monitoring section is cut out from the monitoring image, the
これは、図3に示したように、監視カメラ14により撮像された監視画像36に設定された監視区画34−10〜34−12が、監視カメラ14からの距離が遠くなると画像サイズが小さくなり、その結果、切出された複数の監視区画の画像は縦横サイズが異なっており、そのまま多層式ニューラルネットワーク46に入力すると、サイズの小さい画像の判定精度が低くなり、これを防止するために監視区画の切出し画像を同じサイズに正規化している。
This is because, as shown in FIG. 3, in the monitoring sections 34-10 to 34-12 set in the
監視区画の切出し画像を所定サイズに正規化するためサイズ変更は公知の手法であり、画像サイズを小さくする場合は画素の間引き処理を行い、画像サイズを大きくする場合は画素の補完処理を行う。 Resizing is a well-known method for normalizing the cutout image of the monitoring section to a predetermined size. When reducing the image size, pixel thinning processing is performed, and when increasing the image size, pixel complementing processing is performed.
また、学習制御部18による監視区画の画像を切出して学習画像として記憶する場合にも、同様に監視区画から切り出した画像を所定サイズの画像に正規化して記憶する制御が行われる。
Also in the case where the image of the monitoring section by the
(多層式ニューラルネットワーク)
図5は図4に示した多層式ニューラルネットワークの機能構成を示した説明図であり、図5(A)に概略を示し、図5(B)に詳細を模式的に示している。
(Multilayer neural network)
FIG. 5 is an explanatory view showing a functional configuration of the multilayer neural network shown in FIG. 4, schematically shown in FIG. 5 (A), and schematically shown in detail in FIG. 5 (B).
図5(A)に示すように、本実施形態の多層式ニューラルネットワーク46は、特徴抽出部58と認識部60で構成される。特徴抽出部58は畳み込みニューラルネットワークであり、認識部60は全結合ニューラルネットワークである。
As shown in FIG. 5A, the multilayer
多層式ニューラルネットワーク46は、深層学習(ディープラーニング)を行うニューラルネットワークであり、中間層を複数つなぎ合わせた深い階層をもつニューラルネットワークであり、特徴抽出となる表現学習を行う。
The multilayer
通常のニューラルネットワークは、画像から通常在室している利用者を判定するための特徴抽出には、人為的な試行錯誤による作業を必要とするが、多層式ニューラルネットワーク46では、特徴抽出部58として畳み込みニューラルネットワークを用いることで、画像の画素値を入力し、学習により最適な特徴を抽出し、認識部60の全結合ニューラルネットワークに入力して備品使用権限をもつ利用者の行動を示す推定値を出力する。
A normal neural network requires an operation by artificial trial and error to extract a feature for determining a user who is usually present in an image from an image. By using a convolutional neural network as an input, the pixel value of the image is input, the optimum feature is extracted by learning, and input to the all-connected neural network of the
認識部60の全結合ニューラルネットワークは、図5(B)に模式的に示すように、入力層66、全結合68、中間層70と全結合68の繰り返し、及び出力層72で構成されている。
The all connection neural network of the
(畳み込みニューラルネットワーク)
図5(B)は特徴抽出部58を構成する畳み込みニューラルネットワークの構造を模式的に示している。
(Convolutional neural network)
FIG. 5B schematically shows the structure of a convolutional neural network that constitutes the
畳み込みニューラルネットワークは、通常のニューラルネットワークとは少し特徴が異なり、視覚野から生物学的な構造を取り入れている。視覚野には、視野の小区域に対し敏感な小さな細胞の集まりとなる受容野が含まれており、受容野の挙動は、行列の形で重み付けを学習することで模倣できる。この行列は重みフィルタ(カーネル)呼ばれ、生物学的に受容野が果たす役割と同様に、ある画像の類似した小区域に対して敏感になる。 Convolutional neural networks are slightly different in characteristics from ordinary neural networks and adopt biological structures from visual cortex. The visual cortex contains a receptive field that is a collection of small cells that are sensitive to a small area of the visual field, and the behavior of the receptive field can be mimicked by learning weights in the form of a matrix. This matrix is called a weight filter (kernel) and is sensitive to similar subregions of an image, as well as the role played by the receptive field in biological terms.
畳み込みニューラルネットワークは、畳み込み演算により、重みフィルタと小区域との間の類似性を表すことでき、この演算を通して、画像の適切な特徴を抽出することができる。 A convolutional neural network can express the similarity between the weight filter and the small area by convolution, through which the appropriate features of the image can be extracted.
畳み込みニューラルネットワークは、図5(B)に示すように、まず、入力画像62に対し重みフィルタ63により畳み込み処理を行う。例えば、重みフィルタ63は縦横3×3の所定の重み付けがなされた行列フィルタであり、入力画像62の各画素にフィルタ中心を位置合わせしながら畳み込み演算を行うことで、入力画像62の9画素を小区域となる特長マップ64aの1画素に畳み込み、複数の特徴マップ64aが生成される。
As shown in FIG. 5B, the convolutional neural network first performs convolution processing on the
続いて、畳み込み演算により得られた特徴マップ64aに対しプーリングの演算を行う。プーリングの演算は、識別に不必要な特徴量を除去し、識別に必要な特徴量を抽出する処理である。
Subsequently, pooling operation is performed on the
続いて、重みフィルタ65a,65bを使用した畳み込み演算とプーリングの演算を多段に繰り返して特徴マップ64b,64cが得られ、最後の層の特徴マップ64cを認識部60に入力し、通常の全結合ニューラルネットワークを用いた認識部60により備品使用権限をもつ利用者の行動を推定する。
Subsequently, the convolution operation and the pooling operation using the weight filters 65a and 65b are repeated in multiple stages to obtain the feature maps 64b and 64c, and the
なお、畳み込みニューラルネットワークにおけるプーリングの演算は、備品使用権限をもつ利用者の識別に不必要な特徴量が必ずしも明確でなく、必要な特徴量を削除する可能性があることから、プーリングの演算は行わないようにしても良い。 It should be noted that the pooling operation in the convolutional neural network is that the unnecessary feature amount is not necessarily clear in identifying the user who has the right to use the equipment, and the necessary feature amount may be deleted. You may not do this.
(学習制御部の機能)
図4に示す学習制御部18の制御部52は、システムの運用開始前に、例えばオフィスルーム12の勤務時間帯に監視カメラ14により撮像された監視領域の動画の中から監視対象として設定した1又は複数の監視区画のフレーム画像を例えば1分周期で1又は複数切出して学習画像として学習画像記憶部54に記憶する。このような学習画像の記憶を例えば1ケ月程度繰り返すことで多層式ニューラルネットワーク46の学習に必要な十分の量の学習画像が収集される。
(Function of learning control unit)
For example, the
このようにして学習画像記憶部54に記憶される学習画像についても、行動判定部16による監視区画の切出し画像と同様に、画像サイズの正規化が行われている。
In this way, normalization of the image size is also performed on the learning image stored in the learning
また、制御部52は、システム運用中に監視領域の画像を切出して学習画像記憶部54に記憶する制御を行う。このため制御部52は、クライアント装置24の在室管理情報から監視区画の備品使用権限をもつ利用者の在室を検出し、且つ、利用者端末の使用開始を例えばLAN回線21に対する利用者端末のネットワーク接続により検出した場合、例えば10〜15分といった所定時間のあいだ、例えば1分周期で監視画像から監視区域の画像を切出して学習画像記憶部54に記憶する制御を行う。
Further, the
このようにシステム運用中の始業時に学習画像記憶部54に記憶された学習画像は、行動判定部16の行動判定動作が休止している夜間や休日等の空き時間に、学習制御部18の制御部52により学習画像記憶部54から順次読出されて多層式ニューラルネットワーク46に入力することで学習する制御が行われる。
As described above, the learning image stored in the learning
これによりシステム運用中に、監視区画の画像に映される備品使用権限をもつ利用者に服装や髪形等に変化があっても、この変化した監視区画の画像により多層式ニューラルネットワーク46の学習が行われ、備品使用権限をもつ利用者の行動を示す推定値の低下が抑制され、備品使用権限をもつ利用者の行動を第三者の異常行動と誤って判定してしまうことを未然に防止可能とする。
As a result, even if there is a change in clothes, hair style, etc. of the user who has the right to use equipment shown in the image of the monitoring section during system operation, learning of the multilayer
(多層式ニューラルネットワークの学習)
図4に示した学習制御部18による多層式ニューラルネットワーク46の学習は次のようにして行われる。
(Learning of multi-layered neural network)
The learning of the multilayer
入力層、複数の中間層及び出力層で構成されるニューラルネットワークは、各層に複数のユニットを設けて他の層の複数のユニットと結合し、各ユニットにはウェイト(重み)とバイアス値が設定され、複数の入力値とウェイトとのベクトル積を求めてバイアス値を加算して総和を求め、これを所定の活性化関数に通して次の層のユニットに出力するようにしており、最終層に到達するまで値が伝播するフォワードプロパゲーションが行われる。 A neural network composed of an input layer, a plurality of intermediate layers, and an output layer provides a plurality of units in each layer and combines them with a plurality of units in other layers, and weights (bias) and bias values are set for each unit The vector product of a plurality of input values and weights is calculated and the bias values are added to obtain the sum, which is passed through a predetermined activation function and output to the unit of the next layer. Forward propagation is performed where the value propagates until reaching.
このようなニューラルネットワークのウェイトやバイアスを変更するには、バックプロパゲーションとして知られている学習アルゴリズムを使用する。バックプロパゲーションでは、入力値xと期待される出力値(期待値)yというデータセットをネットワークに与えた場合の教師ありの学習と、入力値xのみをネットワークに与えた場合の教師なしの学習があり、本実施形態は、教師ありの学習を行う。 To change the weights and biases of such neural networks, we use a learning algorithm known as backpropagation. In back propagation, supervised learning when the data set of input value x and expected output value (expected value) y is given to the network and unsupervised learning when the input value x is given only to the network In this embodiment, supervised learning is performed.
教師ありの学習でバックプロパゲーションを行う場合は、ネットワークを通ってきたフォワードプロパゲーションの結果である推定値y*と期待値yの値を比較する誤差として、例えば、平均二乗誤差の関数を使用する。 When performing backpropagation in supervised learning, for example, a function of mean square error is used as an error for comparing values of estimated value y * and expected value y, which are the results of forward propagation passed through the network Do.
バックプロパゲーションでは、推定値y*と期待値yの誤差の大きさを使い、ネットワークの後方から前方までウェイトとバイアスを補正しながら値を伝播させる。各ウェイトとバイアスについて補正した量は、誤差への寄与として扱われ、最急降下法で計算され、ウェイトとバイアスの値を変更することにより、誤差関数の値を最小化する。 In back propagation, using the magnitude of the error between the estimated value y * and the expected value y, the value is propagated from the back to the front of the network while correcting the weight and bias. The amount corrected for each weight and bias is treated as a contribution to the error, calculated by the steepest descent method, and the value of the weight and bias is changed to minimize the value of the error function.
ニューラルネットワークに対するバックプロパゲーションによる学習の手順は次にようになる。
(1) 入力値xをニューラルネットワークに入力して、フォワードプロパゲーションを行い推定値y*を求める。
(2) 推定値y*と期待値yに基づき誤差関数で誤差を計算する。
(3) ウェイトとバイアスを更新しながら、ネットワークにて、バックプロパゲーションを行う。
The procedure of learning by back propagation for a neural network is as follows.
(1) The input value x is input to the neural network, and forward propagation is performed to obtain the estimated value y *.
(2) Calculate an error with an error function based on the estimated value y * and the expected value y.
(3) Perform back propagation in the network while updating weights and biases.
この手順は、ニューラルネットワークのウェイトとバイアスの誤差が可能な限り最小になるまで、異なる入力値xと期待値yの組み合わせを使って繰り返し、誤差関数の値を最小化する。 This procedure is repeated using combinations of different input values x and expected values y until the error of weight and bias of the neural network is minimized to minimize the value of the error function.
[行動判定制御]
図6は図4の行動判定部による行動判定制御を示したフローチャートである。図6に示すように、行動判定部16はステップS1で監視カメラ14により撮像された監視領域の画像に対し、例えば図3に示したように、監視区画を設定する。
[Behavior judgment control]
FIG. 6 is a flowchart showing action determination control by the action determination unit of FIG. As shown in FIG. 6, the
続いてステップS2に進み、行動判定部16は、クライアント装置24で管理しているオフィスルーム12の在室管理情報から在室者の有無を判別し、在室者なしが判別された場合はステップS3に進んで行動判定動作を休止し、一方、ステップS2で在室者ありが判別された場合はステップS4に進んで行動判定動作を開始又は継続し、ステップS5に進む。
Subsequently, the process proceeds to step S2, and the
行動判定部16は、ステップS5で例えば1分周期となる所定の監視タイミングへの到達を判別するとステップS6に進み、そのとき監視カメラ14により撮像されている動画のフレーム画像を監視画像として画像切出部44に保持し、監視画像から監視区画の画像を切り出して画像サイズを正規化し、ステップS7で多層式ニューラルネットワーク46に入力し、備品使用権限をもつ利用者の行動を示す推定値を出力する。
When the
続いて行動判定部16は、ステップS8で監視区画の画像の入力により多層式ニューラルネットワーク46から出力された備品使用権限をもつ利用者の行動を示す推定値が所定の閾値以下(又は閾値未満)か否か判別し、備品使用権限をもつ利用者の行動であれば閾値超え(又は閾値以上)となることから、これを判別した場合はステップS2に戻って同様な処理を繰り返す。
Subsequently, the
これに対し動判定器16がステップS8で監視区画の画像の入力により多層式ニューラルネットワーク46から出力される備品使用権限をもつ利用者の行動を示す推定値が所定の閾値以下(又は閾値未満)となることを判別した場合は、ステップS9に進んで第三者の異常行動と判定し、ステップS10で例えば入退室管理設備のクライアント装置24や異常行動が判定された監視区画の利用者端末等に警報信号を送信して警報を報知させ、更に、ステップS11に進んで録画装置20に対し、異常行動の判定時点を含む例えば前後5分間の監視動画の再生を指示し、クライアント装置24又は利用者端末に送信して表示させる。
On the other hand, the estimated value indicating the behavior of the user having the right to use the equipment output from the multi-layered
[学習制御]
図7は図4の学習制御部による在室者学習制御を示したフローチャートである。図7に示すように、学習制御部18の制御部52は、ステップS21でクライアント装置24の在室管理情報から監視区域に対する備品使用権限をもつ利用者が在室か否か判別し、在室を判別するとステップS22に進んで監視領域に配置されている利用者端末のLAN回線21への接続の有無を判別し、接続ありを判別すると利用者端末の使用開始を認識してステップS23に進む。このようなステップS21,S22の処理により、制御部52は、監視領域の備品使用権限のある利用者が出勤して業務を開始する始業時の行動を検出している。
[Learning control]
FIG. 7 is a flow chart showing occupancy learning control by the learning control unit of FIG. As shown in FIG. 7, the
ステップS23に進んだ制御部52は、例えば1分周期となる所定の切出しタイミングへの到達を判別するとステップS24に進み、監視区画の画像を切り出して画像サイズの正規化を行った後に、ステップS25で学習画像として学習画像記憶部44に記憶させ、これをステップS26で就業開始から10〜15分といった所定の学習時間の経過を判別するまで繰り返す。
For example, when the
続いて、制御部52は、ステップS27で夜間や休日等などにおける行動判定部16の休止中を判別するとステップS28に進み、学習画像記憶部54に記憶している監視区画の画像を読み出して多層式ニューラルネットワーク46に入力し、備品使用権限をもつ利用者の行動を示す推定値が1となるようにバックプロパゲーションにより多層式ニューラルネットワーク46のウェイトとバイアスを調整する学習制御をステップS29で行動判定部16の休止解除が判別されるまで繰り返す。
Subsequently, when the
続いて、制御部52は、ステップS29で行動判定部16における行動判定動作の休止解除(起動)を判別するとステップS30に進んで多層式ニューラルネットワーク46の学習を中断又は終了し、ステップS21からの処理を繰り返す。
Subsequently, when it is determined in step S29 that the pause determination (activation) of the action determination operation in the
[行動監視装置の第2実施形態]
図8は図1の行動監視装置の第2実施形態を機能構成により示したブロック図である。
Second Embodiment of Behavior Monitoring Device
FIG. 8 is a block diagram showing a second embodiment of the behavior monitoring apparatus of FIG. 1 by a functional configuration.
図8に示すように、第2実施形態の行動監視装置10に設けられた行動判定部16は、画像切出部44、画像解析部74、行動認識部76及び時系列判定部48で構成され、画像解析部74には畳み込みニューラルネットワーク78と再帰型ニューラルネットワーク80が設けられ、また、行動認識部76には判定器82とシソーラス辞書84が設けられている。シソーラス辞書84には備品使用権限をもたない第三者を識別するための異常行動判定単語が記憶されている。
As shown in FIG. 8, the
また、学習制御部18は、画像切出部50、制御部52、学習情報記憶部として機能する学習データセット記憶部100、マウスやキーボード等の操作部55及びディスプレイを備えた表示部56で構成される。これらの機能は、ニューラルネットワークの処理に対応したコンピュータ回路のCPUによるプログラムの実行により実現される。
The
(行動判定部の機能)
図8に示すように、行動判定部16の画像切出部44は監視カメラ14で撮像されたオフィスルーム12などの監視画像を所定周期毎に読み込んで保持し、保持した監視画像に設定された1又は複数の監視区画の画像を切り出して画像サイズを正規化した後に画像解析部74に出力する。
(Function of behavior judgment unit)
As shown in FIG. 8, the
画像解析部74に設けられた畳み込みニューラルネットワーク78は入力した監視区画の画像の特徴量を抽出して出力する。再帰型ニューラルネットワーク80は畳み込みニューラルネットワーク78から出力された特徴量を入力し、備品使用権限をもつ利用者又は第三者の行動を説明する入力画像の行動説明文(「画像説明文」ともいう)を生成して出力する。
A convolutional
行動認識部76の判定器82は、画像解析部74の再帰型ニューラルネットワーク80から出力された行動説明文を構成する1又は複数の単語と、シソーラス辞書84に記憶されている備品使用権限をもたない第三者の行動を示す異常行動判定単語とを比較し、行動説明文の単語がシソーラス辞書72の異常行動判定単語に一致又は類似した場合に備品使用権限をもたない第三者の行動を示す異常行動を判定し、時系列判定部48に出力する。
The determiner 82 of the action recognition unit 76 also uses one or more words constituting the action explanatory text output from the recursive
時系列判定部48は、行動認識部76による異常行動の判定結果が複数回又は所定時間に亘り連続した場合に、第三者による異常行動との判定を確定させ、図1に示した人物特定部17に出力する。
When the determination result of the abnormal action by the action recognition unit 76 continues a plurality of times or for a predetermined time, the time
人物特定部17には、入退室管理設備による電気錠28を解錠する制御に連動して入室カメラ25により撮像された利用者画像が記憶されており、記憶している利用者画像と行動認識部76で異常行動が判定された人物の画像と照合し、一致した利用者の利用者情報を入退室管理設備のクライアント装置24から取得して人物特定情報とし、異常行動が判定された人物の画像、人物特定情報を含む警報信号例えば入退室管理設備のクライアント装置24に送信して警報信号を送信して第三者の異常行動の警報を報知させると共に、録画装置20で録画している異常行動を判定した時点を含む前後所定時間の監視領域の動画を再生してクライアント装置24などに表示させる。
In the
(学習制御部の機能)
行動判定部16の画像解析部74に設けられた折り畳みニューラルネットワーク78と再帰型ニューラルネットワーク80は、学習制御部18の学習データセット記憶部100に予め記憶された学習画像とその行動説明文のペアからなる多数の学習データセットを使用して制御部52により学習されている。
(Function of learning control unit)
The folding
学習データセット記憶部100に記憶されている学習画像は、例えば、図4の第1実施形態と同様に、監視カメラ14により撮像された例えば図3に示した監視区画34−10〜34−12により切出されて画像サイズが正規化された画像である。
The learning image stored in the learning data set storage unit 100 is, for example, the monitoring section 34-10 to 34-12 shown in FIG. 3, for example, captured by the monitoring
また、学習データセット記憶部100には、記憶された多数の学習画像に対応して行動説明文が準備され、学習画像と行動説明文のペアからなる多数の学習データセットとして記憶されている。 Also, in the learning data set storage unit 100, action explanatory sentences are prepared corresponding to the stored many learning images, and are stored as a large number of learning data sets consisting of pairs of learning images and action explanatory sentences.
例えば、図3に示した監視区画34−10から切出された学習画像に対しては、例えば「部長Xが利用者端末を操作している」といった行動説明文が準備され、また、監視区画34−10から切出された部長Xが席を外している学習画像には、例えば「利用者端末が机の上に置いてある」といった行動説明文(画像説明文)が準備され、それぞれ学習画像とペアとなって学習データセット記憶部100に記憶されている。 For example, for the learning image cut out from the monitoring section 34-10 shown in FIG. 3, an action explanatory text such as "the director X is operating the user terminal" is prepared, and the monitoring section In the learning image where the director X cut out from 34-10 has taken a seat, an action explanatory sentence (image explanatory sentence) such as "the user terminal is placed on a desk" is prepared, for example. It is stored in the learning data set storage unit 100 as a pair with the image.
制御部52は、入力層、複数の中間層及び全結合の出力層で構成された学習用の畳込みニューラルネットワーク、即ち図5に示した特徴抽出部55の畳み込みニューラルネットワークと認識部60の全結合ニューラルネットワークで構成された多層式ニューラルネットワークを学習用に準備し、まず、学習データセット記憶部100に記憶されている多数の学習画像を読み出し、学習用の多層式ニューラルネットワークに学習画像として入力し、バックプロパゲーション法(逆伝播法)により学習させる。
The
続いて、制御部52は、学習済みの畳込みニューラルネットワークに得られたウェイトとバイアスを、図9に示した出力層を持たない畳み込みニューラルネットワーク78にセットして学習済みとし、学習済みの畳込みニューラルネットワーク78に学習画像を入力して特徴量を抽出し、抽出した特徴量と入力した学習画像とペアになっている行動説明文を再帰型ニューラルネットワーク80に入力し、バックプロパゲーション法により学習させる。
Subsequently, the
このように学習制御部18により学習された畳み込みニューラルネットワーク78と再帰型ニューラルネットワーク80で構成された画像解析部78に、例えば図3に示した備品使用権限をもつ部長Xが利用者端末32−10を操作している監視区画34−10の画像が入力されると、例えば「部長Xが利用者端末を操作している」といった行動説明文が出力される。この場合には、行動認識部76により異常行動判定単語との不一致が判定され、第三者の異常行動とは認識されない。
In the
これに対し、画像解析部78に、例えば部長X以外の第三者が利用者端末32−10を操作している監視区画34−10の画像が入力されると、例えば「不審者が利用者端末を操作している」といった行動説明文が出力され、行動認識部76で例えば「不審者」、「利用端末」、「操作」といった異常行動判定単語との一致が判定され、第三者の異常行動を認識して報知させることができる。
On the other hand, when an image of the monitoring section 34-10 where, for example, a third party other than the director X operates the user terminal 32-10 is input to the
[画像解析部の多層式ニューラルネットワーク]
図9は図8の画像解析部に設けられた畳み込みニューラルネットワークと再帰型ニューラルネットワークの機能構成を示した説明図である。
[Multilayer neural network of image analysis unit]
FIG. 9 is an explanatory view showing functional configurations of a convolutional neural network and a recursive neural network provided in the image analysis unit of FIG.
(畳み込みニューラルネットワーク)
図9に示すように、畳み込みニューラルネットワーク78は入力層85、複数の中間層86で構成されている。通常の畳み込みニューラルネットワークは最後の中間層86の後に、入力層、複数の中間層及び出力層を全結合して画像の特徴量から出力を推定する図5に示したように全結合ニューラルネットワークを設けているが、本実施形態は、入力画像の特徴量を抽出するだけで良いことから、後段の全結合ニューラルネットワークは設けていない。
(Convolutional neural network)
As shown in FIG. 9, the convolutional
畳み込みニューラルネットワーク78は、図5に示したと同様、通常のニューラルネットワークとは少し特徴が異なり、視覚野から生物学的な構造を取り入れている。畳み込みニューラルネットワーク78は、畳み込み演算により、重みフィルタと小区域との間の類似性を表すことでき、この演算を通して、画像の適切な特徴を抽出することができる。
The convolutional
畳み込みニューラルネットワーク78は、入力層85に入力した入力画像に対し重みフィルタにより畳み込み処理を行い、中間層86に特徴マップが生成される。続いて、畳み込み演算により得られた中間層86の特徴マップに対しプーリングの演算を行う。
The convolutional
続いて、重みフィルタを使用した畳み込み演算とプーリングの演算を各中間層86毎に繰り返すことで最後の中間層86まで特徴マップが生成され、本実施形態にあっては、任意の中間層86に生成された特徴マップを、入力画像の特徴量として再帰型ニューラルネットワーク80に入力している。
Subsequently, the feature map is generated up to the last
畳み込みニューラルネットワーク78は、図8に示した学習制御部18により学習データセット記憶部56に記憶された学習画像を入力して学習を行っており、この学習により、良く似た画像をグループ分けするクラスタリングされた特徴量をもつ画像を生成することができる。
The convolutional
(再帰型ニューラルネットワーク)
図9に示す再帰型ニューラルネットワーク80は、畳み込みニューラルネットワーク78を用いて抽出した画像の特徴量を、単語ベクトルと共に入力して行動説明文を予測する。
(Recursive neural network)
A recursive
本実施形態の再帰型ニューラルネットワーク80は、時系列データ対応の深層学習モデルとなるLSTM−LM(Long Short−Term Memory−Langage Model)を使用している。
The recursive
通常の再帰型ニューラルネットワークのモデルは、入力層、隠れ層、出力層で構成され、隠れ層の情報を次時刻の入力とすることで過去の経歴を利用した時系列解析をするモデルである。これに対しLSTMモデルは、過去の文脈となるt−1個の単語からt番目の単語として各単語が選ばれる確率を算出する。即ち、LSTMモデルは1時刻前の隠れ状態となる時刻1〜t−1の単語情報、1時刻前の予測結果となる時刻t−1の単語、及び外部情報の3つを入力とし、逐次的に次の単語の予測を繰り返して文章を生成する。
A model of a normal recursive neural network is a model that is composed of an input layer, a hidden layer, and an output layer, and is a model that performs time series analysis using past history by using information of the hidden layer as an input of the next time. On the other hand, the LSTM model calculates the probability that each word will be selected as the t-th word from t-1 words that will be in the past context. That is, the LSTM model takes three inputs of word information of
図9の再帰型ニューラルネットワーク80は、畳み込みニューラルネットワーク78で抽出された画像の特徴ベクトルをLSTM隠れ層88に入力する行列に変換するLSTM入力層87、レジスタ90に単語単位に格納された単語S0〜SN-1をベクトルWeS0〜WeSN-1に変換するベクトル変換部92、N−1段のLSTM隠れ層88、LSTM隠れ層88の出力を出現確率p1〜pNに変換する確率変換部94、単語を出力する確率からコスト関数logP1(s1)〜logpN(SN)により算出してコストを最小化するコスト算出部96で構成される。
The recursive
(再帰型ニューラルネットワークの学習)
再帰型ニューラルネットワーク80の学習対象は、ベクトル変換部92とLSTM隠れ層88であり、畳み込みニューラルネットワーク78からの特徴量の抽出には、学習済みのパラメータ(ウェイトとバイアス)をそのまま使用する。
(Learning of recursive neural networks)
The learning targets of the recursive
学習データは、学習画像Iとその行動説明文の単語列{St}(t=0,・・・N)となり、次の手順で行う。
(1) 画像Iを畳み込みニューラルネットワーク78に入力し、特定の中間層86の出力を特徴ベクトルとして取り出す。
(2) 特徴ベクトルをLSTM隠れ層88に入力する。
(3) 単語列Stをt=0からt=N−1まで順に入力し、それぞれのステップで確率pt+1を得る。
(4) 単語St+1を出力する確率pt+1(St+1)から求まるコストを最小化する。
The learning data is the word sequence {St} (t = 0,... N) of the learning image I and its action explanatory text, and the following procedure is performed.
(1) The image I is input to the convolutional
(2) Input the feature vector to the LSTM hidden
(3) The word string St is sequentially input from t = 0 to t = N-1, and a probability pt + 1 is obtained in each step.
(4) Minimize the cost obtained from the probability pt + 1 (St + 1) of outputting the
(画像説明文の生成)
学習済みの畳み込みニューラルネットワーク78と再帰型ニューラルネットワーク80を使用して入力画像の行動説明文を生成する場合には、畳み込みニューラルネットワーク78に監視区画から切り出した画像を入力して生成した特徴量のベクトルを再帰型ニューラルネットワーク80に入力し、単語の出現確率の積が高い順に単語列を並べて行動説明文を生成させる。この手順は次のようになる。
(Generation of image description)
In the case of generating the action explanation of the input image using the trained convolutional
(1) 画像を畳み込みニューラルネットワーク78に入力し、特定の中間層86の出力を特徴ベクトルとして取り出す。
(2) 特徴ベクトルをLSTM入力層87からLSTM隠れ層88に入力する。
(3) 文の開始記号<S>を、ベクトル変換部92を使用してベクトルに変換し、LSTM隠れ層88に入力する。
(4) LSTM隠れ層88の出力から単語の出現確率が分かるので、上位M個(例えばM=20個)の単語を選ぶ。
(5) 1つ前のステップで出力した単語を、ベクトル変換部92を使用してベクトルに変換し、LSTM隠れ層88に入力する。
(6) LSTM隠れ層88の出力から、これまでに出力した単語の確率の積を求め、上位M個の単語列を選択する。
(7) 前記(5)と前記(6)の処理を、単語の出力が終端記号になるまで繰り返す。
(1) The image is input to a convolutional
(2) Input a feature vector from the LSTM input layer 87 to the LSTM hidden
(3) The start symbol <S> of the sentence is converted into a vector using the
(4) Since the appearance probability of a word is known from the output of the LSTM hidden
(5) The word output in the previous step is converted into a vector using the
(6) From the output of the LSTM hidden
(7) Repeat the processes of (5) and (6) until the word output becomes a terminal symbol.
このように行動判定部16は、監視カメラ14により撮像された監視画像に設定された監視区画の画像を切り出して解析することで、監視区画の備品使用権限をもたない第三者の異常行動を判定して報知することができる。
As described above, the
なお、本実施形態の畳み込みニューラルネットワーク78と再帰型ニューラルネットワーク80は教師なしの学習としても良いし、教師ありの学習としても良い。
Note that the convolutional
[行動判定制御]
図10は図8の行動判定部による行動判定制御を示したフローチャートである。図10に示すように、行動判定部16はステップS31で監視カメラ14により撮像された監視領域の画像に対し、例えば図3に示したように、監視区画を設定する。
[Behavior judgment control]
FIG. 10 is a flowchart showing action determination control by the action determination unit of FIG. As shown in FIG. 10, the
続いてステップS32に進み、行動判定部16は、クライアント装置24で管理しているオフィスルーム12の在室管理情報から在室者の有無を判別し、在室者なしが判別された場合はステップS33に進んで行動判定動作を休止し、一方、ステップS32で在室者ありが判別された場合はステップS34に進んで行動判定動作を開始し、ステップS35に進む。
Subsequently, the process proceeds to step S32, and the
行動判定部16は、ステップS35で例えば1分周期となる所定の監視タイミングへの到達を判別するとステップS36に進み、そのとき監視カメラ14により撮像されている動画のフレーム画像を監視画像として画像切出部44に保持し、監視画像から監視区画の画像を切り出して画像サイズを正規化し、ステップS37で多層式ニューラルネットワーク46に入力して行動説明文を行動認識部76の判定器82に出力する。
When the
判定器82はステップS38で行動説明文を構成する単語をソシーラス辞書84に登録されている異常行動判定単語と比較し、一部又は全部が異常行動判定単語と一致した場合にステップS40に進んで第三者による異常行動と判定し、ステップS41で例えば入退室管理設備のクライアント装置24や第三者の異常行動が判定された監視区画の利用者端末等に警報信号を送信して警報を報知させ、更に、ステップS42に進んで録画装置20に対し、異常行動の判定時点を含む例えば前後5分間の監視動画の再生を指示し、クライアント装置24又は利用者端末に送信して表示させる。
In step S38, the determiner 82 compares the words constituting the action explanatory text with the abnormal behavior determination words registered in the
[学習制御]
図11は図8の学習制御部による在室者学習制御を示したフローチャートである。図11に示すように、学習制御部18の制御部52は、ステップS51でクライアント装置24の在室管理情報から監視区画に対し備品使用権限をもつ利用者(許可利用者)の在室を判別するとステップS52に進み、監視区画に配置されている利用者端末のLAN回線21への接続の有無を判別し、接続ありを判別すると利用者端末の使用開始を認識してステップS53に進む。このようなステップS51,S52の処理により制御部52は、備品使用権限のある利用者が出勤して業務を開始する始業時の行動を検出している。
[Learning control]
FIG. 11 is a flowchart showing occupancy learning control by the learning control unit of FIG. As shown in FIG. 11, the
ステップS53に進んだ制御部52は、例えば1分周期となる所定の切出しタイミングへの到達を判別するとステップS54に進み、監視区域の画像を切り出して画像サイズの正規化を行った後に、ステップS55で切出した画像中に人物があるか否か判別する。
For example, when the
ステップS55における切出し画像中の人物の判別は、例えば、人物不在時の背景画像を予め記憶し、切出した画像との差分をとり、差分画像の輝度値の総和が所定の閾値以上の場合に人物ありと判定すればよい。 The determination of the person in the clipped image in step S55 includes, for example, storing in advance a background image in the absence of a person, taking a difference from the clipped image, and the person when the sum of luminance values of the difference image is equal to or more than a predetermined threshold It may be determined that there is.
制御部52は、ステップS55で切出し画像中に人物ありを判別した場合はステップS56に進み、例えば「権限のある利用者が利用者端末を操作している」といった許可利用者の行動説明文を生成し、ステップS58で監視区画画像と行動説明文のペアを学習データセットとして学習データセット記憶部100に記憶させる。
If it is determined in step S55 that there is a person in the cut-out image, the
また、制御部52は、ステップS55で切出し画像中に人物なしを判別した場合はステップS57に進み、例えば「「利用者端末が机の上に配置されている」といった許可利用者のいない行動説明文を生成し、ステップS58で監視区画画像と行動説明文のペアを学習データセットとして学習データセット記憶部100に記憶させる。
If the
このようなステップS53〜S58の学習情報の記憶を、制御部52はステップS59で例えば10〜15分といった所定の学習時間の経過を判別するまで繰り返す。
The storage of the learning information in steps S53 to S58 is repeated until the
続いて、制御部52は、ステップS60で夜間や休日等などにおける行動判定部16の休止中を判別するとステップS61に進み、学習データセット記憶部100に記憶している監視区画画像と行動説明文のデータセットを読み出して畳み込みニューラルネットワーク78と再帰型ニューラルネットワーク80で構成される多層式ニューラルネットワークに入力し、入力画像から行動説明文が推定されるように多層式ニューラルネットワークのウェイトとバイアスを調整する学習制御をステップS62で行動判定部16の休止解除が判別されるまで繰り返す。
Subsequently, when the
続いて、制御部52は、ステップS62で行動判定部16における行動判定動作の休止解除(起動)を判別するとステップS63に進んで多層式ニューラルネットワークの学習を中断又は終了し、ステップS51からの処理を繰り返す。
Subsequently, when the
〔本発明の変形例〕
(在室者に応じた異常判定)
上記の第2実施形態では、異常判定した人物を人物特定部17で人物特定するようにしていたが、実施形態はこれに限らない。人物を特定したのち、当該人物に許可された行動かどうかを判定するようにしても良い。領域に通常存在する人物ごと、及び領域に通常存在しない人物について、異常と判定する行動となる異常行動判定単語に関する行動辞書を作成する。運用時、画像解析部または利用者画像と監視画像を比較により人物を特定する。画像解析部によって出力される人物の行動が、特定された人物における異常と判定する行動であるかどうかを判定する。これにより、その人物に許可されている行動か監視可能となる。例えば、通常の在室者ならPCの操作は問題ないが、通常の在室者でない場合は機密漏えいの可能性があるため警報を発する。部長は持ちだし可能だが社員持ち出し禁止のファイルを、社員が持ちだそうとする場合、警報を発する。
[Modification of the present invention]
(Abnormal judgment according to the room occupant)
In the second embodiment described above, the person specified as abnormal is specified by the
(学習機能)
上記の実施形態に示した在室監視装置は、行動判定部の多階層ニューラルネットワークを学習する学習制御部を備えた場合を例にとっているが、多階層ニューラルネットワークの学習は、学習機能を備えた別のコンピュータ設備を使用して行い、その結果得られた学習済みの多階層ニュートラルネットワークを行動判定部に実装して使用するようにしても良い。
(Learning function)
Although the room occupancy monitoring apparatus shown in the above embodiment is provided with a learning control unit for learning the multi-layer neural network of the action determination unit as an example, the learning of the multi-layer neural network has a learning function. It may be carried out using another computer equipment, and the resulting learned multi-tiered neutral network may be implemented and used in the action determination unit.
(特徴抽出)
上記の実施形態は、畳み込みニューラルネットワークに画像を入力して通常在室している利用者の特徴を抽出しているが、畳み込みニューラルネットワークを使用せず、入力した画像から輪郭、濃淡等の特徴を抽出する前処理を行って所定の特徴を抽出し、特徴が抽出された画像を認識部として機能する全結合ニューラルネットワーク又は再帰型ニューラルネットワークに入力して通常在室している利用者か否かや画像説明文を推定させるようにしても良い。これにより画像の特徴抽出の処理負担を低減可能とする。
(Feature extraction)
Although the above embodiment inputs an image to a convolutional neural network to extract features of a user who is usually in the room, it does not use the convolutional neural network, and features such as contours and shadings from the input image Whether the user is usually in the room by performing pre-processing to extract a predetermined feature to extract a predetermined feature, and inputting the image from which the feature has been extracted into a fully connected neural network or a recursive neural network that functions as a recognition unit It is also possible to estimate a heel image description. As a result, the processing load of image feature extraction can be reduced.
(学習方法について)
上記の実施形態は、バックプロパゲーションによる学習を行っているが、多層式ニューラルネットワークの学習方法はこれに限らない。
(About the learning method)
Although the above embodiment performs learning by back propagation, the learning method of the multilayer neural network is not limited to this.
(入退室管理設備との連携)
上記の実施形態は、入退室管理設備で管理している在室管理情報を利用して行動判定部の動作と休止を制御しているが、これに限定されず、監視対象とする部屋に設置された人感センサにより在室の有無を判別して行動判定部の動作と休止を制御するようにしても良い。
(Cooperation with room entry and exit management equipment)
Although the above embodiment controls operation and suspension of the action determination unit using the occupancy management information managed by the entry and exit management facility, the present invention is not limited to this, and is installed in a room to be monitored It is also possible to determine the presence or absence of the room by the human sensor, and control the operation and the pause of the behavior determination unit.
(システム運用中の学習情報の記憶)
上記の実施形態は、監視区画における備品使用権限をもつ利用者の利用者端末の使用開始を検出した場合に、所定時間のあいだ監視区画の画像を切り出して学習情報として記憶させているが、これに限定されず、監視領域のセキュリティ−担当者等の利用者端末を使用した人為的な操作により、平日の就業時間帯に監視区画の画像を切り出して学習情報として記憶させるようにしても良い。
(Storage of learning information during system operation)
Although the above embodiment detects the start of use of the user terminal of the user who has the right to use the equipment in the monitoring area, the image of the monitoring area is cut out and stored as learning information for a predetermined time. The image of the monitoring section may be cut out and stored as learning information during the working hours of a weekday by artificial operation using a user terminal such as a security person in charge of the monitoring area.
(その他)
また、本発明は上記の実施形態に限定されず、その目的と利点を損なうことのない適宜の変形を含み、更に上記の実施形態に示した数値による限定は受けない。
(Others)
Further, the present invention is not limited to the above-described embodiment, includes appropriate modifications that do not impair the objects and advantages thereof, and is not limited by the numerical values shown in the above-described embodiment.
10:行動監視装置
12:オフィスルーム
14:監視カメラ
16:行動判定部
17:人物特定部
18:学習制御部
20:録画装置
21:LAN回線
22:入退室管理制御装置
23:センター装置
24:クライアント装置
25:入室カメラ
26:カードリーダ
28:電気錠
30:扉
32:利用者端末
34−1〜34−12:監視区画
36:監視画像
44,50:画像切出部
46:多層式ニューラルネットワーク
48:時系列判定部
52:制御部
54:学習画像記憶部
55:操作部
56:表示部
58:特徴抽出部
60:認識部
62:入力画像
63,65a,65b:ウェイトフィルタ
64a,64b,64c:特徴マップ
66,85:入力層
68:結合層
70,86:中間層
72:出力層
74:画像解析部
76:行動認識部
78:畳み込みニューラルネットワーク
80:再帰型ニューラルネットワーク
82:判定器
84:シソーラス辞書
87:LSTM入力層
88:LSTM隠れ層
90:単語レジスタ
92:単語ベクトル変換部
94:確率変換部
96: コスト算出部
100:学習データセット記憶部
10: behavior monitoring device 12: office room 14: monitoring camera 16: behavior determination unit 17: person identification unit 18: learning control unit 20: recording device 21: LAN line 22: entering and leaving management control device 23: center device 24: client Device 25: Entry camera 26: Card reader 28: Electric lock 30: Door 32: User terminal 34-1 to 34-12: Monitoring section 36: Monitoring
Claims (12)
前記監視領域内の人物の異常行動を判定して出力する行動判定部と、
が設けられ、
前記行動判定部は、前記監視領域内に通常存在する人物の許可行動を示す画像により学習された多層式のニューラルネットワークによって構成されることを特徴とする行動監視システム。
An imaging unit for imaging a monitoring area to be monitored;
An action determination unit that determines and outputs an abnormal action of a person in the monitoring area;
Is provided,
The behavior monitoring system according to claim 1, wherein the behavior determination unit is configured by a multi-layered neural network learned by an image indicating permission behavior of a person normally present in the monitoring area.
前記行動監視システムは更に行動判定部で異常行動が判定された人物を特定して人物特定情報を出力する人物特定部を備えることを特徴とする行動監視システム。
In the behavior monitoring system according to claim 1,
The behavior monitoring system further includes a person specifying unit that specifies a person whose abnormal behavior has been determined by the behavior determining unit and outputs person specifying information.
前記行動判定部の多層式のニューラルネットワークは、特徴抽出部と認識部で構成され、
前記特徴抽出部は、入力した前記人物の画像から前記人物に応じた特徴量を抽出して出力する畳み込みニューラルネットワークで構成され、
前記認識部は、前記畳み込みニューラルネットワークから出力される前記特徴量を入力して前記許可行動の人物か否かを推定する複数の全結合層を備えた全結合ニューラルネットワークで構成されたことを特徴とする行動監視システム。
In the behavior monitoring system according to claim 1,
The multi-layered neural network of the action determination unit is composed of a feature extraction unit and a recognition unit,
The feature extraction unit is configured of a convolutional neural network that extracts and outputs feature amounts according to the person from the input image of the person,
The recognition unit is configured by an all connected neural network including a plurality of all connected layers that input the feature amount output from the convolutional neural network and estimate whether the person is the person of the permitted behavior or not. Behavior monitoring system.
前記行動判定部は、
前記監視領域内に通常存在する人物の許可行動を示す画像が予め記憶された学習情報記憶部と、
前記学習情報記憶部に記憶されている前記画像を読み出して教師ありの学習画像として前記畳み込みニューラルネットワークに入力した場合に前記全結合ニューラルネットワークから出力される推定値と所定の期待値との誤差に基づくバックプロパゲーションにより前記全結合ニューラルネットワーク及び前記畳み込みニューラルネットワークを学習させる学習制御部と、
が設けられたことを特徴とする行動監視システム。
In the behavior monitoring system according to claim 3,
The action determination unit
A learning information storage unit in which an image indicating a permitted action of a person normally present in the monitoring area is stored in advance;
When the image stored in the learning information storage unit is read out and input to the convolutional neural network as a supervised learning image, the error between the estimated value output from the fully combined neural network and a predetermined expected value A learning control unit that learns the fully coupled neural network and the convolutional neural network by back propagation based on;
An activity monitoring system characterized in that
前記行動判定部の多層式のニューラルネットワークは、画像解析部と行動認識部で構成され、
前記画像解析部は、
入力した前記人物の画像から前記人物に応じた特徴量を抽出して所定の中間層から出力する畳み込みニューラルネットワークと、
前記畳み込みニューラルネットワークから出力された前記特徴量を入力し、前記監視領域の画像の画像説明文を生成して出力する再帰型ニューラルネットワークと、
により構成され、
前記行動認識部は、
所定の異常行動を示す単語が登録された辞書と、
前記画像解析部から出力された前記画像説明文を構成する単語を、前記辞書に登録された単語と比較して前記人物の異常行動を判定する判定器と、
により構成されたことを特徴とする行動監視システム。
In the behavior monitoring system according to claim 1,
The multi-layered neural network of the action determination unit includes an image analysis unit and an action recognition unit.
The image analysis unit
A convolutional neural network which extracts a feature amount according to the person from the input image of the person and outputs it from a predetermined intermediate layer;
A recursive neural network which receives the feature quantity output from the convolutional neural network and generates and outputs an image description of an image of the monitoring area;
Configured by
The action recognition unit
A dictionary in which a word indicating a predetermined abnormal behavior is registered;
A determiner that compares the words forming the image description output from the image analysis unit with the words registered in the dictionary to determine abnormal behavior of the person;
An activity monitoring system characterized by comprising:
前記画像解析部は、前記人物の画像から人物を特定して人物特定情報を出力し、
前記所定の異常行動を示す単語は監視領域内に通常存在する人物に応じて登録されており、
前記判定器は前記画像説明文を構成する単語と、前記人物特定情報の人物における異常行動を示す単語を比較して前記人物の異常行動を判定することを特徴とする行動監視システム。
In the behavior monitoring system according to claim 5,
The image analysis unit identifies a person from the image of the person and outputs person identification information.
The word indicating the predetermined abnormal behavior is registered according to the person normally present in the monitoring area,
The behavior monitoring system, wherein the determination unit determines the abnormal behavior of the person by comparing a word forming the image description sentence and a word indicating an abnormal behavior in the person of the person specifying information.
前記行動判定部は、
前記監視領域内に通常存在する人物の許可行動を示す画像と、前記画像の概要を示す所定の画像説明文とのペアが予め記憶された学習情報記憶部と、
前記学習情報記憶部に記憶されている前記画像を読出して教師なしの学習画像として前記畳み込みニューラルネットワークに入力してバックプロパゲーションにより学習させ、当該学習の済んだ前記畳み込みニューラルネットワークに前記学習画像を入力して出力された特徴量と前記学習画像のペアとなる前記画像説明文を前記再帰型ニューラルネットワークに教師なしの学習情報として入力してバックプロパゲーションにより学習させる学習制御部と、
が設けられたことを特徴とする行動監視システム。
In the behavior monitoring system according to claim 5,
The action determination unit
A learning information storage unit in which a pair of an image indicating permission behavior of a person normally present in the monitoring area and a predetermined image explanatory sentence indicating an outline of the image is stored in advance;
The image stored in the learning information storage unit is read out and input as an unsupervised learning image to the convolutional neural network to learn by back propagation, and the learning image is input to the convolutional neural network after the learning. A learning control unit that inputs the image description, which is a pair of the feature value input and output and the learning image, as unsupervised learning information to the recursive neural network and learns by back propagation;
An activity monitoring system characterized in that
前記施設内の監視領域に入室する利用者を識別し、利用者識別情報が予め登録した利用者識別情報と一致した場合に出入口の扉に設けられた電気錠を解錠する制御を行う入退室管理設備と、
前記入退室管理設備で利用者を識別した際に入室する利用者を撮像する入室撮像部と、
が設けられ、
前記人物特定部は、前記入退室管理設備による前記電気錠を解錠する制御に連動して、前記入室撮像部により撮像された利用者画像を記憶し、前記利用者画像と前記行動判定部で異常行動が判定された前記人物の画像と照合して一致した前記利用者の利用者情報を前記人物特定情報として出力することを特徴とする在室者監視システム。
In the behavior monitoring system according to claim 2, further,
A user who enters a monitoring area in the facility is identified, and when the user identification information matches the user identification information registered in advance, a control is performed to unlock the electric lock provided at the door of the entrance. Management equipment,
An entry imaging unit for imaging a user who enters the room when the user is identified by the entry / exit management facility;
Is provided,
The person identification unit stores a user image captured by the room entry imaging unit in conjunction with control for unlocking the electric lock by the entry / exit management facility, and the user image and the action determination unit The room occupant monitoring system, wherein the user information of the user matched with the image of the person whose abnormal behavior has been determined is output as the person identification information.
更に、前記撮像部で撮像された前記監視領域の動画を録画する録画装置が設けられ、
前記行動判定部は、前記人物の異常行動を判定した場合に、所定の外部装置に異常警報信号を送信して報知させると共に、前記異常行動を判定した時点を含む前後所定時間の前記撮像部で撮像された監視領域の動画を録画装置から再生して表示させることを特徴とする行動監視システム。
In the behavior monitoring system according to claim 1,
Furthermore, a recording device for recording a moving image of the monitoring area imaged by the imaging unit is provided,
The action determination unit transmits an abnormality alarm signal to a predetermined external device for notification when it determines an abnormal action of the person, and the imaging unit before and after a predetermined time including a time point when the abnormal action is determined. An action monitoring system characterized by reproducing and displaying a moving image of a captured monitoring area from a recording device.
The behavior monitoring system according to claim 1, wherein the behavior determination unit includes one or more monitoring sections in which the equipment to be monitored is disposed in the image of the monitoring area captured by the imaging unit. An action monitoring system characterized by setting an abnormal action of the person for each of the monitoring sections by setting out and extracting an image of the monitoring section and inputting the image to the action determination unit.
The behavior monitoring system according to claim 1, wherein the behavior determining unit determines and outputs an abnormal behavior of the person by inputting an image of the monitoring section at a predetermined cycle. Monitoring system.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017226573A JP7108395B2 (en) | 2017-11-27 | 2017-11-27 | behavior monitoring system |
JP2022113631A JP2022169507A (en) | 2017-11-27 | 2022-07-15 | behavior monitoring system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017226573A JP7108395B2 (en) | 2017-11-27 | 2017-11-27 | behavior monitoring system |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022113631A Division JP2022169507A (en) | 2017-11-27 | 2022-07-15 | behavior monitoring system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019096179A true JP2019096179A (en) | 2019-06-20 |
JP7108395B2 JP7108395B2 (en) | 2022-07-28 |
Family
ID=66973012
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017226573A Active JP7108395B2 (en) | 2017-11-27 | 2017-11-27 | behavior monitoring system |
JP2022113631A Pending JP2022169507A (en) | 2017-11-27 | 2022-07-15 | behavior monitoring system |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022113631A Pending JP2022169507A (en) | 2017-11-27 | 2022-07-15 | behavior monitoring system |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7108395B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110351521A (en) * | 2019-07-11 | 2019-10-18 | 中国工商银行股份有限公司 | Monitoring method, monitoring device, electronic equipment and medium |
JP2021039592A (en) * | 2019-09-04 | 2021-03-11 | 株式会社東芝 | Sensor system, image sensor, and sensing method |
WO2021117346A1 (en) * | 2019-12-11 | 2021-06-17 | Eneos株式会社 | Self-refueling management system |
US11245543B2 (en) * | 2018-06-15 | 2022-02-08 | Microsoft Technology Licensing, Llc | Identifying abnormal usage of electronic device |
JP2022540070A (en) * | 2019-07-01 | 2022-09-14 | エバーシーン リミテッド | Systems and methods for determining actions performed by objects in images |
JP7474399B1 (en) | 2023-08-31 | 2024-04-25 | 雲南電網有限責任公司徳宏供電局 | An abnormal behavior recognition monitoring method based on incremental space-time learning |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102255791B1 (en) * | 2020-08-20 | 2021-05-25 | (주)루선트엔지니어링 | Waste water treatment apparatus and Waste water treatment system having the same |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004056473A (en) * | 2002-07-19 | 2004-02-19 | Matsushita Electric Ind Co Ltd | Monitoring controller |
JP2007312271A (en) * | 2006-05-22 | 2007-11-29 | Nec Corp | Surveillance system |
JP2009205594A (en) * | 2008-02-29 | 2009-09-10 | Sogo Keibi Hosho Co Ltd | Security device and suspicious person determining method |
JP2009284167A (en) * | 2008-05-21 | 2009-12-03 | Toshiba Tec Corp | Person's behavior monitoring device, and person's behavior monitoring program |
JP2011186973A (en) * | 2010-03-11 | 2011-09-22 | Secom Co Ltd | Image monitoring apparatus |
JP2015187770A (en) * | 2014-03-26 | 2015-10-29 | キヤノン株式会社 | Image recognition device, image recognition method, and program |
JP2017138808A (en) * | 2016-02-03 | 2017-08-10 | キヤノン株式会社 | Information processing device and information processing method |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3334807B2 (en) * | 1991-07-25 | 2002-10-15 | 株式会社日立製作所 | Pattern classification method and apparatus using neural network |
JP4668684B2 (en) * | 2005-05-20 | 2011-04-13 | 住友大阪セメント株式会社 | Monitoring device and software program |
WO2016170786A1 (en) * | 2015-04-21 | 2016-10-27 | パナソニックIpマネジメント株式会社 | Information processing system, information processing method, and program |
-
2017
- 2017-11-27 JP JP2017226573A patent/JP7108395B2/en active Active
-
2022
- 2022-07-15 JP JP2022113631A patent/JP2022169507A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004056473A (en) * | 2002-07-19 | 2004-02-19 | Matsushita Electric Ind Co Ltd | Monitoring controller |
JP2007312271A (en) * | 2006-05-22 | 2007-11-29 | Nec Corp | Surveillance system |
JP2009205594A (en) * | 2008-02-29 | 2009-09-10 | Sogo Keibi Hosho Co Ltd | Security device and suspicious person determining method |
JP2009284167A (en) * | 2008-05-21 | 2009-12-03 | Toshiba Tec Corp | Person's behavior monitoring device, and person's behavior monitoring program |
JP2011186973A (en) * | 2010-03-11 | 2011-09-22 | Secom Co Ltd | Image monitoring apparatus |
JP2015187770A (en) * | 2014-03-26 | 2015-10-29 | キヤノン株式会社 | Image recognition device, image recognition method, and program |
JP2017138808A (en) * | 2016-02-03 | 2017-08-10 | キヤノン株式会社 | Information processing device and information processing method |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11245543B2 (en) * | 2018-06-15 | 2022-02-08 | Microsoft Technology Licensing, Llc | Identifying abnormal usage of electronic device |
JP2022540070A (en) * | 2019-07-01 | 2022-09-14 | エバーシーン リミテッド | Systems and methods for determining actions performed by objects in images |
JP7351941B2 (en) | 2019-07-01 | 2023-09-27 | エバーシーン リミテッド | System and method for determining actions performed by objects in images |
CN110351521A (en) * | 2019-07-11 | 2019-10-18 | 中国工商银行股份有限公司 | Monitoring method, monitoring device, electronic equipment and medium |
JP2021039592A (en) * | 2019-09-04 | 2021-03-11 | 株式会社東芝 | Sensor system, image sensor, and sensing method |
JP7353875B2 (en) | 2019-09-04 | 2023-10-02 | 株式会社東芝 | Sensor system and sensing method |
WO2021117346A1 (en) * | 2019-12-11 | 2021-06-17 | Eneos株式会社 | Self-refueling management system |
JP7474399B1 (en) | 2023-08-31 | 2024-04-25 | 雲南電網有限責任公司徳宏供電局 | An abnormal behavior recognition monitoring method based on incremental space-time learning |
Also Published As
Publication number | Publication date |
---|---|
JP7108395B2 (en) | 2022-07-28 |
JP2022169507A (en) | 2022-11-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7108395B2 (en) | behavior monitoring system | |
US11620894B2 (en) | Surveillance system and method for predicting patient falls using motion feature patterns | |
CN107590212A (en) | The Input System and method of a kind of face picture | |
CN109495727A (en) | Intelligent control method and device, system, readable storage medium storing program for executing | |
JP2019080271A (en) | Occupant monitoring system | |
Patel et al. | Iot based facial recognition door access control home security system | |
Mehra et al. | Home security system using iot and aws cloud services | |
JP2002304651A (en) | Device and method for managing entering/leaving room, program for executing the same method and recording medium with the same execution program recorded thereon | |
CN108537920B (en) | Visitor monitoring method and system based on face recognition | |
US11586682B2 (en) | Method and system for enhancing a VMS by intelligently employing access control information therein | |
EP3109837A1 (en) | System and method of smart incident analysis in control system using floor maps | |
US11948365B2 (en) | Frictionless authentication and monitoring | |
Uddin et al. | Smart home security using facial authentication and mobile application | |
Rao | Implementation of Low Cost IoT Based Intruder Detection System by Face Recognition using Machine Learning | |
Dirgantara et al. | Design of Face Recognition Security System on Public Spaces | |
JP2012049774A (en) | Video monitoring device | |
KR101151719B1 (en) | biometrics entrance management system | |
Bharadwaj et al. | Automated Surveillance Security System Using Facial Recognition for Homes and Offices | |
Raizada et al. | Smart Lock System using IoT, Embedded & Machine Learning | |
Reddy et al. | Real time security surveillance using machine learning | |
EP4345772A1 (en) | A computer implemented method and system for identifying an event in video surveillance data | |
CN117351405B (en) | Crowd behavior analysis system and method | |
WO2023181155A1 (en) | Processing apparatus, processing method, and recording medium | |
Kaluža et al. | A probabilistic risk analysis for multimodal entry control | |
Lubna et al. | ATM weapon, fraud detection and cybercrime prediction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200916 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220118 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220622 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220715 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7108395 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |