JP2018093266A - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP2018093266A
JP2018093266A JP2016232404A JP2016232404A JP2018093266A JP 2018093266 A JP2018093266 A JP 2018093266A JP 2016232404 A JP2016232404 A JP 2016232404A JP 2016232404 A JP2016232404 A JP 2016232404A JP 2018093266 A JP2018093266 A JP 2018093266A
Authority
JP
Japan
Prior art keywords
information processing
processing apparatus
area
image
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016232404A
Other languages
Japanese (ja)
Other versions
JP6910786B2 (en
Inventor
伊藤 洋輔
Yosuke Ito
洋輔 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016232404A priority Critical patent/JP6910786B2/en
Publication of JP2018093266A publication Critical patent/JP2018093266A/en
Application granted granted Critical
Publication of JP6910786B2 publication Critical patent/JP6910786B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To appropriately set a region for accurately detecting abnormal behaviors from a monitoring object image.SOLUTION: An information processing device 40 includes: acquisition means for acquiring movement information on an imaging object in an image; and division means for dividing, on the basis of the movement information acquired by the acquisition means, a movement region of the imaging object in the image into a plurality of sub-regions corresponding to a movement inclination of the imaging object. The information processing device learns a movement of a learning object by the sub-region in the sub-regions into which the division means divided the movement region, performs an abnormal movement detection process using learning data corresponding to a sub-region, and thereby can reduce erroneous detection of abnormal movements.SELECTED DRAWING: Figure 4

Description

本発明は、情報処理装置、情報処理方法およびプログラムに関する。   The present invention relates to an information processing apparatus, an information processing method, and a program.

近年、監視システムは、アナログカメラからネットワークカメラへの移行に併せ、カメラの高解像度化、高フレームレート化および数百台を超えるカメラを用いた大規模なシステムの構築が行われている。このような監視システムは、従来の百貨店、スーパー、コンビニエンスストア、レンタルビデオ店といった一つの店舗にとどまらず、ショッピングモールや地域全体を監視することを要求されている。   In recent years, with a shift from an analog camera to a network camera, a surveillance system has been developed to have a high-resolution camera, a high frame rate, and a large-scale system using more than several hundred cameras. Such a monitoring system is required to monitor not only a single store such as a conventional department store, a supermarket, a convenience store, and a rental video store, but also a shopping mall and the entire region.

こうした中、監視カメラの画像情報から人物や車などを認識する画像解析技術が実用段階に入っており、数百台の監視カメラの画像を人に代わってシステムが自動で監視するなど、監視支援技術を用いた監視システムのニーズも高まっている。
このような監視支援技術として、特許文献1には、人間の正常行動を学習しておき、学習した正常行動から逸脱した行動を異常行動として検出する技術が開示されている。この特許文献1には、監視対象の画像中の人数に応じて、複数の学習データの中から1つの学習データを選択し、選択した学習データを用いて異常行動を検出する点が開示されている。
Under these circumstances, image analysis technology that recognizes people and cars from the image information of surveillance cameras has entered the practical stage, and the system automatically monitors the images of hundreds of surveillance cameras on behalf of people. There is a growing need for monitoring systems using technology.
As such a monitoring support technique, Patent Document 1 discloses a technique for learning a human normal behavior and detecting a behavior deviating from the learned normal behavior as an abnormal behavior. This patent document 1 discloses that one learning data is selected from a plurality of learning data according to the number of people in the monitoring target image, and abnormal behavior is detected using the selected learning data. Yes.

特開2009−266052号公報JP 2009-266052 A

しかしながら、特許文献1に記載の技術にあっては、選択された単一の学習データを用いて異常行動を検知するので、監視対象の画像中に、人物の行動傾向が異なる複数の領域が存在する場合に対応できない。
例えば、エスカレータと階段とが併設されているシーンが考えられる。階段では、利用者が階段の途中で立ち止まったり、階段を上り下りしたりすることは正常な行動である。一方、エスカレータでは、途中で利用者の移動が止まったり、利用者がエスカレータを逆走したりすることは異常な行動である。このように、異常行動と正常行動とが異なる領域が同時に存在する画像に対し、特許文献1の技術のように単一の学習データを用いた異常行動検知処理を行ってしまうと、誤検知が多く発生してしまう。
However, in the technique described in Patent Document 1, abnormal behavior is detected using the selected single learning data, and thus there are a plurality of regions in which the behavior tendency of a person is different in an image to be monitored If you do not support.
For example, a scene where an escalator and a staircase are provided can be considered. On the stairs, it is normal behavior for the user to stop in the middle of the stairs or to go up and down the stairs. On the other hand, in an escalator, it is abnormal behavior that a user stops moving on the way or the user runs backward on the escalator. Thus, if an abnormal behavior detection process using a single learning data is performed as in the technique of Patent Document 1 on an image in which regions having different abnormal behavior and normal behavior exist at the same time, false detection is performed. Many will occur.

予めシステム設定者から領域の分割指示を受け付け、分割された領域ごとに正常行動を学習できれば、精度の高い異常行動検知を行うことができるが、カメラごとに複数の領域へ分割するような設定を行うことは手間がかかる。特に、市街監視のようにカメラが数百台規模になると、その手間は膨大となる。
そこで、本発明は、監視対象画像から異常行動検知を精度良く行うための領域設定を適切に行うことを目的としている。
If an instruction to divide the area is received from the system setter in advance and normal behavior can be learned for each divided area, it is possible to detect abnormal behavior with high accuracy, but setting to divide into multiple areas for each camera. It takes a lot of work to do. In particular, when the number of cameras is several hundreds as in city monitoring, the effort is enormous.
Therefore, an object of the present invention is to appropriately perform region setting for accurately detecting abnormal behavior from a monitoring target image.

上記課題を解決するために、本発明に係る情報処理装置の一態様は、画像中の撮像対象の動き情報を取得する取得手段と、前記取得手段により取得された動き情報に基づいて、前記画像における前記撮像対象の動作領域を、前記撮像対象の動作傾向に対応した複数の部分領域に分割する分割手段と、を備える。   In order to solve the above-described problem, an aspect of the information processing apparatus according to the present invention includes an acquisition unit that acquires motion information of an imaging target in an image, and the image based on the motion information acquired by the acquisition unit. Splitting means for splitting the motion area of the imaging target in a plurality of partial areas corresponding to the motion tendency of the imaging target.

本発明によれば、監視対象画像から異常行動検知を精度良く行うための領域設定を適切に行うことができる。   According to the present invention, it is possible to appropriately perform region setting for accurately detecting abnormal behavior from a monitoring target image.

監視システムの一例を示すネットワーク構成図である。It is a network block diagram which shows an example of the monitoring system. 情報処理装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of information processing apparatus. 動作傾向が異なる複数の領域が含まれるシーンの一例である。It is an example of the scene containing the some area | region from which an operation | movement tendency differs. 情報処理装置の機能ブロック図である。It is a functional block diagram of an information processor. 学習から運用までの流れを示す概念図である。It is a conceptual diagram which shows the flow from learning to operation | use. 領域分割処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of an area | region division process. 領域分割処理における小領域への分割例である。It is an example of the division | segmentation into the small area | region in an area | region division process. 領域分割処理で使用する特徴量の一例である。It is an example of the feature-value used by area | region division processing. クラスタリング結果の一例である。It is an example of a clustering result. 異常行動検知処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of an abnormal action detection process. 異常行動検知における警告表示の一例である。It is an example of the warning display in abnormal behavior detection. 領域修正処理を加えた学習から運用までの流れを示す概念図である。It is a conceptual diagram which shows the flow from the learning which added the area | region correction process to operation. 領域修正のためのユーザインタフェースの一例である。It is an example of the user interface for area correction.

以下、添付図面を参照して、本発明を実施するための形態について詳細に説明する。
なお、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。
(第一の実施形態)
図1は、本実施形態における監視システムの動作環境の一例を示したネットワーク構成図である。本実施形態では、監視システムをネットワークカメラシステムに適用する。
ネットワークカメラシステム10は、少なくとも1台のネットワークカメラ(以下、単に「カメラ」ともいう)20と、録画サーバ装置30と、情報処理装置40と、クライアント装置50と、を備える。カメラ20、録画サーバ装置30、情報処理装置40およびクライアント装置50は、ネットワーク60によって接続されている。なお、ネットワーク60は、LAN(Local Area Network)やインターネット、WAN(Wide Area Network)などとすることができる。なお、ネットワーク60への物理的な接続形態は、有線であってもよいし、無線であってもよい。さらに、図1において、カメラ20、録画サーバ装置30、情報処理装置40およびクライアント装置50がネットワーク60に接続される台数は、図1に示す数に限定されない。
DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings.
The embodiment described below is an example as means for realizing the present invention, and should be appropriately modified or changed depending on the configuration and various conditions of the apparatus to which the present invention is applied. It is not limited to the embodiment.
(First embodiment)
FIG. 1 is a network configuration diagram showing an example of the operating environment of the monitoring system in the present embodiment. In this embodiment, the monitoring system is applied to a network camera system.
The network camera system 10 includes at least one network camera (hereinafter simply referred to as “camera”) 20, a recording server device 30, an information processing device 40, and a client device 50. The camera 20, the recording server device 30, the information processing device 40, and the client device 50 are connected by a network 60. The network 60 may be a LAN (Local Area Network), the Internet, a WAN (Wide Area Network), or the like. The physical connection form to the network 60 may be wired or wireless. Further, in FIG. 1, the number of cameras 20, the recording server device 30, the information processing device 40, and the client device 50 connected to the network 60 is not limited to the number shown in FIG.

カメラ20は、監視対象を撮像し、撮像した映像(画像)をネットワーク60経由で送信可能な撮像装置である。カメラ20は、ネットワーク60を介して録画サーバ装置30に画像を送信する。カメラ20は、大型商業施設や市街に設置することができる。録画サーバ装置30は、カメラ20から画像を受信し、受信した画像を保存すると共に、受信した画像を情報処理装置40やクライアント装置50に送信する。
情報処理装置40は、映像解析サーバである。情報処理装置40は、録画サーバ装置30から受信した画像に対して画像解析処理を実行し、解析結果をクライアント装置50に送信することができる。なお、本実施形態では、カメラ20によって撮像された画像は、録画サーバ装置30を経由して情報処理装置40に送信される場合について説明するが、情報処理装置40は、カメラ20から直接画像を受信してもよい。
The camera 20 is an imaging device capable of imaging a monitoring target and transmitting the captured video (image) via the network 60. The camera 20 transmits an image to the recording server device 30 via the network 60. The camera 20 can be installed in a large commercial facility or city. The recording server device 30 receives an image from the camera 20, stores the received image, and transmits the received image to the information processing device 40 and the client device 50.
The information processing apparatus 40 is a video analysis server. The information processing device 40 can perform image analysis processing on the image received from the recording server device 30 and transmit the analysis result to the client device 50. In this embodiment, the case where an image captured by the camera 20 is transmitted to the information processing apparatus 40 via the recording server apparatus 30 will be described. However, the information processing apparatus 40 directly receives an image from the camera 20. You may receive it.

クライアント装置50は、例えばパーソナルコンピュータ(PC)により構成することができる。本実施形態では、クライアント装置50は、例えば警備室に配備されているオペレータが情報処理装置40の解析結果を参照するための端末とする。クライアント装置50は、PCに限定されるものではなく、タブレット端末などでも代用可能である。クライアント装置50は、オペレータからの指示を受け付けて、その指示に基づいて情報処理装置40から解析結果を取得する機能を有していてもよい。また、クライアント装置50は、オペレータからの要求を受け付けて、その要求に基づいて録画サーバ装置30に録画の指示を行う機能を有していてもよい。
なお、本実施形態では、録画サーバ装置30および情報処理装置40は、オンプレミスのサーバ上に構築するものとして説明する。ただし、上記に限ったものではなく、これらの装置をクラウドコンピューティング基盤上で構築するようにしてもよい。
The client device 50 can be configured by a personal computer (PC), for example. In the present embodiment, the client device 50 is a terminal for an operator deployed in a security room to refer to the analysis result of the information processing device 40, for example. The client device 50 is not limited to a PC, and a tablet terminal or the like can be used instead. The client device 50 may have a function of receiving an instruction from an operator and acquiring an analysis result from the information processing device 40 based on the instruction. Further, the client device 50 may have a function of receiving a request from an operator and instructing the recording server device 30 to perform recording based on the request.
In the present embodiment, the recording server device 30 and the information processing device 40 are described as being built on an on-premises server. However, the present invention is not limited to the above, and these devices may be constructed on a cloud computing platform.

図2は、情報処理装置40のハードウェア構成の一例を示す図である。
情報処理装置40は、CPU41と、RAM42と、ROM43と、HDD44と、出力装置45と、入力装置46と、通信装置47と、システムバス48とを備える。
CPU41は、情報処理装置40における動作を統括的に制御するプロセッサであり、システムバス48を介して、各構成部(42〜47)を制御する。RAM42は、ROM43やHDD44からロードされたプログラムやデータを一時的に記憶するための領域を有する。さらに、RAM42は、通信装置47を介して外部装置から受信したデータを一時的に記憶するためのエリアを有する。また、RAM42は、CPU41が各処理を実行する際に用いるワークエリアも有する。
FIG. 2 is a diagram illustrating an example of a hardware configuration of the information processing apparatus 40.
The information processing apparatus 40 includes a CPU 41, a RAM 42, a ROM 43, an HDD 44, an output device 45, an input device 46, a communication device 47, and a system bus 48.
The CPU 41 is a processor that comprehensively controls the operation of the information processing apparatus 40, and controls each component (42 to 47) via the system bus 48. The RAM 42 has an area for temporarily storing programs and data loaded from the ROM 43 and the HDD 44. Further, the RAM 42 has an area for temporarily storing data received from an external device via the communication device 47. The RAM 42 also has a work area used when the CPU 41 executes each process.

ROM43は、CPU41が画像解析処理を実行するために必要な画像解析プログラム等を記憶する不揮発性メモリである。この画像解析プログラムは、OS(オペレーティングシステム)上で動作するアプリケーションプログラムであってよい。なお、当該プログラムは、HDD44や不図示の記録媒体に記録されていてもよい。CPU41は、OSとアプリケーションプログラムとをROM43あるいはHDD44から読み出してRAM42にロードし、実行することで各種の機能動作を実現することができる。   The ROM 43 is a non-volatile memory that stores an image analysis program and the like necessary for the CPU 41 to execute image analysis processing. This image analysis program may be an application program that runs on an OS (operating system). The program may be recorded on the HDD 44 or a recording medium (not shown). The CPU 41 can implement various functional operations by reading the OS and application programs from the ROM 43 or the HDD 44, loading them into the RAM 42, and executing them.

出力装置45は、各種処理結果やユーザインタフェース画面(UI画面)を表示するモニタにより構成される。入力装置46は、キーボードやマウス等のポインティングデバイス、タッチパネル等により構成することができる。情報処理装置40のユーザ(例えば、システム設定者)は、入力装置46を操作して情報処理装置40に対して指示を入力することができる。通信装置47は、ネットワーク60に接続された外部装置と通信するためのインタフェースである。システムバス48は、CPU41、RAM42、ROM43、HDD44、出力装置45、入力装置46および通信装置47を通信可能に接続する。
なお、録画サーバ装置30やクライアント装置50も、図2と同様のハードウェア構成を有することができる。
The output device 45 includes a monitor that displays various processing results and a user interface screen (UI screen). The input device 46 can be configured by a pointing device such as a keyboard and a mouse, a touch panel, and the like. A user of the information processing apparatus 40 (for example, a system setting person) can input an instruction to the information processing apparatus 40 by operating the input device 46. The communication device 47 is an interface for communicating with an external device connected to the network 60. The system bus 48 connects the CPU 41, the RAM 42, the ROM 43, the HDD 44, the output device 45, the input device 46, and the communication device 47 so that they can communicate with each other.
The recording server device 30 and the client device 50 can also have the same hardware configuration as that in FIG.

本実施形態では、情報処理装置40は、上記の画像解析処理として、画像中の監視対象の正常動作から逸脱した動作である異常動作を検知する異常動作検知処理を行い、その処理結果をクライアント装置50の表示画面に表示させる表示制御の機能を有する。本実施形態では、監視対象は人間であり、情報処理装置40は、画像中の人間の異常行動を検知する異常行動検知処理を実行する場合について説明する。   In the present embodiment, the information processing apparatus 40 performs an abnormal operation detection process that detects an abnormal operation that is an operation deviating from the normal operation of the monitoring target in the image as the image analysis process, and the processing result is transmitted to the client device. 50 has a display control function to be displayed on the display screen. In the present embodiment, a case where the monitoring target is a human and the information processing apparatus 40 executes an abnormal behavior detection process for detecting a human abnormal behavior in an image will be described.

また、情報処理装置40は、画像解析処理に先立って、画像中の撮像対象の動作を学習する学習処理を行い、画像解析処理に用いる学習データを生成する機能を有する。本実施形態では、撮像対象は人間であり、学習処理における学習対象の動作は、正常動作(正常行動)である場合について説明する。つまり、本実施形態において、異常行動検知処理は、予め正常行動が撮像されている画像から人間の正常行動を学習して得られた学習データを用いて、画像中の人間の異常行動を検知する処理である。   In addition, the information processing apparatus 40 has a function of performing learning processing for learning the operation of an imaging target in an image and generating learning data used for the image analysis processing prior to the image analysis processing. In the present embodiment, a case will be described in which the imaging target is a human and the learning target operation in the learning process is a normal operation (normal behavior). That is, in the present embodiment, the abnormal behavior detection process detects the abnormal behavior of the human in the image using learning data obtained by learning the normal behavior of the human from an image in which the normal behavior is captured in advance. It is processing.

異常行動ではなく正常行動を学習する方式のメリットは、正常行動から外れた行動をすべて異常行動として検知できることにある。また、異常行動を学習する場合には、異常行動を実際に起こして学習させなければならないため、学習の手間がかかるが、正常行動を学習する場合はその手間を省くことができる。一方で、正常行動を学習する方式のデメリットは、異常行動の種類を検知できないことにある。
なお、本実施形態では、正常行動を学習する場合について説明するが、異常行動を学習する場合でも適用可能である。
The merit of the method of learning normal behavior instead of abnormal behavior is that all behaviors deviating from normal behavior can be detected as abnormal behavior. Further, when learning an abnormal behavior, it is necessary to actually cause the abnormal behavior to be learned, which takes time for learning. However, when learning a normal behavior, the time can be saved. On the other hand, a disadvantage of the method of learning normal behavior is that the type of abnormal behavior cannot be detected.
In addition, although this embodiment demonstrates the case where a normal action is learned, it is applicable also when learning an abnormal action.

図3は、異常行動検知処理の対象となる画像の一例である。この図3に示すシーンは、人間の行動傾向が異なる複数の領域が含まれるシーンの一例である。ここで、人間の行動傾向とは、階段なら上り下り、通路なら双方向通行、広場ならランダムな方向への移動といった、領域ごとに想定される人間の動きの傾向である。
画像100には、階段101と上りのエスカレータ102とが撮像されている。階段101では、利用者はそれぞれ上りまたは下りで移動する。また、利用者は、階段101の途中で立ち止まったり、階段101の途中で引き返したりし得る。一方で、エスカレータ102では、利用者は基本的に一方向(例えば、上昇する方向)に移動する。
FIG. 3 is an example of an image to be subjected to the abnormal behavior detection process. The scene shown in FIG. 3 is an example of a scene including a plurality of regions having different human behavior tendencies. Here, the human behavior tendency is a tendency of human movement assumed for each region, such as going up and down for stairs, two-way traffic for passages, and movement in a random direction for squares.
In the image 100, a staircase 101 and an up escalator 102 are captured. On the stairs 101, the user moves up or down, respectively. Also, the user can stop in the middle of the stairs 101 or turn back in the middle of the stairs 101. On the other hand, on the escalator 102, the user basically moves in one direction (for example, the ascending direction).

エスカレータ102では、例えば利用者が逆走した場合に怪我などを伴うため、利用者が下降する方向に移動した場合に異常として検知できることが望ましい。しかしながら、階段101では上り、下りの双方向で利用者が移動するため、エスカレータ102と同様に利用者が下降する方向に移動した場合に異常として検知されると、不所望な異常検知が通知されてしまう。つまり、階段101に対応する領域とエスカレータ102に対応する領域とで同一の学習データを用いて異常行動を検知すると、誤検知が多く発生してしまう。   In the escalator 102, for example, an injury or the like is accompanied when the user runs backward, and therefore it is desirable that the escalator 102 can detect an abnormality when the user moves in a descending direction. However, because the user moves up and down on the stairs 101, if the user moves in the descending direction like the escalator 102 and an abnormality is detected, an undesirable abnormality detection is notified. End up. That is, if an abnormal behavior is detected using the same learning data in the area corresponding to the stairs 101 and the area corresponding to the escalator 102, many false detections occur.

そこで、本実施形態では、1つの画像に撮像対象の動作傾向が異なる複数の領域が含まれる場合を考慮し、画像中の撮像対象の動き情報に基づいて、画像における撮像対象の動作領域を、撮像対象の動作傾向に対応した複数の部分領域に自動的に分割する。そして、分割した部分領域ごとに異なる学習データを用いて異常行動検知を行う。
図4は、情報処理装置40の機能構成を示すブロック図である。情報処理装置40は、映像取得部401と、人体検出部402と、領域分割部403と、学習部404と、学習データ記憶部405と、領域判定部406と、異常行動検知部407と、警告通知部408と、領域データ記憶部409と、を備える。この図4に示す情報処理装置40の各部の機能は、CPU41がプログラムを実行することで実現され得る。ただし、図4で示す各要素のうち少なくとも一部が専用のハードウェアとして動作するようにしてもよい。この場合、専用のハードウェアは、CPU41の制御に基づいて動作する。
Therefore, in the present embodiment, considering the case where a plurality of regions having different motion trends of the imaging target are included in one image, the motion region of the imaging target in the image is determined based on the motion information of the imaging target in the image. It is automatically divided into a plurality of partial areas corresponding to the movement tendency of the imaging target. Then, abnormal behavior detection is performed using different learning data for each divided partial region.
FIG. 4 is a block diagram illustrating a functional configuration of the information processing apparatus 40. The information processing apparatus 40 includes a video acquisition unit 401, a human body detection unit 402, a region division unit 403, a learning unit 404, a learning data storage unit 405, a region determination unit 406, an abnormal behavior detection unit 407, a warning A notification unit 408 and an area data storage unit 409 are provided. The function of each unit of the information processing apparatus 40 shown in FIG. 4 can be realized by the CPU 41 executing a program. However, at least some of the elements shown in FIG. 4 may operate as dedicated hardware. In this case, the dedicated hardware operates based on the control of the CPU 41.

映像取得部401は、録画サーバ装置30から画像を取得し、取得した画像を人体検出部402に出力する。人体検出部402は、映像取得部401から入力した画像から人体を検出し、画像上の人体の座標、幅、高さ、移動方向、移動速度といった人体情報を出力する。なお、本実施形態では、人体検出部402が人体を検出する場合について説明するが、特定の人物の顔を検出するようにしてもよい。また、監視対象が人間以外の特定の物体である場合には、人体検出部402は上記物体を検出する物体検出部とすることができる。   The video acquisition unit 401 acquires an image from the recording server device 30 and outputs the acquired image to the human body detection unit 402. The human body detection unit 402 detects a human body from the image input from the video acquisition unit 401 and outputs human body information such as the coordinates, width, height, movement direction, and movement speed of the human body on the image. In the present embodiment, the case where the human body detection unit 402 detects a human body will be described. However, a face of a specific person may be detected. When the monitoring target is a specific object other than a human, the human body detection unit 402 can be an object detection unit that detects the object.

領域分割部403は、人体検出部402により検出された人体の動き情報(移動方向、移動速度)を集計し、画像の領域分割を行う。ここで、領域分割部403は、画像における人体の動作領域を、人体の行動傾向に対応した複数の部分領域に分割する領域分割処理を行う。そして、領域分割部403は、領域分割の結果を、領域データとして領域データ記憶部409に出力する。領域データは、領域分割により分割された各部分領域を示すデータであり、カメラ20ごとに生成される。領域データの例については後述する。領域データ記憶部409は、領域データを、例えばRAM42やHDD44の領域データ記憶領域に保存する。   The area dividing unit 403 aggregates human body motion information (movement direction and movement speed) detected by the human body detection unit 402 and performs image area division. Here, the area dividing unit 403 performs an area dividing process for dividing the motion area of the human body in the image into a plurality of partial areas corresponding to the behavior tendency of the human body. Then, the area dividing unit 403 outputs the result of area division to the area data storage unit 409 as area data. The area data is data indicating each partial area divided by area division, and is generated for each camera 20. An example of the area data will be described later. The area data storage unit 409 stores the area data in an area data storage area of the RAM 42 or the HDD 44, for example.

学習部404は、領域データを参照して学習処理を行い、領域分割処理により分割された部分領域ごとに学習データを生成する。具体的には、学習部404は、正常行動が撮像された画像をもとに、部分領域ごとに人間の正常行動を学習し、複数の部分領域にそれぞれ対応した学習データを生成する。そして、学習部404は、生成された複数の学習データを学習データ記憶部405に出力する。
学習データは、画像から抽出した、部分領域ごとの特徴量により構成することができる。特徴量としては、例えば動画像中の物体の動作特徴を表現可能な立体高次局所自己相関特徴(Cubic Higher-order Local Auto-Correlation:CHLAC)を用いることができる。なお、CHLACのように時系列で特徴量を扱う場合、複数フレームに亘って特徴量を取得する必要がある。そのため、人の行動が収まる程度の大きさの人体領域について、特徴量を取得するものとする。
The learning unit 404 performs learning processing with reference to the region data, and generates learning data for each partial region divided by the region division processing. Specifically, the learning unit 404 learns human normal behavior for each partial region based on an image of normal behavior captured, and generates learning data corresponding to each of the partial regions. Then, the learning unit 404 outputs the generated plurality of learning data to the learning data storage unit 405.
The learning data can be composed of feature amounts for each partial region extracted from the image. As the feature amount, for example, cubic higher-order local auto-correlation (CHLAC) capable of expressing the motion feature of an object in a moving image can be used. Note that when handling feature quantities in time series as in CHLAC, it is necessary to acquire feature quantities over a plurality of frames. Therefore, it is assumed that a feature amount is acquired for a human body region that is large enough to accommodate human behavior.

学習データ記憶部405は、学習データを、例えばRAM42やHDD44の学習データ記憶領域に保存する。領域判定部406は、領域データを参照し、異常行動の監視対象である人体が、領域分割部403により分割されたどの部分領域に存在するかを判定する。異常行動検知部407は、領域判定部406により判定された部分領域に対応する学習データを用いて、監視対象の異常行動を検知する。
警告通知部408は、異常行動検知部407により異常行動が検知された場合に、クライアント装置50に対して異常行動を検知した旨を通知する。通知を受け取ったクライアント装置50は、表示画面に異常行動が発生した旨を表示する。これにより、警備室にいるオペレータは、クライアント装置50を介して異常が発生したことを認識することができる。クライアント装置50における表示例については後述する。
The learning data storage unit 405 stores the learning data in a learning data storage area of the RAM 42 or the HDD 44, for example. The area determination unit 406 refers to the area data and determines in which partial area the human body that is the monitoring target of the abnormal behavior is divided by the area dividing unit 403. The abnormal behavior detection unit 407 detects the abnormal behavior to be monitored using the learning data corresponding to the partial region determined by the region determination unit 406.
The warning notification unit 408 notifies the client device 50 that the abnormal behavior has been detected when the abnormal behavior detection unit 407 detects the abnormal behavior. The client device 50 that has received the notification displays on the display screen that abnormal behavior has occurred. Thereby, the operator in the security room can recognize that an abnormality has occurred via the client device 50. A display example in the client device 50 will be described later.

次に、情報処理装置40が正常行動を学習し、異常行動検知を実行するまでの流れを、図5を用いて説明する。以降、アルファベットSはフローチャートにおけるステップを意味するものとする。
まず、カメラ20は、所定期間(数時間〜数日間)、実際に人が行動する様子を撮像し、撮像した画像を録画サーバ装置30に録画する。そして、情報処理装置40は、録画された画像をもとに領域分割処理および学習処理を行う。これを「学習フェーズ」と呼ぶ。次に、情報処理装置40は、学習フェーズにより生成された学習データを用いて異常行動検知を行う。これを「運用フェーズ」と呼ぶ。
Next, a flow until the information processing apparatus 40 learns normal behavior and executes abnormal behavior detection will be described with reference to FIG. Hereinafter, the alphabet S means a step in the flowchart.
First, the camera 20 captures an actual behavior of a person for a predetermined period (several hours to several days), and records the captured image on the recording server device 30. Then, the information processing apparatus 40 performs region division processing and learning processing based on the recorded image. This is called the “learning phase”. Next, the information processing apparatus 40 performs abnormal behavior detection using the learning data generated in the learning phase. This is called the “operational phase”.

S1では、録画サーバ装置30は、カメラ20により撮像された実際に人が通過する様子を、所定期間(数時間〜数日間)録画する。次に、S2では、情報処理装置40は、S1において録画された所定期間(数時間〜数日間)の画像をもとに、画像を人の行動傾向に応じた複数の部分領域に分割する領域分割処理を行う。次に、S3では、情報処理装置40は、領域分割処理により分割された部分領域ごとに学習データを生成する。情報処理装置40は、領域分割処理において使用した上記所定期間の画像のみを用いて学習データを生成してもよいし、精度向上のために、追加で数日間録画した画像を用いて学習データを生成してもよい。S1からS3の処理が、学習フェーズにおける処理である。   In S <b> 1, the recording server device 30 records a state in which a person actually captured by the camera 20 passes for a predetermined period (several hours to several days). Next, in S <b> 2, the information processing apparatus 40 divides the image into a plurality of partial regions according to the human behavior tendency based on the image of the predetermined period (several hours to several days) recorded in S <b> 1. Split processing is performed. Next, in S <b> 3, the information processing apparatus 40 generates learning data for each partial region divided by the region dividing process. The information processing apparatus 40 may generate the learning data using only the image of the predetermined period used in the region division processing, or the learning data may be generated using an image recorded for an additional several days to improve accuracy. It may be generated. The processing from S1 to S3 is processing in the learning phase.

S4では、情報処理装置40は、学習フェーズにおいて生成された学習データを用いて、監視対象となる画像に対して異常行動を検知する異常行動検知処理を行う。
以下、情報処理装置40が図5のS2において実行する領域分割処理について、図6〜図9を参照しながら詳細に説明する。
図6に示す処理は、例えば情報処理装置40がユーザからの処理の開始指示を受け付けたタイミングで開始される。ただし、図6の処理の開始タイミングは、上記のタイミングに限らない。情報処理装置40は、CPU41が必要なプログラムを読み出して実行することにより、図6に示す各処理を実現することができる。ただし、上述したように、図4に示す各要素のうち少なくとも一部が専用のハードウェアとして動作することで図6の処理が実現されるようにしてもよい。この場合、専用のハードウェアは、CPU41の制御に基づいて動作する。
In S <b> 4, the information processing apparatus 40 performs an abnormal action detection process for detecting an abnormal action on an image to be monitored using the learning data generated in the learning phase.
Hereinafter, the region division processing executed by the information processing apparatus 40 in S2 of FIG. 5 will be described in detail with reference to FIGS.
The process illustrated in FIG. 6 is started, for example, at a timing when the information processing apparatus 40 receives a process start instruction from the user. However, the start timing of the process of FIG. 6 is not limited to the above timing. The information processing apparatus 40 can implement each process illustrated in FIG. 6 by the CPU 41 reading and executing a necessary program. However, as described above, the processing of FIG. 6 may be realized by operating at least a part of each element shown in FIG. 4 as dedicated hardware. In this case, the dedicated hardware operates based on the control of the CPU 41.

S21では、領域分割部403は、画像を部分領域以下の大きさとなる複数の領域(小領域)に分割する。図7は、図3で示したシーンを小領域に分割した例である。図7の例では、小領域110のサイズを所定の固定サイズで設定している。なお、小領域110のサイズは、プログラムの設定ファイル等で予め設定しておいてもよいし、システム設定者から入力を受け付けて設定してもよい。また、小領域110のサイズは、画面手前ではサイズを大きくし、画面奥ではサイズを小さくする、といったように可変でもよい。   In S <b> 21, the area dividing unit 403 divides the image into a plurality of areas (small areas) having a size equal to or smaller than the partial area. FIG. 7 shows an example in which the scene shown in FIG. 3 is divided into small areas. In the example of FIG. 7, the size of the small area 110 is set to a predetermined fixed size. Note that the size of the small area 110 may be set in advance in a program setting file or the like, or may be set by receiving an input from a system setting person. Further, the size of the small area 110 may be variable, such as increasing the size in front of the screen and decreasing the size in the back of the screen.

S22では、領域分割部403は、所定期間(数時間〜数日間)録画された画像に対して、小領域110ごとに特徴量を算出する。本実施形態では、領域分割部403は、人体検出部402によって検出された人体の動き情報である移動方向を集計し、移動方向の発生頻度を特徴量として用いることができる。特徴量の一例を図8に示す。
図8(A)は、人体が移動し得る方向に番号を振った概念図である。ここでは、人体の移動方向として16方向を設定したが、より多くの方向または少ない方向を設定してもよい。図8(B)は、2つの小領域111および112に関し、特徴量を算出した結果を示している。特徴量111aは小領域111の特徴量であり、特徴量112aは小領域112の特徴量である。小領域111は、上昇するエスカレータに対応した領域であるため、特徴量111aとしては方向1の発生頻度が高く現れる。これに対して小領域112は、階段に対応した領域であるため、利用者の移動方向は上り下りの双方向があり、また直進して歩かない利用者も存在する。そのため、特徴量112aとしては方向1周辺や、方向9周辺に発生頻度が高く現れる。
In S <b> 22, the area dividing unit 403 calculates a feature amount for each small area 110 with respect to an image recorded for a predetermined period (several hours to several days). In the present embodiment, the region dividing unit 403 can add up the movement direction that is the movement information of the human body detected by the human body detection unit 402 and use the occurrence frequency of the movement direction as a feature amount. An example of the feature amount is shown in FIG.
FIG. 8A is a conceptual diagram in which numbers are assigned in directions in which the human body can move. Here, 16 directions are set as the moving direction of the human body, but more or fewer directions may be set. FIG. 8B shows the result of calculating the feature amount for the two small regions 111 and 112. The feature amount 111a is a feature amount of the small region 111, and the feature amount 112a is a feature amount of the small region 112. Since the small region 111 is a region corresponding to the rising escalator, the occurrence frequency of the direction 1 appears high as the feature amount 111a. On the other hand, since the small area 112 is an area corresponding to a staircase, the moving direction of the user is bidirectional up and down, and there are also users who do not walk straight ahead. For this reason, as the feature amount 112a, a high occurrence frequency appears around direction 1 and around direction 9.

S23では、領域分割部403は、小領域110ごとの特徴量に基づいて、画像から移動する人体が存在しない小領域110を除外することで、人体の動作領域を導出する。このS23の処理は、人体が通らない小領域110を、後述するS25のクラスタリング対象から除外する処理である。S24では、領域分割部403は、クラスタ数を設定する。クラスタ数は、システム設定者から受け付けるようにしてもよいし、予め設定された固定値であってもよい。   In S <b> 23, the region dividing unit 403 derives the motion region of the human body by excluding the small region 110 where the moving human body does not exist from the image based on the feature amount for each small region 110. The process of S23 is a process of excluding the small area 110 through which a human body does not pass from the clustering target of S25 described later. In S24, the area dividing unit 403 sets the number of clusters. The number of clusters may be received from the system setter, or may be a fixed value set in advance.

S25では、領域分割部403は、S23における領域除外後の小領域110を、各小領域110の特徴量をもとに、S24において設定されたクラスタ数となるようクラスタリングする。クラスタリングには、例えばk−means法などの教師なし学習を用いることができる。クラスタリングにより得られた領域分割結果の例を図9に示す。
図9(A)は元画像、図9(B)は領域分割の結果得られた領域データ120である。図9(B)において、同じインデックスが付与された小領域は、分割された1つの部分領域に対応している。図9(B)は、クラスタ数を2とし、0:人体が通らなかった領域、1:階段に対応する領域、2:エスカレータに対応する領域というインデックスが付与された部分領域に分割された例を示している。領域データ120は、各小領域の情報(左上座標、幅、高さ、インデックス)を含んで構成される。
In S <b> 25, the region dividing unit 403 clusters the small regions 110 after the region exclusion in S <b> 23 so that the number of clusters set in S <b> 24 is reached based on the feature amount of each small region 110. For the clustering, unsupervised learning such as the k-means method can be used. An example of the region division result obtained by clustering is shown in FIG.
FIG. 9A shows an original image, and FIG. 9B shows area data 120 obtained as a result of area division. In FIG. 9B, a small area to which the same index is assigned corresponds to one divided partial area. FIG. 9B shows an example in which the number of clusters is 2, and 0: an area where a human body has not passed, 1: an area corresponding to a staircase, and 2: an area corresponding to an escalator, which is divided into partial areas. Is shown. The area data 120 includes information (upper left coordinates, width, height, index) of each small area.

以上のように、領域分割部403は、小領域ごとの動き情報に関する特徴量をクラスタリングすることで、人体の行動傾向が同一または類似している小領域の集合を、行動傾向に対応した部分領域として導出する。また、領域分割部403は、人が通らない小領域110をクラスタリングの対象から除外した後、クラスタリングを行う。そのため、クラスタ数が2である場合に、画像が「人が通らない領域」と「人が通る領域」とで分割されることを防止し、「人が通る領域」である動作領域を、複数の部分領域に分割することができる。   As described above, the region dividing unit 403 performs clustering of the feature amounts related to the motion information for each small region, so that a set of small regions having the same or similar behavior tendency of the human body is obtained as a partial region corresponding to the behavior tendency. Derived as In addition, the region dividing unit 403 performs clustering after excluding the small region 110 through which people cannot pass from the clustering target. For this reason, when the number of clusters is 2, the image is prevented from being divided into “regions through which people cannot pass” and “regions through which people pass”, and a plurality of operation regions that are “regions through which people pass” Can be divided into subregions.

なお、S22における特徴量の算出処理において、人体の動き情報として人体の移動方向のみを用いる場合について説明したが、動き情報は移動方向のみに限定されない。例えば、撮像シーンに、一方通行の階段と、階段において通行が許可された方向と同じ方向に移動するエスカレータとが映っている場合、階段に対応する小領域とエスカレータに対応する小領域とでは人体の移動方向に基づく特徴量の算出結果はほぼ同じになる。そのため、人体の動き情報として移動方向のみを用いた場合、階段に対応する領域とエスカレータに対応する領域とを分割できない。そこで、人体の動き情報として、人体の移動速度を追加し、移動速度のばらつきを特徴量に加えるようにしてもよい。
また、S25では、S24により設定された所定のクラスタ数に従ってクラスタリングを行う場合について説明したが、x−means法などによりクラスタ数を自動で決定するようにしてもよい。
In addition, although the case where only the moving direction of the human body is used as the human body motion information in the feature amount calculation processing in S22 has been described, the motion information is not limited to the moving direction. For example, if the imaging scene shows a one-way staircase and an escalator that moves in the same direction as the passage of the staircase, the human body is divided into a small area corresponding to the staircase and a small area corresponding to the escalator. The calculation result of the feature amount based on the moving direction of is substantially the same. Therefore, when only the moving direction is used as the human body motion information, the area corresponding to the stairs and the area corresponding to the escalator cannot be divided. Therefore, the movement speed of the human body may be added as the movement information of the human body, and the variation in the movement speed may be added to the feature amount.
In S25, the case of performing clustering according to the predetermined number of clusters set in S24 has been described. However, the number of clusters may be automatically determined by the x-means method or the like.

次に、情報処理装置40が図5のS4において実行する異常行動検知処理について、図10を参照しながら説明する。
図10に示す処理は、例えば情報処理装置40が監視対象となる画像を取得したタイミングで開始される。ただし、図10の処理の開始タイミングは、上記のタイミングに限らない。情報処理装置40は、CPU41が必要なプログラムを読み出して実行することにより、図10に示す各処理を実現することができる。ただし、上述したように、図4に示す各要素のうち少なくとも一部が専用のハードウェアとして動作することで図10の処理が実現されるようにしてもよい。この場合、専用のハードウェアは、CPU41の制御に基づいて動作する。
Next, the abnormal behavior detection process executed by the information processing apparatus 40 in S4 of FIG. 5 will be described with reference to FIG.
The process illustrated in FIG. 10 is started at a timing when the information processing apparatus 40 acquires an image to be monitored, for example. However, the start timing of the process of FIG. 10 is not limited to the above timing. The information processing apparatus 40 can implement each process illustrated in FIG. 10 by the CPU 41 reading and executing a necessary program. However, as described above, at least a part of each element shown in FIG. 4 may operate as dedicated hardware so that the processing in FIG. 10 is realized. In this case, the dedicated hardware operates based on the control of the CPU 41.

情報処理装置40は、カメラ20ごとに、所定フレーム(例えば30フレーム)の画像を入力し、図10に示すフローチャートに従って異常行動検知処理を実行する。
S41では、人体検出部402は、画像に撮像された人体を検出し、人体情報(画像上の人体の座標、幅、高さ)を出力する。S42では、領域判定部406は、領域データ120を参照し、S41において検出された人体が、それぞれどの部分領域に存在するかを判定する。ここで、人体が複数の部分領域に跨って存在する場合には、より多くの面積が跨っている部分領域を選択する。
The information processing apparatus 40 inputs an image of a predetermined frame (for example, 30 frames) for each camera 20 and executes abnormal behavior detection processing according to the flowchart shown in FIG.
In S41, the human body detection unit 402 detects the human body imaged in the image and outputs human body information (coordinates, widths, and heights of the human body on the image). In S42, the region determination unit 406 refers to the region data 120 and determines in which partial region the human body detected in S41 exists. Here, when a human body exists over a plurality of partial regions, a partial region over which more areas are straddled is selected.

S43では、異常行動検知部407は、S41において検出された人体について、それぞれ異常行動のスコアを算出する。まず、異常行動検知部407は、検出された人体に関して、それぞれ異常行動を検知するための特徴量を抽出する。ここで抽出される特徴量は、学習データを構成する特徴量と同様であり、例えばCHLACなどを用いることができる。そして、異常行動検知部407は、検出された人体の特徴量と、検出された人体が存在する部分領域に対応する学習データ(特徴量)との距離を、当該人体の異常行動のスコアとして算出する。   In S43, the abnormal behavior detecting unit 407 calculates the abnormal behavior score for each of the human bodies detected in S41. First, the abnormal behavior detection unit 407 extracts feature amounts for detecting abnormal behavior with respect to the detected human body. The feature amount extracted here is the same as the feature amount constituting the learning data, and for example, CHLAC or the like can be used. Then, the abnormal behavior detection unit 407 calculates the distance between the detected feature quantity of the human body and the learning data (feature quantity) corresponding to the partial region where the detected human body exists as a score of the abnormal behavior of the human body. To do.

S44では、異常行動検知部407は、S43において算出された異常行動のスコアが閾値以上であるか否かを判定する。そして、異常行動のスコアが閾値以上である場合にはS45に移行し、異常行動のスコアが閾値を下回っている場合にはそのまま処理を終了する。
S45では、警告通知部408は、クライアント装置50に対して異常行動を検知した旨を通知する。通知の際には、異常行動を撮像したカメラ20の識別情報(例えばID)や、異常行動が発生した画像上の位置情報(例えば座標)なども送信する。当該通知を受信したクライアント装置50は、表示画面に警告表示を行う。これにより、警備室に配備されているオペレータは、異常行動が発生したことを把握することができる。クライアント装置50における表示画面の表示例を図11に示す。
In S44, the abnormal behavior detecting unit 407 determines whether or not the abnormal behavior score calculated in S43 is equal to or greater than a threshold value. If the abnormal behavior score is equal to or greater than the threshold value, the process proceeds to S45. If the abnormal behavior score is lower than the threshold value, the process ends.
In S45, the warning notification unit 408 notifies the client device 50 that abnormal behavior has been detected. At the time of notification, identification information (for example, ID) of the camera 20 that has imaged the abnormal behavior, position information (for example, coordinates) on the image where the abnormal behavior has occurred, and the like are also transmitted. The client device 50 that has received the notification displays a warning on the display screen. Thereby, the operator deployed in the security room can grasp that abnormal behavior has occurred. A display example of the display screen in the client device 50 is shown in FIG.

図11(A)は、異常行動が発生してない状況における表示画面200の一例である。表示画面200は、映像表示部201と、地図表示部202と、を備える。映像表示部201は、複数(図11では9台)のカメラ20のライブビュー映像をタイル状に配置して表示する。地図表示部202は、カメラ20が設置されている建物の地図と共に、どのカメラ20が建物内のどこに設置されているかを表示する。
図11(B)は、異常行動が発生した状況における表示画面200の一例である。表示画面200は、映像表示部201中に、異常行動を撮像したカメラ20の映像を拡大して表示する拡大表示部203を備える。拡大表示部203では、図11(B)に示すように、画像中のどの位置で異常行動が発生したのかを視認可能に表示してもよい。
FIG. 11A is an example of the display screen 200 in a situation where no abnormal behavior has occurred. The display screen 200 includes a video display unit 201 and a map display unit 202. The video display unit 201 displays live view videos of a plurality (9 in FIG. 11) of cameras 20 arranged in a tile shape. The map display unit 202 displays which camera 20 is installed in the building along with a map of the building in which the camera 20 is installed.
FIG. 11B is an example of the display screen 200 in a situation where abnormal behavior has occurred. The display screen 200 includes, in the video display unit 201, an enlarged display unit 203 that displays an enlarged video of the camera 20 that has captured the abnormal behavior. In the enlarged display portion 203, as shown in FIG. 11B, the position where the abnormal action has occurred in the image may be displayed so as to be visible.

また、地図表示部202では、異常行動を撮像したカメラ20の建物内における設置位置を、地図上で表示する。例えば、建物の1階に設置されたカメラ20が異常行動を撮像した場合、図11(B)に示すように、そのカメラ20の設置位置に対応する位置にマーカー204を表示してもよい。このような表示により、警備室に配備されているオペレータは、建物内のどこで異常行動が発生したのかを容易に把握することができ、必要に応じて迅速に現場に向かうことが可能となる。   In addition, the map display unit 202 displays the installation position of the camera 20 that captured the abnormal behavior in the building on the map. For example, when the camera 20 installed on the first floor of the building images abnormal behavior, the marker 204 may be displayed at a position corresponding to the installation position of the camera 20 as shown in FIG. With such a display, an operator deployed in the security room can easily grasp where the abnormal behavior has occurred in the building, and can quickly go to the site as necessary.

以上のように、本実施形態における情報処理装置40は、画像中の撮像対象の動き情報を取得し、取得された動き情報に基づいて、画像における撮像対象の動作領域を、撮像対象の動作傾向に対応した複数の部分領域に分割する。撮像対象を人体とした場合、情報処理装置40は、画像中の人体の動き情報に基づいて、画像における人体の動作領域を、人体の行動傾向に対応した複数の部分領域に分割する。このように、情報処理装置40は、1つのシーンに動作傾向(行動傾向)が異なる複数の領域が含まれる場合、自動的に領域分割を行うことが可能である。したがって、システム設定時にシステム設定者が領域分割を行う手間を省くことができる。   As described above, the information processing apparatus 40 according to the present embodiment acquires the motion information of the imaging target in the image, and the motion area of the imaging target in the image is determined based on the acquired motion information. Is divided into a plurality of partial areas corresponding to. When the imaging target is a human body, the information processing apparatus 40 divides the human body motion area in the image into a plurality of partial areas corresponding to the human body behavior tendency based on the motion information of the human body in the image. As described above, the information processing apparatus 40 can automatically perform region division when a plurality of regions having different motion tendencies (behavior tendencies) are included in one scene. Therefore, it is possible to save time and labor for the system setter to divide the area when setting the system.

上記動き情報は、人体の移動方向に関する情報とすることができる。エスカレータと階段とが併設されているシーンの場合、通常、エスカレータに対応する領域では、利用者は一定方向に移動し、階段に対応する領域では、利用者は双方向に移動する。したがって、動き情報として移動方向に関する情報を用いれば、適切にエスカレータに対応する領域と階段に対応する領域とを分割することができる。例えば、上りエスカレータと下りエスカレータとが併設されているシーンや、エスカレータと通路とが併設されているシーンについても同様である。   The movement information can be information related to the moving direction of the human body. In a scene where an escalator and a staircase are provided side by side, a user usually moves in a certain direction in an area corresponding to the escalator, and a user moves in both directions in an area corresponding to the stairs. Therefore, if information regarding the moving direction is used as the movement information, the area corresponding to the escalator and the area corresponding to the stairs can be appropriately divided. For example, the same applies to a scene where an ascending escalator and a descending escalator are provided, and a scene where an escalator and a passage are provided.

また、上記動き情報は、人体の移動速度に関する情報であってもよい。上り専用の階段と上りエスカレータとが併設されているシーンの場合、階段の利用者の移動方向とエスカレータの利用者の移動方向とは同じであるため、移動方向に関する情報からでは適切に領域分割が行えない。移動速度に関する情報を用いることで、上記のようなシーンに対応することができ、適切な領域分割が可能となる。例えば、一方通行の通路と動く歩道とが併設されているシーンについても同様である。   The movement information may be information related to the moving speed of the human body. In the case of a scene with an ascending stairs and an ascending escalator, the moving direction of the stairs user and the moving direction of the escalator user are the same. I can't. By using the information regarding the moving speed, it is possible to deal with the scene as described above, and appropriate area division is possible. For example, the same applies to a scene in which a one-way passage and a moving sidewalk are provided.

また、情報処理装置40は、画像を部分領域以下の大きさで分割した複数の小領域ごとに動き情報に関する特徴量を導出し、小領域の特徴量をクラスタリングすることで、行動傾向に応じた領域分割を行う。ここで、動き情報に関する特徴量は、移動方向の発生頻度や移動速度のばらつきとすることができる。これにより、情報処理装置40は、容易かつ適切に行動傾向が異なる複数の領域を分割することができる。
さらに、情報処理装置40は、画像から人が通過しない小領域をクラスタリングの対象から除外した後、クラスタリングを行う。したがって、画像における人体の動作領域を、行動傾向に応じた複数の領域に分割することができる。つまり、領域分割処理の結果、人が通過する領域と人が通過しない領域とに分割されることを回避することができる。
In addition, the information processing apparatus 40 derives a feature amount related to motion information for each of a plurality of small regions obtained by dividing an image by a size equal to or smaller than a partial region, and clusteres the feature amounts of the small regions to respond to the behavior tendency. Perform area division. Here, the feature amount related to the motion information can be the occurrence frequency of the moving direction or the variation of the moving speed. Thereby, the information processing apparatus 40 can divide a plurality of regions having different behavior tendencies easily and appropriately.
Furthermore, the information processing apparatus 40 performs clustering after excluding small regions from which no humans pass from the clustering target. Therefore, the motion region of the human body in the image can be divided into a plurality of regions according to the behavior tendency. That is, as a result of the region dividing process, it is possible to avoid the division into a region where a person passes and a region where a person does not pass.

また、情報処理装置40は、領域分割された複数の部分領域について、それぞれ部分領域ごとに学習対象の動作を学習し、それぞれ部分領域に対応した学習データを生成する。そして、情報処理装置40は、画像中の監視対象である人体が、領域分割されたどの部分領域に存在するかを判定し、判定された部分領域に対応する学習データを用いて、監視対象の異常動作を検知する。このように、行動傾向が異なる領域ごとに、異なる学習データを用いて異常行動検知処理を行う。そのため、エスカレータでは途中で利用者の移動が停止したり、逆走したりすることを異常行動として判定し、階段では上記の行動を正常行動として判定するなど、行動傾向が異なる領域ごとに適切な検知処理を行うことができる。   In addition, the information processing apparatus 40 learns the operation to be learned for each partial region for a plurality of partial regions divided into regions, and generates learning data corresponding to each partial region. Then, the information processing device 40 determines in which partial area the human body that is the monitoring target in the image exists, and uses the learning data corresponding to the determined partial area, Detect abnormal behavior. In this way, abnormal behavior detection processing is performed using different learning data for each region having a different behavior tendency. Therefore, in the escalator, it is determined as abnormal behavior that the user's movement stops or reverse running on the way, and the above behavior is determined as normal behavior on the stairs, etc. Detection processing can be performed.

ここで、学習対象の動作を正常動作(正常行動)とすれば、異常行動検知処理において、正常行動から外れた行動をすべて異常行動として検知することができる。そのため、異常行動の検知漏れを抑制することができる。また、異常行動を実際に起こして学習させる必要がないため、学習が容易である。一方、学習対象の動作を異常動作(異常行動)とすれば、異常行動検知処理において、異常行動の種類を判別することが可能となり、異常行動の発生を通知する際に、異常行動の種類も併せて通知することができる。   Here, if the operation to be learned is a normal operation (normal behavior), all the behaviors deviating from the normal behavior can be detected as abnormal behavior in the abnormal behavior detection process. Therefore, it is possible to suppress omission of detection of abnormal behavior. In addition, learning is easy because there is no need to actually cause abnormal behavior to learn. On the other hand, if the operation to be learned is an abnormal operation (abnormal behavior), it is possible to determine the type of abnormal behavior in the abnormal behavior detection process, and when notifying the occurrence of abnormal behavior, It can also be notified.

以上説明したように、本実施形態における情報処理装置40によれば、システム設定者の手間をかけずに、異常行動検知を精度良く行うための領域分割を適切に行うことができ、監視対象である人体の異常行動を精度良く検知することができる。
なお、監視対象は人に限定されるものではなく、人以外の物であってもよい。例えば、監視対象が自動車である場合、自動車の逆走などの異常動作を適切に検知することができる。
As described above, according to the information processing apparatus 40 in the present embodiment, it is possible to appropriately perform area division for accurately detecting abnormal behavior without taking the effort of the system setter, Abnormal behavior of a human body can be detected with high accuracy.
The monitoring target is not limited to a person, and may be an object other than a person. For example, when the monitoring target is an automobile, abnormal operations such as reverse running of the automobile can be detected appropriately.

(第二の実施形態)
次に、本発明の第二の実施形態について説明する。
上述した第一の実施形態では、情報処理装置40は、領域分割処理の結果をそのまま用いて異常行動検知処理を実行する場合について説明した。第二の実施形態では、情報処理装置40が、領域分割処理の後、システム設定者による修正指示に基づいて分割された部分領域を修正する機能を有する場合について説明する。
上述した第一の実施形態における領域分割処理により、自動的に領域分割が可能であるが、画像中に人体の移動方向が似た領域が複数含まれている場合、領域分割が正しく行われないおそれがある。領域分割が正しく行われなかった場合、正常行動を正しく学習することができず、異常行動の誤検知が発生し得る。
(Second embodiment)
Next, a second embodiment of the present invention will be described.
In the first embodiment described above, the information processing apparatus 40 has been described with reference to the case where the abnormal action detection process is executed using the result of the area division process as it is. In the second embodiment, a case will be described in which the information processing apparatus 40 has a function of correcting a partial area divided based on a correction instruction from the system setter after the area dividing process.
The region division processing in the first embodiment described above can automatically divide the region. However, if the image includes a plurality of regions with similar moving directions of the human body, the region division is not performed correctly. There is a fear. If the region division is not performed correctly, normal behavior cannot be learned correctly, and erroneous detection of abnormal behavior may occur.

図12は、情報処理装置40が正常行動を学習し、異常行動検知を実行するまでの流れを示す図である。図12において、図5と同様の処理を行う部分には図5と同一ステップ番号を付し、以下、処理の異なる部分を中心に説明する。
S2における領域分割処理の後、S5において、情報処理装置40は、領域分割処理により分割された部分領域を、表示部(出力装置45)に表示させる表示制御を行う。そして、情報処理装置40は、システム設定者から、領域分割処理により分割された部分領域の修正を受け付け、当該部分領域を修正する。S3では、情報処理装置40は、S5において修正された部分領域ごとに学習を行う。
FIG. 12 is a diagram illustrating a flow until the information processing apparatus 40 learns normal behavior and executes abnormal behavior detection. In FIG. 12, the same step numbers as those in FIG.
After the area dividing process in S2, in S5, the information processing apparatus 40 performs display control for displaying the partial area divided by the area dividing process on the display unit (output device 45). Then, the information processing apparatus 40 receives a correction of the partial area divided by the area dividing process from the system setting person, and corrects the partial area. In S3, the information processing apparatus 40 performs learning for each partial region corrected in S5.

以下、S5において実行される領域修正処理について、具体的に説明する。
図13は、領域分割処理により分割された領域を修正するためのUI画面130の一例である。なお、図13では図示を省略しているが、UI画面130上ではカメラ20が撮像した画像が背景画像として表示され、小領域が透過で表示されているものとする。
図13(A)は、小領域単位で領域を修正する場合のUI画面130である。図13(A)のUI画面130は、領域分割処理により得られた部分領域の領域データ120をもとに、各小領域がどの部分領域に属しているかを、インデックスを付与して表示している。例えば、小領域113は部分領域「1」に属しており、小領域114は部分領域「2」に属している。ここで、小領域114を部分領域「1」に修正したい場合を考える。この場合、システム設定者は、矢印131に示すように、部分領域「1」に属する小領域113を指定(例えばクリック)した後、矢印132に示すように、修正対象である小領域132を指定(例えばクリック)する。これにより、小領域114を、直前に指定した小領域113と同じ部分領域「1」に修正することができる。
Hereinafter, the area correction process executed in S5 will be specifically described.
FIG. 13 is an example of a UI screen 130 for correcting an area divided by the area dividing process. Although not shown in FIG. 13, it is assumed that an image captured by the camera 20 is displayed as a background image on the UI screen 130 and a small area is displayed in a transparent manner.
FIG. 13A shows a UI screen 130 when a region is corrected in units of small regions. The UI screen 130 in FIG. 13A displays an index indicating which partial area each small area belongs to based on the area data 120 of the partial area obtained by the area dividing process. Yes. For example, the small area 113 belongs to the partial area “1”, and the small area 114 belongs to the partial area “2”. Here, a case where it is desired to correct the small area 114 to the partial area “1” is considered. In this case, the system setting person designates (for example, clicks) the small area 113 belonging to the partial area “1” as indicated by the arrow 131 and then designates the small area 132 to be corrected as indicated by the arrow 132. (For example, click). As a result, the small area 114 can be corrected to the same partial area “1” as the small area 113 specified immediately before.

図13(B)は、領域分割処理により得られた部分領域単位で領域を修正する場合のUI画面130である。部分領域単位での領域の修正は、複数の部分領域を統合する処理に相当する。システム設定者は、例えば、領域統合を指示するためのボタン133を押下することで、部分領域単位で領域を修正するモードに設定することができる。
ここで、部分領域「2」と部分領域「3」とを統合し、部分領域「2」に修正したい場合を考える。この場合、システム設定者は、ボタン133を押下することで領域統合の指示を入力し、矢印134に示すように、統合元の部分領域「2」に属する小領域115を指定(例えばクリック)する。次に、システム設定者は、矢印135に示すように、統合先の部分領域「3」に属する小領域116を指定(例えばクリック)する。これにより、部分領域「3」の領域が部分領域「2」に統合される。
FIG. 13B shows a UI screen 130 when a region is corrected in units of partial regions obtained by the region dividing process. The modification of the area in units of partial areas corresponds to a process of integrating a plurality of partial areas. For example, the system setting person can set a mode for correcting an area in units of partial areas by pressing a button 133 for instructing area integration.
Here, consider a case where partial area “2” and partial area “3” are integrated to be corrected to partial area “2”. In this case, the system setter inputs an area integration instruction by pressing the button 133 and designates (for example, clicks) the small area 115 belonging to the partial area “2” of the integration source as indicated by the arrow 134. . Next, as shown by an arrow 135, the system setting person designates (for example, clicks) the small area 116 belonging to the partial area “3” to be integrated. Thereby, the area of the partial area “3” is integrated into the partial area “2”.

なお、領域修正の方法は上記に限定されるものではない。例えば、修正対象である小領域または部分領域を指定した後、修正後の部分領域のインデックスの番号を直接指示するようにしてもよい。
このように、本実施形態における情報処理装置40は、領域分割処理により分割された部分領域を表示部に表示させる表示制御を行い、システム設定者から部分領域の修正を受け付ける。このとき、情報処理装置40は、部分領域よりも小さい領域である小領域単位で、部分領域の範囲の修正を受け付けてもよいし、複数の部分領域を統合する修正を受け付けてもよい。そして、情報処理装置40は、システム設定者からの修正の指示に基づいて、部分領域を修正する。したがって、より適切に領域分割を行うことができ、より精度の高い異常行動検知を行うことができる。
The region correction method is not limited to the above. For example, after specifying a small area or partial area to be corrected, the index number of the corrected partial area may be directly designated.
As described above, the information processing apparatus 40 according to the present embodiment performs display control for displaying the partial area divided by the area division process on the display unit, and accepts correction of the partial area from the system setter. At this time, the information processing apparatus 40 may accept correction of the range of the partial area in units of small areas that are smaller than the partial area, or may accept correction that integrates a plurality of partial areas. Then, the information processing apparatus 40 corrects the partial area based on a correction instruction from the system setting person. Therefore, it is possible to perform region division more appropriately and to detect abnormal behavior with higher accuracy.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記録媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a recording medium, and one or more processors in the computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

10…ネットワークカメラシステム、20…カメラ、30…録画サーバ装置、40…情報処理装置、50…クライアント装置、60…LAN、401…映像取得部、402…人体検出部、403…領域分割部、404…学習部、405…学習データ記憶部、406…領域判定部、407…異常行動検知部、408…警告通知部、409…領域データ記憶部   DESCRIPTION OF SYMBOLS 10 ... Network camera system, 20 ... Camera, 30 ... Recording server apparatus, 40 ... Information processing apparatus, 50 ... Client apparatus, 60 ... LAN, 401 ... Video acquisition part, 402 ... Human body detection part, 403 ... Area division part, 404 ... Learning unit, 405 ... Learning data storage unit, 406 ... Area determination unit, 407 ... Abnormal behavior detection unit, 408 ... Warning notification unit, 409 ... Area data storage unit

Claims (15)

画像中の撮像対象の動き情報を取得する取得手段と、
前記取得手段により取得された動き情報に基づいて、前記画像における前記撮像対象の動作領域を、前記撮像対象の動作傾向に対応した複数の部分領域に分割する分割手段と、を備えることを特徴とする情報処理装置。
Acquisition means for acquiring movement information of an imaging target in an image;
Dividing means for dividing the motion area of the imaging target in the image into a plurality of partial areas corresponding to the motion tendency of the imaging target, based on the motion information acquired by the acquisition means. Information processing apparatus.
前記動き情報は、前記撮像対象の移動方向に関する情報を含むことを特徴とする請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the motion information includes information related to a moving direction of the imaging target. 前記動き情報は、前記撮像対象の移動速度に関する情報を含むことを特徴とする請求項1または2に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the movement information includes information regarding a moving speed of the imaging target. 前記取得手段は、前記画像を前記部分領域以下の大きさで分割した複数の小領域ごとに前記動き情報を取得し、
前記分割手段は、前記小領域ごとに前記動き情報に関する特徴量を導出し、前記動作領域に対応する前記小領域の前記特徴量をクラスタリングすることを特徴とする請求項1から3のいずれか1項に記載の情報処理装置。
The acquisition means acquires the motion information for each of a plurality of small areas obtained by dividing the image by a size equal to or smaller than the partial area,
4. The division unit according to claim 1, wherein the dividing unit derives a feature amount related to the motion information for each of the small regions, and clusters the feature amounts of the small regions corresponding to the motion region. The information processing apparatus according to item.
前記分割手段は、前記取得手段により取得された前記小領域ごとの前記動き情報に基づいて、前記画像から移動する前記撮像対象が存在しない前記小領域を除外し、前記クラスタリングの対象となる前記動作領域を導出することを特徴とする請求項4に記載の情報処理装置。   The dividing unit excludes the small region in which the imaging target moving from the image does not exist based on the motion information for each small region acquired by the acquiring unit, and the operation to be a target of the clustering The information processing apparatus according to claim 4, wherein an area is derived. 画像中の監視対象が、前記分割手段により分割されたどの部分領域に存在するかを判定する判定手段と、
前記判定手段により判定された部分領域に対応する学習データを用いて、前記監視対象の異常動作を検知する検知手段と、をさらに備えることを特徴とする請求項1から5のいずれか1項に記載の情報処理装置。
Determining means for determining in which partial area the monitoring target in the image is divided by the dividing means;
6. The apparatus according to claim 1, further comprising a detection unit that detects an abnormal operation of the monitoring target using learning data corresponding to the partial area determined by the determination unit. The information processing apparatus described.
前記分割手段により分割された複数の部分領域について、それぞれ前記部分領域ごとに学習対象の動作を学習し、それぞれ前記部分領域に対応した学習データを生成する学習手段をさらに備えることを特徴とする請求項1から6のいずれか1項に記載の情報処理装置。   The learning apparatus further comprises learning means for learning the operation of the learning target for each of the partial areas divided by the dividing means and generating learning data corresponding to the partial areas, respectively. Item 7. The information processing device according to any one of items 1 to 6. 前記学習対象の動作は、正常動作であることを特徴とする請求項7に記載の情報処理装置。   The information processing apparatus according to claim 7, wherein the operation to be learned is a normal operation. 前記学習対象の動作は、異常動作であることを特徴とする請求項7に記載の情報処理装置。   The information processing apparatus according to claim 7, wherein the operation to be learned is an abnormal operation. 前記分割手段により分割された部分領域を表示部に表示させる表示制御手段と、
前記分割手段により分割された部分領域の修正を受け付け、前記部分領域を修正する修正手段と、をさらに備えることを特徴とする請求項1から9のいずれか1項に記載の情報処理装置。
Display control means for displaying a partial area divided by the dividing means on a display unit;
The information processing apparatus according to claim 1, further comprising: a correction unit that receives correction of the partial area divided by the dividing unit and corrects the partial area.
前記修正手段は、前記部分領域よりも小さい領域単位で、前記部分領域の範囲の修正を受け付けることを特徴とする請求項10に記載の情報処理装置。   The information processing apparatus according to claim 10, wherein the correction unit receives correction of a range of the partial area in units of areas smaller than the partial area. 前記修正手段は、複数の前記部分領域を統合する修正を受け付けることを特徴とする請求項10または11に記載の情報処理装置。   The information processing apparatus according to claim 10, wherein the correction unit receives a correction that integrates a plurality of the partial areas. 画像中の撮像対象の動き情報を取得するステップと、
前記動き情報に基づいて、前記画像における前記撮像対象の動作領域を、前記撮像対象の動作傾向に対応した複数の部分領域に分割するステップと、を含むことを特徴とする情報処理方法。
Obtaining motion information of an imaging target in an image;
Dividing the motion area of the imaging target in the image into a plurality of partial areas corresponding to the motion tendency of the imaging target based on the motion information.
コンピュータを、請求項1から12のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the information processing apparatus of any one of Claim 1 to 12. 請求項14に記載のプログラムを記録した、コンピュータが読み取り可能な記録媒体。   A computer-readable recording medium on which the program according to claim 14 is recorded.
JP2016232404A 2016-11-30 2016-11-30 Information processing equipment, information processing methods and programs Active JP6910786B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016232404A JP6910786B2 (en) 2016-11-30 2016-11-30 Information processing equipment, information processing methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016232404A JP6910786B2 (en) 2016-11-30 2016-11-30 Information processing equipment, information processing methods and programs

Publications (2)

Publication Number Publication Date
JP2018093266A true JP2018093266A (en) 2018-06-14
JP6910786B2 JP6910786B2 (en) 2021-07-28

Family

ID=62566425

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016232404A Active JP6910786B2 (en) 2016-11-30 2016-11-30 Information processing equipment, information processing methods and programs

Country Status (1)

Country Link
JP (1) JP6910786B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020021243A (en) * 2018-07-31 2020-02-06 グローリー株式会社 Image processing apparatus, image processing method, and image processing program
WO2020256152A1 (en) * 2019-06-21 2020-12-24 トニー シュウ Information processing device, information processing method, and program
JP2021144577A (en) * 2020-03-13 2021-09-24 株式会社リコー Information processing device, information processing method, and program
JP2021533506A (en) * 2018-10-17 2021-12-02 三菱電機株式会社 Systems and methods for video anomaly detection and storage media
JP7316712B1 (en) 2022-04-26 2023-07-28 株式会社アジラ Abnormal behavior detection system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008040724A (en) * 2006-08-04 2008-02-21 Sumitomo Electric Ind Ltd Image processing device and image processing method
JP2008234551A (en) * 2007-03-23 2008-10-02 Hitachi Ltd Abnormality detection apparatus and abnormality detection program
JP2010009422A (en) * 2008-06-27 2010-01-14 Sony Corp Image processor, imaging apparatus, image processing method and program
JP2010058903A (en) * 2008-09-03 2010-03-18 Hitachi Ltd Image recognizing device
JP2011133984A (en) * 2009-12-22 2011-07-07 Panasonic Corp Motion feature extraction device and motion feature extraction method
JP2015099559A (en) * 2013-11-20 2015-05-28 キヤノン株式会社 Image processing apparatus, image processing method, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008040724A (en) * 2006-08-04 2008-02-21 Sumitomo Electric Ind Ltd Image processing device and image processing method
JP2008234551A (en) * 2007-03-23 2008-10-02 Hitachi Ltd Abnormality detection apparatus and abnormality detection program
JP2010009422A (en) * 2008-06-27 2010-01-14 Sony Corp Image processor, imaging apparatus, image processing method and program
JP2010058903A (en) * 2008-09-03 2010-03-18 Hitachi Ltd Image recognizing device
JP2011133984A (en) * 2009-12-22 2011-07-07 Panasonic Corp Motion feature extraction device and motion feature extraction method
JP2015099559A (en) * 2013-11-20 2015-05-28 キヤノン株式会社 Image processing apparatus, image processing method, and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020021243A (en) * 2018-07-31 2020-02-06 グローリー株式会社 Image processing apparatus, image processing method, and image processing program
JP7130488B2 (en) 2018-07-31 2022-09-05 グローリー株式会社 Image processing device, image processing method, and image processing program
JP2021533506A (en) * 2018-10-17 2021-12-02 三菱電機株式会社 Systems and methods for video anomaly detection and storage media
WO2020256152A1 (en) * 2019-06-21 2020-12-24 トニー シュウ Information processing device, information processing method, and program
JP2021002229A (en) * 2019-06-21 2021-01-07 株式会社Polyphonie Information processor, information processing method, and program
JP2021144577A (en) * 2020-03-13 2021-09-24 株式会社リコー Information processing device, information processing method, and program
JP7131578B2 (en) 2020-03-13 2022-09-06 株式会社リコー Information processing device, information processing method and program
JP7316712B1 (en) 2022-04-26 2023-07-28 株式会社アジラ Abnormal behavior detection system
JP7430363B2 (en) 2022-04-26 2024-02-13 株式会社アジラ Abnormal behavior detection system

Also Published As

Publication number Publication date
JP6910786B2 (en) 2021-07-28

Similar Documents

Publication Publication Date Title
JP6910786B2 (en) Information processing equipment, information processing methods and programs
US10810438B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
JP6161257B2 (en) Event detection apparatus and method, operation recognition apparatus and method, and program
US20180285656A1 (en) Information processing apparatus, information processing method, and computer-readable storage medium, for estimating state of objects
JP2008217602A (en) Suspicious behavior detection system and method
JP2018148422A (en) Information processing system, information processing device, information processing method, and program causing computer to execute information processing method
CN111767888A (en) Object state detection method, computer device, storage medium, and electronic device
US20200236300A1 (en) Image processing system, image processing method, and program
US20160110614A1 (en) Person detection system, method, and non-transitory computer readable medium
JP7299692B2 (en) Image processing device, image processing system, image processing device control method, and program
US20240111382A1 (en) Touch recognition method and device having lidar sensor
JP2010140425A (en) Image processing system
JP2012128877A (en) Suspicious behavior detection system and method
US9851784B2 (en) Movement line conversion and analysis system, method and program
JP2018207175A (en) Number of people management device, number of people management method and program
JP2020170252A (en) Image processing device, image processing method, and program
CN104335577A (en) Information processing device, information processing method, program, and surveillance camera system
JP7214437B2 (en) Information processing device, information processing method and program
JP2009182624A (en) Target tracking device
JP2016080620A (en) Person detection system and method
JP6939065B2 (en) Image recognition computer program, image recognition device and image recognition method
JP2016170518A (en) Information processing apparatus, information processing method and program
CN111104845B (en) Detection apparatus, control method, and computer-readable recording medium
JP6451418B2 (en) Gaze target determination device, gaze target determination method, and gaze target determination program
JP7329967B2 (en) IMAGE PROCESSING APPARATUS, SYSTEM, IMAGE PROCESSING APPARATUS CONTROL METHOD, AND PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200825

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210608

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210707

R151 Written notification of patent or utility model registration

Ref document number: 6910786

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151