JP4701100B2 - Abnormal behavior detection device - Google Patents

Abnormal behavior detection device Download PDF

Info

Publication number
JP4701100B2
JP4701100B2 JP2006040111A JP2006040111A JP4701100B2 JP 4701100 B2 JP4701100 B2 JP 4701100B2 JP 2006040111 A JP2006040111 A JP 2006040111A JP 2006040111 A JP2006040111 A JP 2006040111A JP 4701100 B2 JP4701100 B2 JP 4701100B2
Authority
JP
Japan
Prior art keywords
abnormality
degree
determination
abnormal behavior
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006040111A
Other languages
Japanese (ja)
Other versions
JP2007219865A (en
Inventor
雅則 三好
博 正嶋
小沼  知恵子
誠也 伊藤
政人 竹内
博明 櫻田
伸一朗 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Hitachi Building Systems Co Ltd
Original Assignee
Hitachi Ltd
Hitachi Building Systems Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd, Hitachi Building Systems Co Ltd filed Critical Hitachi Ltd
Priority to JP2006040111A priority Critical patent/JP4701100B2/en
Priority to CN2009102252542A priority patent/CN101714255B/en
Priority to CN2007100040615A priority patent/CN101025825B/en
Publication of JP2007219865A publication Critical patent/JP2007219865A/en
Priority to HK08101176.6A priority patent/HK1107861A1/en
Priority to HK10108671.7A priority patent/HK1142156A1/en
Application granted granted Critical
Publication of JP4701100B2 publication Critical patent/JP4701100B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Alarm Systems (AREA)

Description

本発明は、人間や動物などの異常行動を検知する異常行動検知装置に関する。   The present invention relates to an abnormal behavior detection device that detects abnormal behavior of a human or an animal.

犯罪発生率の増加など社会不安に対処するために、不審者や不審車両を監視することを目的としたカメラの設置台数が増加している。このように多数のカメラを用いた監視では、監視領域を限られた監視員リソースで効率的に監視するための監視支援技術が必要になる。   In order to deal with social unrest, such as the increase in crime rates, the number of cameras installed for the purpose of monitoring suspicious persons and suspicious vehicles is increasing. As described above, monitoring using a large number of cameras requires a monitoring support technique for efficiently monitoring a monitoring area with limited monitoring personnel resources.

このような監視支援技術として、特許文献1に示されている「3次元データからの特徴量抽出方法および装置」がある。ここでは、立体高次局所自己相関特徴という動画の特徴量の抽出方法が開示されている。そして、この特徴量を行動認識や歩様認証に応用する方法が示されている。   As such a monitoring support technique, there is a “feature quantity extraction method and apparatus from three-dimensional data” disclosed in Patent Document 1. Here, a method for extracting a feature amount of a moving image called a three-dimensional higher-order local autocorrelation feature is disclosed. And the method of applying this feature quantity to action recognition and gait authentication is shown.

また、非特許文献1では、立体高次局所自己相関特徴を使って、映像中の人物の行動の異常度を算出する方法が示されている。   Non-Patent Document 1 discloses a method for calculating the degree of abnormality of a person's action in a video using a cubic higher-order local autocorrelation feature.

特開2005−92346号公報JP 2005-92346 A 南里卓也,大津展之,“複数人動画像からの異常動作検出”,情報処理学会研究報告2004−CVIM−145,2004年9月11日Takuya Minamisato, Nobuyuki Otsu, “Detection of abnormal motion from multiple human moving images”, IPSJ SIG 2004-CVIM-145, September 11, 2004

上記従来技術は、映像中の人物や動物などの行動の異常度がスカラ量として算出されるものであり、実際に異常行動が発生しているのか即座に判断できないという問題がある。   The above prior art has a problem that the degree of abnormal behavior of a person or animal in a video is calculated as a scalar quantity, and it cannot be immediately determined whether or not abnormal behavior has actually occurred.

本発明は、上記問題を考慮してなされたものであり、映像中の人物や動物などの行動の異常度を算出し、その異常度を基にして異常行動が発生しているかどうかを的確にできる異常行動検知装置を提供することを目的とする。   The present invention has been made in consideration of the above problems, and calculates the degree of abnormal behavior of a person or animal in a video and accurately determines whether or not abnormal behavior has occurred based on the degree of abnormality. An object of the present invention is to provide a device for detecting abnormal behavior.

本発明による異常行動検知装置においては、映像取得部が取得した監視対象の映像の異常度を算出し、算出した異常度から異常行動が発生しているのかどうかを閾値に基づいて判定する。   In the abnormal behavior detection apparatus according to the present invention, the degree of abnormality of the monitored video acquired by the video acquisition unit is calculated, and whether or not abnormal behavior has occurred is determined based on the threshold value based on the calculated degree of abnormality.

本発明によれば、映像中の異常度を基にして異常発生の有無を的確に判定できるようになる。これによって、異常発生時には、警告を出したり警備員に通報することで、その異常に即座に対応することが可能になる。   According to the present invention, it is possible to accurately determine whether or not an abnormality has occurred based on the degree of abnormality in the video. As a result, when an abnormality occurs, it is possible to immediately respond to the abnormality by issuing a warning or notifying the guard.

以下では発明の実施の形態について、図を用いて詳細に説明する。   Hereinafter, embodiments of the invention will be described in detail with reference to the drawings.

図1は、本発明の一実施例である異常行動検知装置の機能構成を示すブロック図である。本装置は、映像取得部100,異常度算出部102,異常判定部104,判定閾値算出部110,発報部112で構成され、映像取得部100で取得される監視対象の映像に基づいて異常行動を検知する。以下、順に説明する。   FIG. 1 is a block diagram showing a functional configuration of an abnormal behavior detecting apparatus according to an embodiment of the present invention. This apparatus includes a video acquisition unit 100, an abnormality degree calculation unit 102, an abnormality determination unit 104, a determination threshold calculation unit 110, and a notification unit 112, and an abnormality is detected based on the monitoring target video acquired by the video acquisition unit 100. Detect behavior. Hereinafter, it demonstrates in order.

映像取得部100は、ビデオカメラ等の映像撮影機器、またはビデオレコーダ等の映像再生機器であり、本装置の入力となる映像を取得する。映像撮影機器は、現在撮影しているリアルタイム映像を入力とする場合に利用する。映像再生機器は、過去に蓄積した映像を入力とする場合に利用する。   The video acquisition unit 100 is a video shooting device such as a video camera or a video playback device such as a video recorder, and acquires a video to be input to this apparatus. The video shooting device is used when a real-time video currently being shot is input. The video playback device is used when video stored in the past is used as input.

異常度算出部102は、映像取得部100が取得した映像の異常度を算出する。ここで、異常度とは映像中の人物や動物等の移動物体の行動の異常度合いを示すスカラ量である。   The abnormality degree calculation unit 102 calculates the abnormality degree of the video acquired by the video acquisition unit 100. Here, the degree of abnormality is a scalar quantity indicating the degree of abnormality of behavior of a moving object such as a person or an animal in the video.

異常判定部104は、異常度算出部102が算出した異常度から、異常行動が発生しているのかどうかを判定し、その結果を判定結果108に出力する。判断基準として判定閾値106を用い、異常度が判定閾値106より小さい場合は、異常行動が発生していないと判定する。逆に、異常度が判定閾値106以上の場合は、異常行動が発生していると判定する。   The abnormality determination unit 104 determines whether or not abnormal behavior has occurred from the abnormality degree calculated by the abnormality degree calculation unit 102, and outputs the result to the determination result 108. When the determination threshold 106 is used as a determination criterion and the degree of abnormality is smaller than the determination threshold 106, it is determined that no abnormal behavior has occurred. Conversely, if the degree of abnormality is equal to or greater than the determination threshold 106, it is determined that abnormal behavior has occurred.

判定閾値算出部110は、異常判定部104の判定処理に必要となる判定閾値106を算出する。ここでは、異常判定部104の判定精度が最良となるように判定結果108を基にして算出する。   The determination threshold calculation unit 110 calculates the determination threshold 106 necessary for the determination process of the abnormality determination unit 104. Here, calculation is performed based on the determination result 108 so that the determination accuracy of the abnormality determination unit 104 is the best.

発報部112は、判定結果108を基にして、異常行動が発生している場合には、その旨を外部装置に通知する。通知を受け取った外部装置は、警報を音声・監視画面に出力することができる。また、エレベータなどの設備を安全のために停止することもできる。さらには、監視センタや携帯端末など遠隔地に通知して、対応を促すこともできる。   If the abnormal action has occurred based on the determination result 108, the reporting unit 112 notifies the external device to that effect. The external device that has received the notification can output an alarm to the voice / monitoring screen. Also, facilities such as elevators can be stopped for safety. Furthermore, it is possible to notify a remote place such as a monitoring center or a portable terminal to promote the response.

異常度算出部102,異常判定部104,判定閾値算出部110,発報部112は、
CPUやCPUなどの演算処理装置やパーソナルコンピュータによって実現できる。また、判定閾値や判定結果は半導体メモリーなどの記憶装置に格納され、適宜読み出されて各種の演算に用いられる。
The degree-of-abnormality calculation unit 102, the abnormality determination unit 104, the determination threshold value calculation unit 110, and the reporting unit 112 are
It can be realized by a CPU, an arithmetic processing unit such as a CPU, or a personal computer. Further, the determination threshold value and the determination result are stored in a storage device such as a semiconductor memory, and are appropriately read out and used for various calculations.

次に、図2のフローチャートを使って、本実施例の異常行動検知装置で異常判定を行う際の処理の流れを説明する。   Next, the flow of processing when an abnormality determination is performed by the abnormal behavior detection apparatus of the present embodiment will be described using the flowchart of FIG.

ステップ200では、ステップ202からステップ210までの処理を、あらかじめ定めた所定の頻度で、利用者から終了指示があるまで繰り返す。   In step 200, the processing from step 202 to step 210 is repeated at a predetermined frequency set in advance until the user gives an end instruction.

ステップ202では、異常度算出部102を用いて、映像取得部100で取得した映像をデジタルデータとして取り込む。   In step 202, the video obtained by the video acquisition unit 100 is captured as digital data using the degree-of-abnormality calculation unit 102.

ステップ204では、異常度算出部102を用いて、ステップ202で取得した映像の異常度を算出する。   In step 204, the degree of abnormality of the video acquired in step 202 is calculated using the degree of abnormality calculation unit 102.

ステップ206では、異常判定部104を用いて、ステップ204で算出した異常度を用いて異常行動が発生しているのかどうかを判定する。   In step 206, the abnormality determination unit 104 is used to determine whether or not abnormal behavior has occurred using the degree of abnormality calculated in step 204.

ステップ208では、ステップ206の判定結果を評価し、異常行動が発生していると判定されている場合に、ステップ210を実行する。   In step 208, the determination result of step 206 is evaluated, and if it is determined that abnormal behavior has occurred, step 210 is executed.

ステップ210では、発報部112を用いて、異常行動が発生していることを外部装置に通知する。   In step 210, the reporting unit 112 is used to notify the external device that an abnormal behavior has occurred.

次に、図3のブロック図を使って、図1の異常度算出部102の内部構成を詳細に説明する。前述のように異常度算出部102は、映像取得部100が取得した映像の異常度をスカラ量として算出し、異常判定部104へ出力する。この異常度算出部102は、動き抽出部300,特徴量算出部302,特徴量変換部304,異常度評価部308で構成される。以下、順に説明する。   Next, the internal configuration of the abnormality degree calculation unit 102 of FIG. 1 will be described in detail using the block diagram of FIG. As described above, the degree-of-abnormality calculation unit 102 calculates the degree of abnormality of the video acquired by the video acquisition unit 100 as a scalar amount, and outputs it to the abnormality determination unit 104. The abnormality degree calculation unit 102 includes a motion extraction unit 300, a feature amount calculation unit 302, a feature amount conversion unit 304, and an abnormality degree evaluation unit 308. Hereinafter, it demonstrates in order.

動き抽出部300は、映像取得部100で取得した映像の中から動きのある部分を抽出する。これは、背景など異常行動の判定に関係のない静止部分を取り除くためである。動きの抽出には、公知の画像処理方法を用いることができる(特開2005−92346号公報などを参照)。例えば、単純に2つのフレーム間の差分を取る方法や、エッジ抽出処理を施した後でフレーム間の差分をとる方法などが利用できる。さらに、フレーム間の差分をとった後で、照明変動等のノイズの影響を取り除くために、画素値が0か1の値をとるように二値化処理を加える。   The motion extraction unit 300 extracts a moving part from the video acquired by the video acquisition unit 100. This is to remove a stationary part that is not related to the determination of abnormal behavior such as the background. A known image processing method can be used for motion extraction (see Japanese Patent Application Laid-Open No. 2005-92346). For example, a method of simply taking a difference between two frames or a method of taking a difference between frames after performing edge extraction processing can be used. Further, after taking the difference between the frames, a binarization process is applied so that the pixel value takes a value of 0 or 1 in order to remove the influence of noise such as illumination fluctuation.

特徴量算出部302は、動き抽出部300が生成した映像の特徴量を算出する。算出には、公知の立体高次局所自己相関特徴を利用する(例えば、特開2005−92346号公報を参照)。これは、連続する3フレームの映像からなるボクセルデータの幾何学的な特徴を251次元の特徴ベクトルとして算出する方法である。この特徴量の算出方法については後述する。また、映像の特徴量を算出にオプティカルフローを用いもよい。オプティカルフローとは、画像の微小領域に着目し、フレーム間での動きをベクトルとして算出する手法であり、例えば、著書「デジタル画像処理」(CG−ARTS協会)243ページに詳細に記述されている。オプティカルフローで算出されるベクトルの全成分を合成して特徴量としてもよい。また、ベクトルの平均・分散などの統計量を特徴量としてもよい。   The feature amount calculation unit 302 calculates the feature amount of the video generated by the motion extraction unit 300. For the calculation, a known three-dimensional higher-order local autocorrelation feature is used (for example, see JP-A-2005-92346). This is a method of calculating a geometric feature of voxel data composed of three consecutive frames of video as a 251-dimensional feature vector. A method for calculating the feature amount will be described later. Further, an optical flow may be used for calculating the feature amount of the video. The optical flow is a method of calculating a motion between frames as a vector by paying attention to a minute area of an image, and is described in detail in, for example, the book “Digital Image Processing” (CG-ARTS Association) page 243. . All the components of the vector calculated by the optical flow may be combined and used as the feature amount. In addition, a statistic such as an average / variance of vectors may be used as the feature quantity.

特徴量変換部304は、特徴量算出部302で算出した特徴量ベクトルを、変換行列
306を用いて線形変換する。この変換により、特徴量ベクトルに含まれる異常行動の成分が抽出される。ここで、特徴量算出部302で算出した特徴量ベクトルをx、変換行列306をA、変換後の特徴量ベクトルをx′とおくと、この変換は次式(1)で表すことができる。
The feature amount conversion unit 304 linearly converts the feature amount vector calculated by the feature amount calculation unit 302 using the conversion matrix 306. By this conversion, abnormal behavior components included in the feature vector are extracted. Here, if the feature quantity vector calculated by the feature quantity calculation unit 302 is x, the transformation matrix 306 is A, and the transformed feature quantity vector is x ′, this transformation can be expressed by the following equation (1).

x′=Ax (1)
変換行列306は主成分分析などの多変量解析によって求まる行列であり、算出方法は後述する。映像の特徴量として251次元の高次局所自己相関特徴を用いる場合には、変換行列306は(252−n)×251(n=1,2,…,251)の大きさの行列となる。そして、この行列で線形変換された特徴量は252−n次元のベクトルとなる。
x ′ = Ax (1)
The transformation matrix 306 is a matrix obtained by multivariate analysis such as principal component analysis, and a calculation method will be described later. When a 251-dimensional higher-order local autocorrelation feature is used as the video feature amount, the transformation matrix 306 is a matrix having a size of (252−n) × 251 (n = 1, 2,..., 251). And the feature-value linearly transformed by this matrix becomes a 252-n- dimensional vector.

異常度評価部308は、特徴量変換部304で算出した新しい特徴量ベクトルと正常データ310の乖離度を評価することで異常度を算出する。そして、算出結果は異常判定部104に出力する。ここで、正常データ310は、正常な行動に対する特徴量の集合である。具体的な異常度の算出方法については後述する。   The degree of abnormality evaluation unit 308 calculates the degree of abnormality by evaluating the degree of deviation between the new feature amount vector calculated by the feature amount conversion unit 304 and the normal data 310. Then, the calculation result is output to the abnormality determination unit 104. Here, the normal data 310 is a set of feature amounts for normal behavior. A specific method for calculating the degree of abnormality will be described later.

次に、図4のフローチャートを使って、図2のステップ204の異常度算出処理の詳細を説明する。   Next, details of the abnormality degree calculation processing in step 204 of FIG. 2 will be described using the flowchart of FIG.

ステップ400では、動き抽出部300を用いて、映像取得部100で取得した映像の中から動きがある部分を抽出する。   In step 400, the motion extraction unit 300 is used to extract a portion with motion from the video acquired by the video acquisition unit 100.

ステップ402では、特徴量算出部302を用いて、ステップ400で生成した映像の特徴量を算出する
ステップ404では、特徴量変換部304を用いて、ステップ402で算出した特徴量ベクトルを線形変換して新しい特徴量ベクトルを生成する。
In step 402, the feature amount calculation unit 302 is used to calculate the feature amount of the video generated in step 400. In step 404, the feature amount conversion unit 304 is used to linearly convert the feature amount vector calculated in step 402. A new feature vector.

ステップ406では、異常度評価部308を用いて、ステップ404で算出した新しい特徴量ベクトルと正常データ310の乖離度を評価することで異常度を算出する。   In step 406, the degree of abnormality is calculated by evaluating the degree of divergence between the new feature vector calculated in step 404 and the normal data 310 using the degree-of-abnormality evaluation unit 308.

次に、図5から図7を使って図4のステップ402に示した動画の特徴量算出処理の詳細を説明する。   Next, details of the moving image feature amount calculation processing shown in step 402 of FIG. 4 will be described with reference to FIGS.

図5は、前述した立体高次局所自己相関特徴の入力データを説明する図である。特徴量算出の対象となるのは動画、すなわち時系列の連続するフレーム(画像)である。立体高次局所自己相関特徴を算出するためには少なくとも3フレームが必要となる。例えば、フレーム番号nのフレーム500が与えられた場合に、その前に位置するフレーム502とフレーム504(それぞれフレーム番号n−1とn−2に対応)の3フレームが特徴量算出の対象となる。   FIG. 5 is a diagram for explaining the input data of the above-described stereoscopic higher-order local autocorrelation feature. The target of feature quantity calculation is a moving image, that is, a time-series continuous frame (image). At least 3 frames are required to calculate the cubic higher-order local autocorrelation features. For example, when a frame 500 with a frame number n is given, three frames, a frame 502 and a frame 504 (corresponding to frame numbers n-1 and n-2, respectively) positioned before the frame 500 are targeted for feature amount calculation. .

いま、フレームの解像度を縦hピクセル,横wピクセルとすると、3フレームを合わせることで、h×w×3のボクセル(立方体)を構成できる。立体高次局所自己相関特徴は、このボクセル全要素に対して、3×3×3のマスクパターン506を順次移動させながら適用することで特徴を抽出する。   Now, assuming that the resolution of a frame is h pixels in the vertical direction and w pixels in the horizontal direction, a voxel (cube) of h × w × 3 can be configured by combining the three frames. The three-dimensional higher-order local autocorrelation feature is extracted by applying a 3 × 3 × 3 mask pattern 506 to all the voxel elements while sequentially moving them.

なお、ここでは連続する3フレームを処理対象としていたが、任意のfフレームを処理対象としてもよい。この場合はh×w×fのボクセルが処理対象となり、fフレーム分の動画の平均的な特徴量が算出されることになる。   Note that although three consecutive frames are set as processing targets here, arbitrary f frames may be set as processing targets. In this case, h × w × f voxels are to be processed, and an average feature amount of moving images for f frames is calculated.

図6は、立体高次局所自己相関特徴の算出に用いるマスクパターンの例を示す図である。マスクパターンは、ボクセルの局所的な相関特徴を算出するために用いるものであり、3×3×3のボクセルで構成される。   FIG. 6 is a diagram illustrating an example of a mask pattern used for calculation of a stereoscopic higher-order local autocorrelation feature. The mask pattern is used to calculate a local correlation feature of a voxel, and is composed of 3 × 3 × 3 voxels.

パターン1は、入力映像に対するボクセルデータ内を順次走査した場合に、中心のボクセル600に位置する画素が1となる場合の数を数え上げるためのパターンである。同じく、パターン2は、中心のボクセル604に加えて、ボクセル602も1となる場合の数を数え上げるためのパターンである。   Pattern 1 is a pattern for counting up the number of pixels in the central voxel 600 when the voxel data for the input video is sequentially scanned. Similarly, pattern 2 is a pattern for counting up the number of voxels 602 that are 1 in addition to the central voxel 604.

二値画像に対する立体高次局所自己相関特徴には、251個のマスクパターンが存在し、それぞれのパターンを満たす場合の数を数え上げることで、入力映像の特徴を、251次元の特徴量ベクトルとして抽出する。   There are 251 mask patterns in the three-dimensional higher-order local autocorrelation features for a binary image, and the number of cases where each pattern is satisfied is counted to extract the features of the input video as a 251-dimensional feature vector. To do.

次に、図7のフローチャートを使って、図4のステップ402に示した動画の特徴量算出処理の詳細を説明する。   Next, details of the moving image feature quantity calculation processing shown in step 402 of FIG. 4 will be described using the flowchart of FIG.

ステップ700では、特徴量ベクトルを初期化する。   In step 700, the feature vector is initialized.

ステップ702では、処理対象となる映像の全ボクセルに対してステップ704からステップ708の処理を繰り返す。つまり、図5に示したように処理対象の全てのボクセルに対してマスクパターン506を使って順次走査する。   In step 702, the processing from step 704 to step 708 is repeated for all voxels of the video to be processed. That is, as shown in FIG. 5, all the voxels to be processed are sequentially scanned using the mask pattern 506.

ステップ704では、図6に示した251種類の全てのマスクパターンについてステップ706からステップ708の処理を繰り返す。   In step 704, the processing from step 706 to step 708 is repeated for all 251 types of mask patterns shown in FIG.

ステップ706では、処理対象のマスクパターンに対応する画素が全て1であるかどうか判定する。判定結果が真の場合にはステップ708を実行する。   In step 706, it is determined whether all the pixels corresponding to the mask pattern to be processed are 1. If the determination result is true, step 708 is executed.

ステップ708では、処理対象のマスクパターンに対応する特徴量ベクトルの成分を1だけ加算する。   In step 708, the feature vector component corresponding to the mask pattern to be processed is incremented by one.

この一連の処理によって、立体高次局所自己相関による251次元の特徴量ベクトルを算出することができる。   Through this series of processing, a 251-dimensional feature vector based on the three-dimensional higher-order local autocorrelation can be calculated.

次に図8のフローチャートを使って、図3の変換行列306の算出手順を説明する。   Next, the calculation procedure of the transformation matrix 306 in FIG. 3 will be described using the flowchart in FIG.

ステップ800では、ステップ400からステップ402の処理を、学習用にあらかじめ半導体メモリなどの記憶装置に記録しておいた一つ以上の正常シーンの映像について繰り返す。   In step 800, the processing from step 400 to step 402 is repeated for one or more normal scene images that have been recorded in advance in a storage device such as a semiconductor memory for learning.

ステップ400では、図4に示したように、動き抽出部300を用いて、映像取得部
100で生成した映像の中から動きがある部分を抽出する。
In step 400, as shown in FIG. 4, the motion extraction unit 300 is used to extract a portion with motion from the video generated by the video acquisition unit 100.

ステップ402では、図4に示したように、特徴量算出部302を用いて、ステップ
400で生成した映像の特徴量を算出する。
In step 402, as shown in FIG. 4, the feature amount calculation unit 302 is used to calculate the feature amount of the video generated in step 400.

ステップ802では、算出された正常シーンに対する特徴量の集合に対して主成分分析を実行する。主成分分析は、多変量解析方法の一つである。いくつかの変数から、互いに無相関となるように主成分と呼ばれる合成変数を作り出すことで、複数の変数が持つ情報を要約することが可能である。この主成分分析は、多変量データの解析によく利用されている方法であり、例えば、著書「すぐわかる多変量解析」(東京図書)に詳しく記載されているので、ここでの詳細な説明は省略する。251次元の特徴量ベクトルの集合に対して主成分分析を実行することで、251の主成分と固有値が求まる。   In step 802, principal component analysis is performed on the set of feature quantities for the calculated normal scene. Principal component analysis is one of multivariate analysis methods. By creating a composite variable called a principal component from several variables so as to be uncorrelated with each other, it is possible to summarize information held by a plurality of variables. This principal component analysis is a method often used for the analysis of multivariate data. For example, it is described in detail in the book “Multivariate analysis that can be understood immediately” (Tokyo Book). Omitted. By performing principal component analysis on a set of 251-dimensional feature vectors, the principal components and eigenvalues of 251 are obtained.

ステップ804では、ステップ802での主成分分析の結果を基にして、正常行動への寄与率が低い部分空間を算出する。この部分空間に特徴量ベクトルを変換する行列を変換行列306とする。   In step 804, a subspace with a low contribution rate to normal behavior is calculated based on the result of the principal component analysis in step 802. A matrix for converting the feature vector into this partial space is referred to as a conversion matrix 306.

次に、図9を用いて、図8のステップ804に示した部分空間の算出処理の詳細を説明する。この図は、ステップ802に示した主成分分析で得られる主成分毎の累積寄与率を表す。累積寄与率とは、各主成分の寄与率を大きい順に足し込んだものであり、そこまでの主成分で分析対象のデータが本来持っていた情報量をどのくらい説明できているのかを表す指標である。例えば、第3主成分までの累積寄与率900は90%であり、第1主成分から第3主成分までは、本来のデータの情報量の90%を表現していることを示す。一方、残りとなる第4主成分から第251主成分が保持する情報量は本来のデータの情報量の10%しか表現していないことになる。   Next, the details of the subspace calculation process shown in step 804 of FIG. 8 will be described with reference to FIG. This figure represents the cumulative contribution rate for each principal component obtained by the principal component analysis shown in step 802. Cumulative contribution rate is an index that shows how much information that the analysis target data originally had with the principal components up to that point can be explained by adding the contribution rate of each principal component in descending order. is there. For example, the cumulative contribution ratio 900 up to the third principal component is 90%, and the first principal component to the third principal component represent 90% of the information amount of the original data. On the other hand, the remaining information amount from the fourth principal component to the 251st principal component represents only 10% of the information amount of the original data.

このことから、第1主成分から第3主成分で構成される部分空間は、正常行動への寄与率が大きいと言える。また、第4主成分から第251主成分で構成される部分空間は、正常行動への寄与率が小さいと言える。   From this, it can be said that the partial space composed of the first principal component to the third principal component has a large contribution rate to normal behavior. Moreover, it can be said that the partial space comprised from the 4th main component to the 251st main component has a small contribution rate to normal action.

このように累積寄与率を判断基準にして、正常行動への寄与率が小さい部分空間を求めることができる。   In this way, a partial space with a small contribution rate to normal behavior can be obtained using the cumulative contribution rate as a criterion.

次に、図10を用いて、図4のステップ406に示した異常度の評価処理の方法を説明する。異常度の評価は、図9に示した正常行動への寄与率が小さい部分空間で実行する。これは、この部分空間においては、正常行動の特徴量の分散は小さくなるのに対して、正常以外の行動、つまり異常行動の場合には分散が大きくなるからである。   Next, with reference to FIG. 10, a method of the abnormality degree evaluation process shown in step 406 of FIG. 4 will be described. The degree of abnormality is evaluated in a partial space with a small contribution rate to normal behavior shown in FIG. This is because in this partial space, the variance of the feature amount of normal behavior is small, whereas the variance is large in the case of behavior other than normal, that is, abnormal behavior.

いま、この部分空間として、第主成分以降で構成される空間を考える。本来は、この部分空間は252−n次元であるが、図10には便宜上、寄与率が大きな主成分である第主成分と第n+1主成分の2軸を選んで表示している。特徴量の集合1000は、正常データ310をプロットしたものである。正常行動への寄与率が小さい部分空間では、集合の重心xn1004を中心としてその近傍に分布する。したがって、現在の評価中の映像に対する特徴量ベクトルx1002が、特徴量の集合1000に近い場合は正常、離れている場合には異常と判定することができる。ここでは両者の距離1006を異常度とする。 Now, as this partial space, a space composed of the nth principal component and the subsequent components is considered. Originally, this subspace has 252 to n dimensions, but FIG. 10 shows two axes of the n- th principal component and the ( n + 1) -th principal component, which are principal components having a large contribution rate, for convenience. The feature quantity set 1000 is a plot of normal data 310. In the subspace where the contribution rate to normal behavior is small, the set is distributed around the center of gravity xn1004 of the set. Therefore, it can be determined that the feature vector x1002 for the image currently being evaluated is normal when the feature vector x1002 is close to the feature set 1000, and is abnormal when the feature vector x1002 is separated. Here, the distance 1006 between them is defined as the degree of abnormality.

特徴量ベクトルx1002と特徴量の集合1000の距離を算出コストが低いユークリッド距離で算出してもよいが、ここでは特徴量の集合1000の分散を考慮したマハラノビス距離を用いている。特徴量の集合1000の分散共分散行列の逆行列をS-1とおくとマハラノビス距離Dは次式(2)で算出できる。 Although the distance between the feature quantity vector x1002 and the feature quantity set 1000 may be calculated by the Euclidean distance with a low calculation cost, the Mahalanobis distance considering the variance of the feature quantity set 1000 is used here. If the inverse matrix of the variance-covariance matrix of the feature quantity set 1000 is S −1 , the Mahalanobis distance D can be calculated by the following equation (2).

2=(x−xn)t-1(x−xn) (2)
次に、図11のフローチャートを使って、本実施例の異常行動検知装置で判定閾値106を算出する際の処理の流れを説明する。
D 2 = (x−x n ) t S −1 (x−x n ) (2)
Next, the flow of processing when the determination threshold value 106 is calculated by the abnormal behavior detection apparatus of the present embodiment will be described using the flowchart of FIG.

ステップ1100では、異常度算出部102を用いて、ステップ1102の処理をすべての評価用シーンに対して繰り返す。評価用シーンとは、正常シーンと異常シーンの映像ライブラリであり、本装置が判定すべき判定結果がラベル付けしてあるものである。   In step 1100, the abnormality degree calculation unit 102 is used to repeat the processing in step 1102 for all evaluation scenes. The evaluation scene is a video library of normal scenes and abnormal scenes, and is labeled with determination results to be determined by the apparatus.

ステップ1102では、判定閾値算出部110を用いて、処理対象の評価用シーンの各フレームの異常度の中で最大のものを、そのシーンの異常度の代表値として算出する。   In step 1102, the determination threshold value calculation unit 110 is used to calculate the maximum abnormality level of each frame of the evaluation scene to be processed as a representative value of the abnormality level of the scene.

ステップ1104では、判定閾値算出部110を用いて、ステップ1102で算出したシーン毎の最大異常度を基にして、後述するエラー曲線を作成する。エラー曲線とは、正常シーンを誤って異常シーンと判定してしまう誤報率と、異常シーンを誤って正常シーンと判定してしまう失報率が、判定閾値に応じてどのように変化するのかを表す曲線である。   In step 1104, the determination threshold calculation unit 110 is used to create an error curve, which will be described later, based on the maximum degree of abnormality for each scene calculated in step 1102. The error curve shows how the false alarm rate that erroneously determines a normal scene as an abnormal scene and the false alarm rate that erroneously determines an abnormal scene as a normal scene change according to the determination threshold. It is a curve to represent.

ステップ1106では、ステップ1104で作成したエラー曲線に基づいて適切な閾値を決定する。この決定方法の詳細は後述する。   In step 1106, an appropriate threshold value is determined based on the error curve created in step 1104. Details of this determination method will be described later.

次に、図12を用いて、図11のステップ1102に示したシーン別の最大異常度の算出手順を詳細に説明する。グラフの横軸はフレーム番号、縦軸は異常度であり、評価用シーンを順次評価した場合の各フレームに対する異常度の推移をプロットしてある。曲線
1200はシーン1の各フレームに対する異常度の評価結果である。異常度の最大値は点1204の場合であり、この値をシーン1の最大異常度とする。同様に曲線1202はシーン2に対する異常度の評価結果であり、点1206に対応する異常度をシーン2の最大異常度とする。
Next, the procedure for calculating the maximum degree of abnormality for each scene shown in step 1102 of FIG. 11 will be described in detail with reference to FIG. The horizontal axis of the graph is the frame number, the vertical axis is the degree of abnormality, and the transition of the degree of abnormality for each frame when the evaluation scene is sequentially evaluated is plotted. A curve 1200 is an evaluation result of the degree of abnormality for each frame of the scene 1. The maximum value of the degree of abnormality is the case of the point 1204, and this value is set as the maximum degree of abnormality of the scene 1. Similarly, the curve 1202 is an evaluation result of the degree of abnormality with respect to the scene 2, and the degree of abnormality corresponding to the point 1206 is set as the maximum degree of abnormality of the scene 2.

次に、図13と図14を用いて、図11のステップ1104に示したエラー曲線の算出手順を詳細に説明する。   Next, the error curve calculation procedure shown in step 1104 of FIG. 11 will be described in detail with reference to FIGS. 13 and 14.

図13は、図11のステップ1102で算出したシーン毎の最大異常度を棒グラフで示したものである。この例では、シーン1からシーン7までが正常シーン、シーン8からシーン14までが異常シーンである。このグラフからは、正常シーンに対しては最大異常度が小さく、逆に異常シーンに対しては最大異常度が大きくなる傾向があることが分かる。   FIG. 13 is a bar graph showing the maximum degree of abnormality for each scene calculated in step 1102 of FIG. In this example, scenes 1 to 7 are normal scenes, and scenes 8 to 14 are abnormal scenes. From this graph, it can be seen that the maximum abnormality degree tends to be small for a normal scene, and conversely, the maximum abnormality degree tends to be large for an abnormal scene.

ここで、異常と正常の判断基準として、判別閾値1300を導入する。最大異常度がこの判別閾値1300よりも小さい場合はそのシーンは正常と見なすことができる。逆に、最大異常度が判別閾値1300以上である場合にはそのシーンを異常と見なすことができる。   Here, a discrimination threshold value 1300 is introduced as a criterion for determining whether an abnormality is normal or normal. If the maximum degree of abnormality is smaller than the determination threshold 1300, the scene can be regarded as normal. On the other hand, when the maximum abnormality degree is the determination threshold value 1300 or more, the scene can be regarded as abnormal.

本装置における異常検知性能は、誤報率と失報率で評価することができる。誤報率とは、正常シーンを誤って異常シーンと判定してしまう割合であり、値が小さいほどよい。図13の場合では、正常7シーンの中で、シーン5の最大異常度1302が判別閾値1300を超えており、異常として誤判定してしまう。この場合、誤報率は1/7=14%となる。一方、失報率とは、異常シーンを誤って正常シーンと判定してしまう割合であり、値が小さいほどよい。図13の場合では、異常7シーンの中でシーン12の最大異常度1304が判別閾値1300より小さいため、正常として誤判定してしまう。この場合、失報率は1/7=14%となる。   The anomaly detection performance of this device can be evaluated by the false alarm rate and the false alarm rate. The false alarm rate is a rate at which a normal scene is erroneously determined as an abnormal scene, and the smaller the value, the better. In the case of FIG. 13, the maximum degree of abnormality 1302 of the scene 5 exceeds the determination threshold value 1300 in the normal seven scenes, and is erroneously determined as abnormal. In this case, the false alarm rate is 1/7 = 14%. On the other hand, the unreported rate is a rate at which an abnormal scene is erroneously determined as a normal scene, and the smaller the value, the better. In the case of FIG. 13, since the maximum abnormality degree 1304 of the scene 12 is smaller than the determination threshold value 1300 among the abnormal 7 scenes, it is erroneously determined as normal. In this case, the unreported rate is 1/7 = 14%.

誤報率と失報率は、判別閾値の値によって変化する。この様子を図14に示す。曲線
1400は誤報率を表し、曲線1402は失報率を表す。図から分かるように、誤報率と失報率はトレードオフの関係にある。すなわち、判別閾値を大きく調整して誤報率を低くすると、失報率は高くなる。逆に、判別閾値を小さく調整して失報率を低くすると、誤報率は高くなる。図11のステップ1106では、このグラフを基にして、本装置の利用者にとって望ましい検知性能となるように判定閾値106を設定する。
The false alarm rate and the false alarm rate vary depending on the discrimination threshold value. This is shown in FIG. Curve 1400 represents the false alarm rate and curve 1402 represents the false alarm rate. As can be seen from the figure, there is a trade-off between the false alarm rate and the false alarm rate. That is, if the discrimination threshold is greatly adjusted to lower the false alarm rate, the false alarm rate increases. Conversely, the false alarm rate increases when the misregistration threshold is adjusted to a low value to reduce the false alarm rate. In step 1106 of FIG. 11, the determination threshold 106 is set based on this graph so that the detection performance desirable for the user of this apparatus is obtained.

判定閾値106の候補としては、例えば、誤報率と失報率が等しくなる点1404、すなわちEER(Equal Error Rate)がある。この場合EERに対応する判別閾値1406を判定閾値106として設定する。   As candidates for the determination threshold 106, for example, there is a point 1404 where the false alarm rate and the false alarm rate are equal, that is, EER (Equal Error Rate). In this case, the determination threshold value 1406 corresponding to EER is set as the determination threshold value 106.

他に、失報率が0%となるときの判別閾値1408や、誤報率が0%となるときの判別閾値1410を判定閾値として設定しても良い。   In addition, a determination threshold 1408 when the unreported rate is 0% and a determination threshold 1410 when the misreporting rate is 0% may be set as the determination threshold.

さらに、これらの判別閾値の選択条件は、本装置の利用目的や利用条件によって異なるので、本装置の利用者が選択できるようにしてもよい。   Furthermore, since the selection conditions for these discrimination thresholds differ depending on the purpose of use and usage conditions of the apparatus, the user of the apparatus may be able to select them.

また、ディスプレイなどの出力手段を用いて、図14のエラー曲線を利用者に提示してもよい。この場合は、マウス・キーボードなどの入力手段を用いて、画面上で判別閾値を選択できるようにしてもよい。   Further, the error curve of FIG. 14 may be presented to the user using an output means such as a display. In this case, the discrimination threshold may be selected on the screen using an input means such as a mouse / keyboard.

これらの手段によって、設定自由度を向上させる効果がある。   These means have the effect of improving the degree of freedom of setting.

以上に述べた実施例によれば、映像中の異常度を基にして異常発生の有無を自動判定できるようになる。これによって、異常発生時には、警告を出したり警備員に通報することで、その異常に即座に対応することが可能になる。さらに、異常発生の判定基準となる判定閾値を、評価用のシーンの評価結果に基づいて最良となるように自動決定できるようになる。したがって、異常判定の対象事象が変更された場合にも評価用のシーンを作成するだけで柔軟に対応できるようになる。   According to the embodiment described above, it is possible to automatically determine whether or not an abnormality has occurred based on the degree of abnormality in the video. As a result, when an abnormality occurs, it is possible to immediately respond to the abnormality by issuing a warning or notifying the guard. Furthermore, it becomes possible to automatically determine a determination threshold value, which is a determination criterion for occurrence of abnormality, so as to be the best based on the evaluation result of the evaluation scene. Therefore, even when the target event for abnormality determination is changed, it is possible to flexibly cope with the situation only by creating an evaluation scene.

以上に説明した実施例では、図9に示した正常空間への寄与率が小さい部分空間を、あらかじめ設定した累積寄与率に応じて決定するが、固定的な累積寄与率に基づいて部分空間を算出するのではなく、検知精度が最良となるように部分空間を決定するようにしてもよい。   In the embodiment described above, the partial space having a small contribution rate to the normal space shown in FIG. 9 is determined according to the preset cumulative contribution rate. However, the partial space is determined based on the fixed cumulative contribution rate. Instead of calculating, the partial space may be determined so that the detection accuracy is the best.

このような部分空間の決定方法を図15を使って説明する。図には第n主成分から第251主成分で構成される部分空間で異常度を算出した場合のEERの値とnの関係を、EER曲線1500として示してある。図14で説明したEERは小さいほど検知性能がよいと考えられる。したがって、EER曲線1500の最小値1502に対応する主成分数nを選択すればよい。 A method for determining such a partial space will be described with reference to FIG. In the drawing, the relationship between the EER value and n when the degree of abnormality is calculated in the partial space composed of the nth principal component to the 251st principal component is shown as an EER curve 1500. It is considered that the detection performance is better as the EER described in FIG. 14 is smaller. Therefore, the number n of principal components corresponding to the minimum value 1502 of the EER curve 1500 may be selected.

これにより、検知精度が最良となるように部分空間が自動的に決定できるようになる。したがって、利用者の手間をかけることがなく最良の検知性能を実現できる。   As a result, the partial space can be automatically determined so that the detection accuracy is the best. Therefore, the best detection performance can be realized without user effort.

次に本発明の異常行動検知装置を用いた監視画面の例を図16に示す。本監視画面は、異常行動検知装置を内蔵するパーソナルコンピュータや監視端末のディスプレイ装置に表示される。本映像例は、エレベータの乗りかご内をビデオカメラで撮影したものである。   Next, an example of a monitoring screen using the abnormal behavior detection device of the present invention is shown in FIG. This monitoring screen is displayed on a display device of a personal computer or a monitoring terminal incorporating the abnormal behavior detection device. In this example, the inside of the elevator car is photographed with a video camera.

領域1600は、現在処理の対象となっている映像を表示する領域である。   An area 1600 is an area for displaying a video currently being processed.

領域1602は算出した異常度の推移をトレンドグラフ1604として時間の経過とともに逐次表示する領域である。直線1606は判別閾値である。   An area 1602 is an area for sequentially displaying the transition of the calculated abnormality degree as a trend graph 1604 with the passage of time. A straight line 1606 is a discrimination threshold.

領域1608は、異常判定結果の表示領域である。正常・異常を区別して表示できるようにしておき、現在のフレームに対する判定結果108の内容に応じて、どちらの状態なのかを表示する。   An area 1608 is a display area for an abnormality determination result. Normality / abnormality can be distinguished and displayed, and according to the content of the determination result 108 for the current frame, which state is displayed.

また、正常・異常の2段階ではなくて、3段階以上の粒度で異常度を表示するようにしてもよい。領域1608には、異常度を3段階で表示する場合の例を示してある。例えば、青は正常、黄は軽度な異常、赤は深刻な異常を表すことで、監視者が直感的に状況を把握できる。   Further, the degree of abnormality may be displayed with a granularity of three or more levels instead of two levels of normal and abnormal. An area 1608 shows an example in which the degree of abnormality is displayed in three stages. For example, blue indicates normal, yellow indicates minor abnormality, and red indicates serious abnormality, so that the supervisor can grasp the situation intuitively.

次に図17のフローチャートを用いて、図16の領域1608に示した多段階の異常判定処理の詳細を説明する。ここでは、現在から所定の時間だけ過去に遡った場合に異常判定が占める時間の割合を算出し、その割合に応じて多段階の判定をする。   Next, details of the multi-stage abnormality determination process shown in the region 1608 of FIG. 16 will be described using the flowchart of FIG. Here, the ratio of the time occupied by the abnormality determination is calculated when going back to the past by a predetermined time from the present, and multi-stage determination is performed according to the ratio.

ステップ1700では、現在から所定の時間だけ過去に遡った場合の異常判定の占有率pを算出する。   In step 1700, an occupancy rate p for abnormality determination when going back in the past by a predetermined time from the present is calculated.

ステップ1702では、占有率pがあらかじめ指定した青判定用の閾値pbよりも小さいかどうか比較する。比較結果が真の場合にはステップ1704を実行する。比較結果が偽の場合にはステップ1706からステップ1710を実行する。   In Step 1702, it is compared whether the occupation ratio p is smaller than a threshold value pb for blue determination designated in advance. If the comparison result is true, step 1704 is executed. If the comparison result is false, steps 1706 to 1710 are executed.

ステップ1704では、判定結果を青として処理を終了する。   In step 1704, the determination result is blue and the process is terminated.

ステップ1706では、占有率pがあらかじめ指定した黄判定用の閾値pyよりも小さいかどうか比較する。比較結果が真の場合にはステップ1708を実行する。比較結果が偽の場合にはステップ1710を実行する。   In step 1706, it is compared whether or not the occupation ratio p is smaller than a predetermined yellow determination threshold value py. If the comparison result is true, step 1708 is executed. If the comparison result is false, step 1710 is executed.

ステップ1708では、判定結果を黄として処理を終了する。   In step 1708, the determination result is yellow and the process is terminated.

ステップ1710では、判定結果を赤として処理を終了する。   In step 1710, the determination result is red, and the process ends.

以上の処理は、判定結果が3段階の場合を示したが、それ以上の粒度で判定するようにしてもよい。その場合は、粒度に応じて閾値をあらかじめ設定しておけばよい。このように、判定結果を多段階で示すことで、監視者に分かりやすさを提供できるという効果がある。   Although the above processing shows the case where the determination result is three stages, the determination may be made with a granularity higher than that. In that case, a threshold value may be set in advance according to the granularity. Thus, by showing the determination results in multiple stages, there is an effect that it is possible to provide the supervisor with easy understanding.

以上に述べた実施例によれば、評価対象の映像の内容と映像の異常度の対応関係を容易に把握できる。このため、例えば誤報があった場合でも、監視者が容易に映像で本当に異常行動が発生しているのか即座に確認できる。   According to the embodiment described above, it is possible to easily grasp the correspondence between the content of the video to be evaluated and the degree of abnormality of the video. For this reason, for example, even if there is a false alarm, the supervisor can easily confirm whether or not the abnormal behavior is actually occurring in the video.

図18は、本発明による異常行動検知装置を備えるエレベータ装置を示す。なお、本図においては、巻上機,ロープ,釣合いおもりなどの駆動機構は図示を省略している。乗りかご40内に設けられたビデオカメラ30により乗りかご内の映像が取得され、その映像信号がテールコード50を介して昇降路内または昇降路外に設けられる異常行動検知装置10に伝送される。異常行動検知装置10は、乗りかご40内の映像に異常を検知すると、異常を示す判定結果信号を昇降路内または機械室に設けられるエレベータ制御装置20へ出力する。エレベータ制御装置20は、異常を示す判定結果信号を受信すると、乗りかご40を最寄の階床に停車させるように巻上機を制御すると共に乗りかご40及び乗場のドアを開くようにドア駆動装置を制御する。あるいは、制御装置40は乗りかご40内に設けられたアラームなどの警報装置を作動させる。このようなエレベータ装置によれば、異常行動者から同乗者が迅速に回避したり、乗りかご内における異常行動を抑制したりすることが可能になり、エレベータ装置のセキュリティ性が向上する。なお、異常行動検知装置10は乗りかご40に設けても良い。この場合、判定結果信号がテールコード50を介して制御装置20へ伝送される。   FIG. 18 shows an elevator apparatus equipped with the abnormal behavior detection apparatus according to the present invention. In the drawing, drive mechanisms such as a hoisting machine, a rope, and a counterweight are not shown. An image in the car is acquired by the video camera 30 provided in the car 40, and the video signal is transmitted to the abnormal behavior detection device 10 provided inside or outside the hoistway via the tail cord 50. . When detecting an abnormality in the video in the car 40, the abnormal behavior detection device 10 outputs a determination result signal indicating the abnormality to the elevator control device 20 provided in the hoistway or in the machine room. When the elevator control device 20 receives a determination result signal indicating an abnormality, the elevator control device 20 controls the hoisting machine so that the car 40 stops at the nearest floor and drives the door so as to open the car 40 and the landing door. Control the device. Alternatively, the control device 40 activates an alarm device such as an alarm provided in the car 40. According to such an elevator apparatus, it becomes possible for a passenger to quickly avoid an abnormal action person or to suppress an abnormal action in the car, thereby improving the security of the elevator apparatus. The abnormal behavior detection device 10 may be provided in the car 40. In this case, the determination result signal is transmitted to the control device 20 via the tail code 50.

本発明の位置実施例である異常行動検知装置の機能構成を表すブロック図である。It is a block diagram showing the functional structure of the abnormal action detection apparatus which is the position Example of this invention. 異常判定時の処理の流れを表すフローチャートである。It is a flowchart showing the flow of the process at the time of abnormality determination. 異常度算出部の機能構成を表すブロック図である。It is a block diagram showing the function structure of an abnormality degree calculation part. 異常度算出処理の流れを表すフローチャートである。It is a flowchart showing the flow of abnormality degree calculation processing. 立体高次局所自己相関の算出に用いるフレームを説明する図である。It is a figure explaining the frame used for calculation of a solid higher-order local autocorrelation. 立体高次局所自己相関のマスクパターンを説明する図である。It is a figure explaining the mask pattern of a solid higher-order local autocorrelation. 立体高次局所自己相関特徴の算出処理の流れを表すフローチャートである。It is a flowchart showing the flow of a calculation process of a solid higher-order local autocorrelation feature. 変換行列の算出処理の流れを表すフローチャートである。It is a flowchart showing the flow of the calculation process of a conversion matrix. 部分空間の算出処理を説明する図である。It is a figure explaining the calculation process of a partial space. 異常度の評価方法を説明する図である。It is a figure explaining the evaluation method of an abnormality degree. 判定閾値算出時の処理の流れを表すフローチャートである。It is a flowchart showing the flow of the process at the time of determination threshold value calculation. シーン別の最大異常度を説明する図である。It is a figure explaining the maximum abnormal degree according to scene. 誤報率と失報率を説明する図である。It is a figure explaining a false alarm rate and a false alarm rate. エラー曲線を説明する図である。It is a figure explaining an error curve. 部分空間の決定処理を説明する図である。It is a figure explaining the determination process of a partial space. 監視画面の例を説明する図である。It is a figure explaining the example of a monitoring screen. 3段階の異常判定処理の流れを表すフローチャートである。It is a flowchart showing the flow of a three-stage abnormality determination process. 本発明による異常行動検知装置を備えるエレベータ装置を示す。An elevator apparatus provided with the abnormal action detection apparatus by this invention is shown.

符号の説明Explanation of symbols

10…異常行動検知装置、20…エレベータ制御装置、30…ビデオカメラ、40…乗りかご、50…テールコード、100…映像取得部、102…異常度算出部、104…異常判定部、106…判定閾値、108…判定結果、110…判定閾値算出部、112…発報部。   DESCRIPTION OF SYMBOLS 10 ... Abnormal action detection apparatus, 20 ... Elevator control apparatus, 30 ... Video camera, 40 ... Ride car, 50 ... Tail code, 100 ... Image | video acquisition part, 102 ... Abnormality calculation part, 104 ... Abnormality determination part, 106 ... Determination Threshold value 108... Determination result 110. Determination threshold value calculation unit 112.

Claims (6)

監視対象の映像を取得する映像取得部と、
前記映像取得部が取得した映像の異常度を算出する異常度算出部と、
前記異常度算出部が算出した異常度から異常行動が発生しているのかどうかを閾値に基づいて判定する異常判定部とを備えた異常行動検知装置であって、
前記異常度算出部は、
前記映像の中から動きのある部分を抽出する動き抽出部と、
前記動き抽出部が生成した映像の立体高次局所自己相関特徴である251次元の第1の特徴量を算出する特徴量算出部と、
前記第1の特徴量を主成分分析による線形変換で第n主成分から第251主成分で構成される252−n次元の部分空間上の第2の特徴量に変換する特徴量変換部と、
252−n次元の前記第2の特徴量を正常行動に対する252−n次元の第3の特徴量と比較することで異常度を算出する異常度評価部とを備え、
前記特徴量変換部は、前記第1の特徴量を主成分分析して第n主成分から第251主成分で構成される部分空間で異常度を算出した場合に、誤報率と失報率が等しいEER(Equal Error Rate)が最小となるようなnを選択し、(252−n)×251の大きさの変換行列を生成することを特徴とする異常行動検知装置。
A video acquisition unit for acquiring video to be monitored;
An abnormality degree calculation unit for calculating the degree of abnormality of the video acquired by the video acquisition unit;
An abnormal behavior detection device comprising: an abnormality determination unit that determines, based on a threshold value, whether abnormal behavior has occurred from the degree of abnormality calculated by the abnormality level calculation unit,
The abnormality degree calculation unit
A motion extractor for extracting a portion with motion from the video;
A feature amount calculation unit that calculates a 251-dimensional first feature amount that is a stereoscopic higher-order local autocorrelation feature of the video generated by the motion extraction unit;
A feature amount conversion unit that converts the first feature amount into a second feature amount on a 252-n-dimensional subspace composed of the n-th principal component and the 251-th principal component by linear conversion by principal component analysis;
An abnormality degree evaluation unit that calculates an abnormality degree by comparing the second feature quantity of 252-n dimensions with a third feature quantity of 252-n dimensions for normal behavior;
When the feature amount conversion unit calculates a degree of abnormality in a subspace composed of the n-th principal component to the 251st principal component by performing a principal component analysis on the first feature amount, a false alarm rate and a false alarm rate are obtained. An abnormal behavior detection apparatus, wherein n is selected such that an equal EER (Equal Error Rate) is minimized, and a transformation matrix having a size of (252−n) × 251 is generated.
請求項1において、前記異常度評価部は、前記第2の特徴量と前記第3の特徴量の集合の重心とのユークリッド距離により異常度を算出することを特徴とする異常行動検知装置。   The abnormal behavior detecting device according to claim 1, wherein the abnormality degree evaluation unit calculates an abnormality degree based on a Euclidean distance between the second feature amount and a center of gravity of the third feature amount set. 請求項1において、前記異常度評価部は、前記第2の特徴量と前記第3の特徴量の集合のマハラノビス距離により異常度を算出することを特徴とする異常行動検知装置。   The abnormal behavior detecting device according to claim 1, wherein the abnormality degree evaluation unit calculates an abnormality degree from a Mahalanobis distance of a set of the second feature quantity and the third feature quantity. 請求項1ないしのいずれか1項において、前記異常判定部の判定処理に必要となる判別閾値を判定結果が最良となるように設定する判定閾値算出部を備えることを特徴とする異常行動検知装置。 In any one of claims 1 to 3, abnormal behavior detection, characterized in that it comprises the determination threshold calculation unit that sets the determination threshold value required for the determination process of the abnormality determination portion such determination result is best apparatus. 請求項において、前記判定閾値算出部は、誤報率と失報率が等しいEER(Equal Error Rate),誤報率0%,失報率0%のいずれかに対応する閾値を設定することを特徴とする異常行動検知装置。 5. The determination threshold value calculation unit according to claim 4 , wherein the determination threshold value calculation unit sets a threshold value corresponding to any one of EER (Equal Error Rate), false error rate 0%, and false error rate 0%. An abnormal behavior detection device. 請求項において、前記判定閾値算出部は、判別閾値と誤報率及び失報率の関係を示すエラー曲線を表示装置に示し、判別閾値を表示装置上で選択させる入力手段を備えることを特徴とする異常行動検知装置。 The determination threshold value calculation unit according to claim 5 , further comprising an input unit that displays an error curve indicating a relationship between the determination threshold value, the false alarm rate, and the unreported rate on the display device, and selects the determination threshold value on the display device. To detect abnormal behavior.
JP2006040111A 2006-02-17 2006-02-17 Abnormal behavior detection device Active JP4701100B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2006040111A JP4701100B2 (en) 2006-02-17 2006-02-17 Abnormal behavior detection device
CN2009102252542A CN101714255B (en) 2006-02-17 2007-01-23 Abnormal behavior detection device
CN2007100040615A CN101025825B (en) 2006-02-17 2007-01-23 Abnormal action detecting device
HK08101176.6A HK1107861A1 (en) 2006-02-17 2008-01-30 Abnormal behaviour detection device
HK10108671.7A HK1142156A1 (en) 2006-02-17 2010-09-13 Abnormal behavior detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006040111A JP4701100B2 (en) 2006-02-17 2006-02-17 Abnormal behavior detection device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011006564A Division JP5228067B2 (en) 2011-01-17 2011-01-17 Abnormal behavior detection device

Publications (2)

Publication Number Publication Date
JP2007219865A JP2007219865A (en) 2007-08-30
JP4701100B2 true JP4701100B2 (en) 2011-06-15

Family

ID=38497094

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006040111A Active JP4701100B2 (en) 2006-02-17 2006-02-17 Abnormal behavior detection device

Country Status (3)

Country Link
JP (1) JP4701100B2 (en)
CN (2) CN101025825B (en)
HK (2) HK1107861A1 (en)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4842197B2 (en) * 2007-04-17 2011-12-21 財団法人ソフトピアジャパン Abnormal operation detection device using multiple divided images, abnormal operation detection method, and abnormal operation detection program
JP4925120B2 (en) * 2007-07-02 2012-04-25 独立行政法人産業技術総合研究所 Object recognition apparatus and object recognition method
JP5334008B2 (en) * 2007-10-31 2013-11-06 東芝エレベータ株式会社 Abnormal operation detection device
JP4654347B2 (en) * 2007-12-06 2011-03-16 株式会社融合技術研究所 Abnormal operation monitoring device
JP4663756B2 (en) * 2008-04-28 2011-04-06 株式会社日立製作所 Abnormal behavior detection device
JP4663767B2 (en) * 2008-09-01 2011-04-06 株式会社日立製作所 Image surveillance system
JP2010117267A (en) * 2008-11-13 2010-05-27 Nippon Telegr & Teleph Corp <Ntt> Abnormal state detecting system, and method and program of selecting sensor therefor
US8165349B2 (en) * 2008-11-29 2012-04-24 International Business Machines Corporation Analyzing repetitive sequential events
JP2011048547A (en) * 2009-08-26 2011-03-10 Toshiba Corp Abnormal-behavior detecting device, monitoring system, and abnormal-behavior detecting method
JP5155279B2 (en) * 2009-10-29 2013-03-06 株式会社日立製作所 Centralized monitoring system and centralized monitoring method using multiple surveillance cameras
JP2012165240A (en) * 2011-02-08 2012-08-30 Sony Corp Moving image processing apparatus, moving image processing method, and program
CN102829967B (en) * 2012-08-27 2015-12-16 中国舰船研究设计中心 A kind of time domain fault recognition method based on regression model index variation
CN103164993B (en) * 2013-02-22 2015-02-11 福建华映显示科技有限公司 Digital teaching system and screen monitoring method thereof
JP5635637B2 (en) * 2013-03-15 2014-12-03 ヤフー株式会社 Animal abnormality detection device, animal abnormality detection method, and program
KR101441107B1 (en) 2013-04-29 2014-09-23 주식회사 에스원 Method and apparatus for determining abnormal behavior
TWI614698B (en) * 2014-10-23 2018-02-11 美和學校財團法人美和科技大學 Detection system for estrus of quadruped
CN105405150B (en) * 2015-10-21 2019-04-30 东方网力科技股份有限公司 Anomaly detection method and device based on fusion feature
JP6942472B2 (en) 2017-01-13 2021-09-29 キヤノン株式会社 Video recognition device, video recognition method and program
EP3406556A1 (en) 2017-05-23 2018-11-28 Otis Elevator Company Elevator doorway display systems for elevator cars
JP6903142B2 (en) * 2017-09-21 2021-07-14 株式会社アダコテック Anomaly detection device, anomaly detection method and program
JP7179663B2 (en) * 2019-03-28 2022-11-29 三菱重工業株式会社 PLANT MONITORING DEVICE, PLANT MONITORING METHOD, AND PROGRAM
CN110407052B (en) * 2019-08-02 2020-11-10 浙江新再灵科技股份有限公司 Method and system for detecting violent movement behaviors in elevator
JP7433193B2 (en) 2020-11-17 2024-02-19 三菱電機株式会社 Suspicious behavior monitoring support system and suspicious behavior monitoring support method
CN112633222B (en) * 2020-12-30 2023-04-28 民航成都电子技术有限责任公司 Gait recognition method, device, equipment and medium based on countermeasure network
CN116453247B (en) * 2023-06-13 2023-09-19 三峡高科信息技术有限责任公司 Intelligent lock control system based on Internet of Things technology

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63253478A (en) * 1987-04-10 1988-10-20 Hitachi Ltd Method and device for monitoring of fish picture
JP2001021309A (en) * 1999-07-12 2001-01-26 Toshiba Tec Corp Individual body authentication method and individual person authentication method
JP2001216585A (en) * 2000-02-03 2001-08-10 Sekisui Chem Co Ltd Abnormal behavior judging system
JP2004152087A (en) * 2002-10-31 2004-05-27 Fuji Photo Film Co Ltd Method and apparatus for extracting feature vector of image
JP2006079272A (en) * 2004-09-08 2006-03-23 National Institute Of Advanced Industrial & Technology Abnormal behavior detection apparatus and abnormal behavior detection method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1617512A (en) * 2004-11-25 2005-05-18 中国科学院计算技术研究所 Adaptive network flow forecasting and abnormal alarming method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63253478A (en) * 1987-04-10 1988-10-20 Hitachi Ltd Method and device for monitoring of fish picture
JP2001021309A (en) * 1999-07-12 2001-01-26 Toshiba Tec Corp Individual body authentication method and individual person authentication method
JP2001216585A (en) * 2000-02-03 2001-08-10 Sekisui Chem Co Ltd Abnormal behavior judging system
JP2004152087A (en) * 2002-10-31 2004-05-27 Fuji Photo Film Co Ltd Method and apparatus for extracting feature vector of image
JP2006079272A (en) * 2004-09-08 2006-03-23 National Institute Of Advanced Industrial & Technology Abnormal behavior detection apparatus and abnormal behavior detection method

Also Published As

Publication number Publication date
JP2007219865A (en) 2007-08-30
CN101025825A (en) 2007-08-29
HK1107861A1 (en) 2008-04-18
CN101714255A (en) 2010-05-26
CN101025825B (en) 2010-08-04
HK1142156A1 (en) 2010-11-26
CN101714255B (en) 2012-08-22

Similar Documents

Publication Publication Date Title
JP4701100B2 (en) Abnormal behavior detection device
JP4663756B2 (en) Abnormal behavior detection device
JP4792069B2 (en) Image recognition device
JP4369961B2 (en) Abnormality detection device and abnormality detection program
JP5369175B2 (en) Elevator door detection apparatus and detection method using video
EP2377044B1 (en) Detecting anomalous events using a long-term memory in a video analysis system
CN107679471B (en) Indoor personnel air post detection method based on video monitoring platform
CN101434363B (en) Control apparatus of escalator
US20100063949A1 (en) Long-term memory in a video analysis system
JP6729793B2 (en) Information processing apparatus, control method, and program
JP5228067B2 (en) Abnormal behavior detection device
KR102101623B1 (en) Method and apparatus for detecting informal situation using image
KR101357721B1 (en) Apparatus for detecting of single elderly persons’ abnormal situation using image and method thereof
Lee et al. Hostile intent and behaviour detection in elevators
JP2005284652A (en) Video monitoring method and apparatus using moving vector
WO2020139071A1 (en) System and method for detecting aggressive behaviour activity
US11574461B2 (en) Time-series based analytics using video streams
JP7347481B2 (en) Information processing device, information processing method, and program
WO2023188264A1 (en) Information processing system
US20220148196A1 (en) Image processing apparatus, image processing method, and storage medium
KR20170113852A (en) System for early detecting disasters based on SVM and method thereof
JP6072092B2 (en) Image processing device
KR20110089758A (en) Elevator monitoring system and operating method thereof
Sreejith et al. A Next-Gen Real-Time Video Alert System with Machine Learning Sensitivity
CN116704394A (en) Abnormal behavior detection in video streams

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100727

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101116

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110307

R150 Certificate of patent or registration of utility model

Ref document number: 4701100

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150