JP2008287478A - Abnormality detection apparatus and method - Google Patents

Abnormality detection apparatus and method Download PDF

Info

Publication number
JP2008287478A
JP2008287478A JP2007131540A JP2007131540A JP2008287478A JP 2008287478 A JP2008287478 A JP 2008287478A JP 2007131540 A JP2007131540 A JP 2007131540A JP 2007131540 A JP2007131540 A JP 2007131540A JP 2008287478 A JP2008287478 A JP 2008287478A
Authority
JP
Japan
Prior art keywords
feature data
data
cone
abnormality
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007131540A
Other languages
Japanese (ja)
Other versions
JP4769983B2 (en
Inventor
Takumi Kobayashi
匠 小林
Nobuyuki Otsu
展之 大津
Satoshi Ito
聡 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
National Institute of Advanced Industrial Science and Technology AIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Advanced Industrial Science and Technology AIST filed Critical National Institute of Advanced Industrial Science and Technology AIST
Priority to JP2007131540A priority Critical patent/JP4769983B2/en
Publication of JP2008287478A publication Critical patent/JP2008287478A/en
Application granted granted Critical
Publication of JP4769983B2 publication Critical patent/JP4769983B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2433Single-class perspective, e.g. one-against-all classification; Novelty detection; Outlier detection

Abstract

<P>PROBLEM TO BE SOLVED: To provide an abnormality detection apparatus capable of detecting with high accuracy any abnormal condition different from the normal condition from certain multidimensional feature data. <P>SOLUTION: The abnormality detection apparatus includes a feature data extraction means for extracting multidimensional feature data from input data, an angle calculation means for calculating the angle between a cone showing a normal space previously calculated in a feature data space and the feature data extracted by the feature data extraction means, and an abnormality determining means for determining the angle as an abnormality if the angle is greater than a predetermined value. The cone can be a polygonal pyramid, an approximate polygonal pyramid, a circular cone, etc. Determinations can be made with higher accuracy than before, the amount of calculations required to determine abnormalities is reduced and is constant regardless of the number of targets, and real-time processing is possible. Also, any feature vector, e.g., CHLAC data, is usable. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、異常検出装置および異常検出方法に関し、特に、任意の被検出対象から得られた任意の多次元特徴データから通常とは異なる異常状態を高い精度で検出することができる異常検出装置および異常検出方法に関するものである。   The present invention relates to an anomaly detection apparatus and an anomaly detection method, and in particular, an anomaly detection apparatus capable of detecting an abnormal state different from normal from any multidimensional feature data obtained from any object to be detected with high accuracy, and The present invention relates to an abnormality detection method.

従来、異常状態の監視システムの一種として、セキュリティ分野における映像監視や老人介護のモニタリングシステムなど、カメラによる異常監視システムが多く利用されている。しかし、これらは人が監視を行うシステムであり、手間と費用がかかっていた。そこで、コンピュータによる異常状態の自動検出システムが求められていた。   Conventionally, as an abnormal state monitoring system, an anomaly monitoring system using a camera, such as a video monitoring in the security field and a monitoring system for elderly care, has been widely used. However, these were systems that were monitored by humans, and it took time and money. Therefore, there has been a demand for a system for automatically detecting abnormal conditions using a computer.

異常状態の一種である、人や車など任意の対象物の異常動作の認識の研究としては、本発明者の一部らが発表した下記の特許文献1に、立体高次局所自己相関特徴(以下、CHLACデータとも記す)を用いた異常動作認識を行う技術が開示されている。特許文献1の異常動作検出装置は、ビデオカメラから入力される動画像データからフレーム間差分データを生成し、複数のフレーム間差分データからなる3次元データから立体高次局所自己相関によって特徴データを抽出し、過去の特徴データから主成分分析手法により得られた主成分ベクトルに基づく部分空間と、最新の特徴データとの距離を計算する。そして、この距離が所定値よりも大きい場合に異常と判定する。対象物の正常動作を部分空間として学習し、異常動作をそこからの逸脱として検出することにより、例えば画面内に複数人いる場合でも1人の異常動作を検出可能である。
特開2006−079272号公報
As a study of recognition of abnormal motion of an arbitrary object such as a person or a car, which is a kind of abnormal state, the following patent document 1 published by some of the present inventors describes a three-dimensional higher-order local autocorrelation feature ( Hereinafter, a technique for recognizing abnormal operation using CHLAC data) is disclosed. The abnormal motion detection apparatus of Patent Document 1 generates inter-frame difference data from moving image data input from a video camera, and obtains feature data from three-dimensional data composed of a plurality of inter-frame difference data by three-dimensional higher-order local autocorrelation. Extracting and calculating the distance between the latest feature data and the partial space based on the principal component vector obtained from the past feature data by the principal component analysis method. And when this distance is larger than predetermined value, it determines with it being abnormal. By learning the normal operation of the object as a partial space and detecting the abnormal operation as a deviation from the partial space, for example, even when there are a plurality of persons in the screen, it is possible to detect one abnormal operation.
JP 2006-079272 A

上記した従来の異常検出方法においては、主成分分析手法により得られた主成分ベクトルに基づく正常領域を示す部分空間と最新の特徴データとの距離によって異常か否かを判定していた。しかし、主成分分析手法により得られた主成分ベクトルに基づく正常領域を示す部分空間の近傍や部分空間内にも本来異常と判定すべき特徴データが存在する可能性があるという問題点があった。   In the above-described conventional abnormality detection method, whether or not there is an abnormality is determined based on the distance between a partial space indicating a normal region based on the principal component vector obtained by the principal component analysis method and the latest feature data. However, there is a problem that there may be characteristic data that should be judged as abnormal in the vicinity of the subspace indicating the normal region based on the principal component vector obtained by the principal component analysis method or in the subspace. .

本発明の目的はこのような問題点を解決し、動作に関する特徴データに限らず、任意の被検出対象から得られた任意の多次元特徴データ(特徴ベクトル)から通常とは異なる異常状態を高い精度で検出することができる異常検出装置および異常検出方法を提供する点にある。   The object of the present invention is to solve such a problem, and not only the feature data relating to the operation but also the abnormal state different from the normal from any multidimensional feature data (feature vector) obtained from any target to be detected is high. The object is to provide an abnormality detection device and an abnormality detection method that can be detected with high accuracy.

本発明の異常検出装置は、入力されたデータから多次元の特徴データを抽出する特徴データ抽出手段と、特徴データ空間において予め求められている正常空間を示す錐状体と前記特徴データ抽出手段により抽出された特徴データとの角度を計算する角度計算手段と、前記角度が所定値よりも大きい場合に異常と判定する異常判定手段とを備えたことを主要な特徴とする。   The abnormality detection apparatus according to the present invention includes feature data extraction means for extracting multidimensional feature data from input data, a cone indicating a normal space obtained in advance in the feature data space, and the feature data extraction means. The main features include an angle calculating means for calculating an angle with the extracted feature data, and an abnormality determining means for determining an abnormality when the angle is larger than a predetermined value.

また、上記した異常検出装置において、前記正常空間を示す錐状体は、複数の基底ベクトルにより各辺が規定された多角錐である点にも特徴がある。
また、上記した異常検出装置において、前記多角錐は、ノンネガティブマトリックスファクトライゼーション(Non-negative Matrix Factorization)法により得られた基底ベクトルによって各辺が規定された、正常部分空間内における正常サンプルの分布範囲を近似する多角錐である点にも特徴がある。
In the above-described abnormality detection apparatus, the cone-shaped body indicating the normal space is also characterized in that it is a polygonal pyramid whose sides are defined by a plurality of basis vectors.
In the above-described abnormality detection apparatus, the polygonal pyramid is a distribution of normal samples in a normal subspace in which each side is defined by a basis vector obtained by a non-negative matrix factorization method. Another feature is that it is a polygonal cone that approximates the range.

また、上記した異常検出装置において、前記多角錐は、正常サンプルから主成分分析によって求めた主成分ベクトルに基づいて生成された複数の基底ベクトルによって各辺が規定された、正常部分空間内における正常サンプルの分布範囲を近似する多角錐である点にも特徴がある。   In the above-described abnormality detection device, the polygonal pyramid is normal in a normal subspace in which each side is defined by a plurality of basis vectors generated based on a principal component vector obtained from a normal sample by principal component analysis. Another feature is that it is a polygonal cone that approximates the distribution range of the sample.

また、上記した異常検出装置において、前記正常空間を示す錐状体は、円錐の中心を示す方向ベクトル情報および円錐の広がりを示す角度情報によって規定された円錐である点にも特徴がある。また、上記した異常検出装置において、更に、特徴データのスケールを正規化するスケール正規化手段を備えた点にも特徴がある。   In the above-described abnormality detection device, the cone-shaped body indicating the normal space is also characterized in that it is a cone defined by direction vector information indicating the center of the cone and angle information indicating the spread of the cone. Further, the above-described abnormality detection device is further characterized in that it further includes scale normalizing means for normalizing the scale of the feature data.

また、上記した異常検出装置において、更に、学習用の入力データに基づき、前記特徴データ抽出手段によって抽出された複数の特徴データから正常空間を示す錐状体を算出する学習手段を備えた点にも特徴がある。   Further, the abnormality detecting apparatus described above further includes a learning unit that calculates a cone that indicates a normal space from a plurality of feature data extracted by the feature data extracting unit based on input data for learning. There is also a feature.

また、上記した異常検出装置において、更に、特徴データを複数のクラスタに分けるクラスタ分割手段を備え、前記学習手段は分割された各クラスタ毎に正常空間を示す錐状体を算出し、前記異常判定手段は、前記各クラスタ毎に判定を行い、前記特徴データが全てのクラスタにおいて異常と判定された場合にのみ当該特徴データを異常と判定する点にも特徴がある。   The abnormality detection apparatus further includes a cluster dividing unit that divides the feature data into a plurality of clusters, and the learning unit calculates a cone that indicates a normal space for each divided cluster, and the abnormality determination The means is characterized in that the determination is performed for each cluster, and the feature data is determined to be abnormal only when the feature data is determined to be abnormal in all clusters.

また、上記した異常検出装置において、前記特徴データ抽出手段は、入力された複数の画像フレームデータからなる動画像データからフレーム間差分データを生成し、複数の前記フレーム間差分データからなる3次元データから立体高次局所自己相関によって動作特徴データを生成する点にも特徴がある。   Further, in the above-described abnormality detection device, the feature data extraction unit generates inter-frame difference data from moving image data including a plurality of input image frame data, and three-dimensional data including the plurality of inter-frame difference data. Another feature is that the motion feature data is generated by three-dimensional higher-order local autocorrelation.

本発明の異常検出方法は、入力されたデータから特徴データを抽出するステップ、特徴データ空間において予め求められている正常空間を示す錐状体と前記特徴データ抽出手段により抽出された特徴データとの角度を計算するステップ、前記角度が所定値よりも大きい場合に異常と判定するステップを含むことを主要な特徴とする。   The abnormality detection method of the present invention includes a step of extracting feature data from input data, a cone indicating a normal space obtained in advance in the feature data space, and feature data extracted by the feature data extraction means. The main feature includes a step of calculating an angle and a step of determining an abnormality when the angle is larger than a predetermined value.

本発明によれば、以下のような効果がある。
(1)従来異常であるのに正常と判定されていた事象についても異常の判定が可能となり、異常判定の精度が向上する。
(2)特徴抽出や異常判定のための計算量が少なく、計算量は対象数に依らず一定であり、実時間処理が可能である。
The present invention has the following effects.
(1) It is possible to determine an abnormality even for an event that has been determined to be normal even though it is abnormal in the past, and the accuracy of the abnormality determination is improved.
(2) The amount of calculation for feature extraction and abnormality determination is small, the amount of calculation is constant regardless of the number of objects, and real-time processing is possible.

(3)さまざまな監視対象に対応可能であり、特徴ベクトルとしてはCHLACデータを始めとして任意のものを採用可能である。
(4)CHLACを採用して角度で異常判定を行う場合には、対象のスケールにロバストに異常を検出できる。
(5)異常検出に限らず一般の認識課題(顔、人認識など)にも適用可能である。
(3) It can cope with various monitoring targets, and any arbitrary vector such as CHLAC data can be adopted as a feature vector.
(4) In the case where CHLAC is used to perform abnormality determination by angle, abnormality can be detected robustly on the target scale.
(5) The present invention is applicable not only to abnormality detection but also to general recognition tasks (face recognition, human recognition, etc.).

まず、本発明の実施例としては、一例としてCHLACデータを用いた異常動作の検出について開示するが、本発明は、CHLACデータに限らず、任意の被検出対象から得られた任意の多次元特徴データ(特徴ベクトル)から、異常動作に限らず、通常とは異なる異常状態、即ち発生確率の小さな事象を高い精度で検出することができるものである。   First, as an example of the present invention, the detection of abnormal operation using CHLAC data is disclosed as an example, but the present invention is not limited to CHLAC data, and any multidimensional feature obtained from any target to be detected. From the data (feature vector), not only abnormal operation but also an abnormal state different from normal, that is, an event having a small occurrence probability can be detected with high accuracy.

次に、「異常」の定義であるが、異常の事象を全て列挙することができないように、異常そのものを定義することはできない。そこで本明細書においては、異常を「正常ではないもの」として定義する。正常は、例えば特徴の統計的な分布を考えた場合に分布の集中する領域であるものとすれば、統計的な分布から学習可能である。そして、その分布から大きく逸脱する動作を異常とする。   Next, although “abnormal” is defined, the abnormality itself cannot be defined so that all abnormal events cannot be listed. Therefore, in this specification, an abnormality is defined as “not normal”. If normal is a region where the distribution is concentrated when considering the statistical distribution of features, for example, it is possible to learn from the statistical distribution. Then, an operation that greatly deviates from the distribution is regarded as abnormal.

例えば、通路や道路などに設置された防犯カメラでは、歩く動作のような一般的な動作は正常動作として学習され、認識されるが、挙動不審のような動作は、歩く動作のような周期運動でもなく、発現する確率の非常に低い事象であるため、異常として認識されることになる。   For example, in a security camera installed on a passage or road, general motion such as walking is learned and recognized as normal motion, but motion like suspicious behavior is periodic motion like walking motion. Instead, it is an event that has a very low probability of occurring, and is therefore recognized as an abnormality.

本発明においては、特徴ベクトル空間内において正常な特徴ベクトルが1つあるいは複数の(超立体の)多角錐形状あるいは円錐形状の領域を合わせた正常空間領域内に分布していることを見出し、特徴ベクトルが、上記した1つあるいは複数の多角錐あるいは円錐形状領域の内の1つの内部に存在しているか否かを判定し、いずれかの多角錐あるいは円錐形状の内部に存在していれば正常、そうでなければ異常と判定する。以下に本発明の実施例の一例としてCHLACデータを用いた異常動作の検出について説明する。   In the present invention, it is found that normal feature vectors are distributed in a normal space region in which one or a plurality of (hyper-solid) polygonal pyramid shapes or conical regions are combined in the feature vector space. It is judged whether the vector exists inside one of the above-mentioned one or plural polygonal cones or cone-shaped regions, and is normal if it exists inside any one of the polygonal cones or cones. Otherwise, it is determined as abnormal. Hereinafter, detection of abnormal operation using CHLAC data will be described as an example of an embodiment of the present invention.

図1は、本発明の実施例1(多角錐)の判定方法を示す説明図である。図1は説明を簡単にするために、CHLAC特徴データ空間を3次元(実際には例えば251次元)としたものであり、正常動作空間は正常動作のCHLAC特徴データを含む1個の多角錐の内部に存在している。   FIG. 1 is an explanatory diagram illustrating a determination method of Example 1 (polygonal pyramid) of the present invention. FIG. 1 shows the CHLAC feature data space in three dimensions (actually, for example, 251 dimensions) for ease of explanation, and the normal operation space is a polygonal pyramid containing normal operation CHLAC feature data. Exists inside.

図1(b)は判定すべきサンプル特徴ベクトルxおよび多角錐の各辺を表す基底ベクトルと交差する平面で切った場合の断面における配置例を示しており、図1(c)は原点およびサンプル特徴ベクトルxから一番近い多角錐の表面へ降ろした垂線を含む平面で切った場合の断面を示している。   FIG. 1B shows an arrangement example in a cross section when cut by a plane intersecting a sample feature vector x to be determined and a base vector representing each side of the polygonal pyramid, and FIG. 1C shows an origin and a sample. A cross section is shown in the case of cutting along a plane including a perpendicular drawn from the feature vector x to the surface of the nearest polygonal pyramid.

特徴ベクトルxから一番近い多角錐の表面が多角錐の辺(基底ベクトル)の間にある平面である場合(図1(b)におけるAの範囲)には、角度θはこの平面と特徴ベクトルxとのなす角度となる。また、特徴ベクトルxから一番近い多角錐の表面が辺(基底ベクトル)である場合(図1(b)におけるBの範囲)には、角度θはこの辺(基底ベクトル)と特徴ベクトルxとのなす角度となる。   When the surface of the polygonal pyramid closest to the feature vector x is a plane between the sides (base vectors) of the polygonal pyramid (range A in FIG. 1B), the angle θ is the plane and the feature vector. The angle formed by x. When the surface of the polygonal pyramid closest to the feature vector x is a side (basis vector) (range B in FIG. 1B), the angle θ is the difference between the side (base vector) and the feature vector x. The angle to make.

従って、角度θが同じ値となる特徴ベクトルの位置を結んだ線は図1(b)に示す線Lのような位置となる。異常動作の特徴データは、正常動作空間を示す多角錐の表面との角度θが大きくなるので、この角度θが所定の閾値以上か否かによって異常を判定する。   Accordingly, a line connecting the positions of the feature vectors having the same angle θ is a position like a line L shown in FIG. In the feature data of the abnormal operation, the angle θ with the surface of the polygonal pyramid indicating the normal operation space is large. Therefore, whether the angle θ is equal to or greater than a predetermined threshold is determined.

図5は、本発明による異常検出装置の構成を示すブロック図である。ビデオカメラ10は対象となる人や装置の動画像フレームデータをリアルタイムで出力する。ビデオカメラ10はモノクロでもよいしカラーカメラであってもよい。コンピュータ11は例えば動画像を取り込むためのビデオキャプチャー回路を備えた周知のパソコン(PC)であってもよい。本発明は、パソコンなどの周知の任意のコンピュータ11に後述するプログラムを作成してインストールすることにより実現される。   FIG. 5 is a block diagram showing the configuration of the abnormality detection apparatus according to the present invention. The video camera 10 outputs moving image frame data of a target person or device in real time. The video camera 10 may be a monochrome camera or a color camera. The computer 11 may be a known personal computer (PC) provided with a video capture circuit for capturing a moving image, for example. The present invention is realized by creating and installing a program to be described later on an arbitrary known computer 11 such as a personal computer.

モニタ装置12はコンピュータ11の周知の出力装置であり、例えば異常動作が検出されたことをオペレータに表示するために使用される。キーボード13およびマウス14は、オペレータが入力に使用する周知の入力装置である。なお、実施例においては、例えばビデオカメラ10から入力された動画像データを実時間で処理してもよいし、一旦動画像ファイルに保存してから順次読み出して処理してもよい。   The monitor device 12 is a well-known output device of the computer 11 and is used, for example, to display to the operator that an abnormal operation has been detected. The keyboard 13 and the mouse 14 are well-known input devices used for input by the operator. In the embodiment, for example, moving image data input from the video camera 10 may be processed in real time, or may be temporarily stored after being stored in a moving image file and processed.

図6は、本発明の異常検出処理の検出時の処理内容を示すフローチャートである。S10においては、ビデオカメラ10からのフレームデータの入力が完了するまで待ち、フレームデータを入力(メモリに読み込む)する。このときの画像データは例えば256階調のグレイスケールデータである。   FIG. 6 is a flowchart showing the processing contents at the time of detection of the abnormality detection processing of the present invention. In S10, it waits until the input of the frame data from the video camera 10 is completed, and the frame data is input (read into the memory). The image data at this time is, for example, 256 gray scale data.

S11においては、入力されたフレームデータから後述する方法によって特徴ベクトルを生成する。特徴ベクトルは例えば後述する251次元のCHLAC特徴データであってもよい。S12においては、下記の数式1に示すように、特徴ベクトルについてベクトルノルムによる正規化を行う。即ち、特徴ベクトルxをベクトルノルム(ベクトルの長さ、|x|)で除算する。   In S11, a feature vector is generated from the input frame data by a method described later. The feature vector may be, for example, 251 dimensional CHLAC feature data described later. In S12, as shown in Equation 1 below, the feature vector is normalized by a vector norm. That is, the feature vector x is divided by the vector norm (vector length, | x |).

Figure 2008287478
Figure 2008287478

S13においては、未処理のクラスタを選択する。クラスタの数および各クラスタの基底ベクトルxb、および閾値は予め後述する学習処理によって求められている。   In S13, an unprocessed cluster is selected. The number of clusters, the basis vector xb of each cluster, and the threshold value are obtained in advance by a learning process described later.

S14においては、以下に示す方法によって多角錐の表面と入力特徴ベクトルとの角度を求める。なお、上記した基底ベクトルを求めておけば処理が高速化されるが、以下の方法は基底ベクトルとして学習時に得られている全ての正常な特徴ベクトルをそのまま用いてもよい。基底ベクトルの集合をXb、判定すべき正規化された入力ベクトルをyとすると、凸多角錐(S)および多角錐への角度θは次の数式2で表される。   In S14, the angle between the surface of the polygonal pyramid and the input feature vector is obtained by the following method. If the above-described basis vectors are obtained, the processing speed is increased. However, in the following method, all normal feature vectors obtained at the time of learning may be used as they are as the basis vectors. Assuming that the set of basis vectors is Xb and the normalized input vector to be determined is y, the convex polygonal pyramid (S) and the angle θ to the polygonal pyramid are expressed by the following Equation 2.

Figure 2008287478
Figure 2008287478

cosθをsinθに変換することによって数式2は数式3に示すように変形可能であり、数式2の最後の式を最小化するαを求めれば、Xbαが多角錐表面への射影ベクトルとなり、θが求まる。但し、入力ベクトルと多角錐内ベクトルの成す最小角度θがπ/2より大きいとき、つまり∀λ>π/2のときは、最後の式の解はα=0となる。そこで、得られた解がα=0の場合は最小角度をθ=π/2(上限)とする。 By converting cos θ into sin θ, Equation 2 can be transformed as shown in Equation 3. If α that minimizes the last equation in Equation 2 is obtained, X b α becomes a projection vector onto the surface of the polygonal cone, θ is obtained. However, when the minimum angle θ formed by the input vector and the vector in the polygonal cone is larger than π / 2, that is, when ∀λ> π / 2, the solution of the last equation is α = 0. Therefore, when the obtained solution is α = 0, the minimum angle is θ = π / 2 (upper limit).

Figure 2008287478
Figure 2008287478

数式3の最後の式は周知の凸2次計画問題であるので、結局、凸2次計画問題を解くことによってθを求めることができる。コンピュータで凸2次計画問題を解くためには、例えばサイバネットシステム株式会社が販売している科学計算用ソフトウェアMATLAB(登録商標)システムのOptimization Toolboxのquadprog関数を使用することができる。なお、凸2次計画問題のアルゴリズムについては例えば下記の非特許文献1、2に記載されている。
Coleman, T.F. and Y. Li, OA Reflective Newton Method for Minimizing a Quadratic Function Subject to Bounds on some of the Variables,O SIAM Journal on Optimization, Vol. 6, Number 4, pp.1040-1058, 1996. Gill, P. E. and W. Murray, and M.H. Wright, Practical Optimization, Academic Press, London, UK,1981.
Since the last expression of Equation 3 is a well-known convex quadratic programming problem, θ can be obtained by solving the convex quadratic programming problem. In order to solve the convex quadratic programming problem by a computer, for example, the quadprog function of Optimization Toolbox of the scientific calculation software MATLAB (registered trademark) system sold by Cybernet System Co., Ltd. can be used. The algorithm for the convex quadratic programming problem is described in Non-Patent Documents 1 and 2 below, for example.
Coleman, TF and Y. Li, OA Reflective Newton Method for Minimizing a Quadratic Function Subject to Bounds on some of the Variables, O SIAM Journal on Optimization, Vol. 6, Number 4, pp. 1040-1058, 1996. Gill, PE and W. Murray, and MH Wright, Practical Optimization, Academic Press, London, UK, 1981.

なお、角度θは以下の方法によっても求められる。数式3の下から2行目の式は周知のNNLS(Non-negative Least Squares)問題であるので、NNLS問題を解くことによってθを求めることができる。   The angle θ can also be obtained by the following method. Since the equation in the second line from the bottom of Equation 3 is a well-known NNLS (Non-negative Least Squares) problem, θ can be obtained by solving the NNLS problem.

コンピュータでNNLS問題を解くためには、例えばサイバネットシステム株式会社が販売している科学計算用ソフトウェアMATLAB(登録商標)システムのOptimization Toolboxのnnls関数を使用することができる。   In order to solve the NNLS problem with a computer, for example, the nnnls function of Optimization Toolbox of the scientific calculation software MATLAB (registered trademark) system sold by Cybernet System Co., Ltd. can be used.

なお、NNLS問題のアルゴリズムについては例えば下記の非特許文献3、4に記載されている。
Bro, R., de Jong, S., 1997. A fast non-negativity constrained linear least squares algorithm. Journal of Chemometrics 11, 393-401. Lawson, C., Hanson, R., 1995. Solving Least Squares Problems. SIAM, Philadelphia, PA.
The algorithm of the NNLS problem is described in Non-Patent Documents 3 and 4 below, for example.
Bro, R., de Jong, S., 1997. A fast non-negativity constrained linear least squares algorithm. Journal of Chemometrics 11, 393-401. Lawson, C., Hanson, R., 1995. Solving Least Squares Problems. SIAM, Philadelphia, PA.

S15においては、算出された角度θが異常判定の閾値未満か否かが判定され、判定結果が否定の場合にはS16に移行するが、肯定の場合にはS17に移行する。閾値は学習時に決定する。S16においては、全クラスタについて処理が完了したか否かが判定され、判定結果が否定の場合にはS13に移行するが、肯定の場合にはS18に移行する。   In S15, it is determined whether or not the calculated angle θ is less than the abnormality determination threshold value. If the determination result is negative, the process proceeds to S16, but if the determination result is affirmative, the process proceeds to S17. The threshold is determined during learning. In S16, it is determined whether or not the processing has been completed for all clusters. If the determination result is negative, the process proceeds to S13, but if the determination is affirmative, the process proceeds to S18.

S17においては、「正常」を出力し、またS18においては、「異常」を出力する。S19においては、処理の終了が指示されたか否かが判定され、判定結果が否定の場合にはS10に移行して処理を繰り返す。以上のような検出時の処理によって入力されたサンプルデータが異常か否かが判定される。   In S17, “normal” is output, and in S18, “abnormal” is output. In S19, it is determined whether or not the end of the process is instructed. If the determination result is negative, the process proceeds to S10 and the process is repeated. It is determined whether or not the sample data input by the above detection process is abnormal.

図7は、本発明の実施例1の異常検出処理の学習時の処理内容を示すフローチャートである。この処理は図6の検出処理に先立って実行しておく。S30においては、動作学習用のサンプルフレームデータを入力する。S31においては、S11と同様に特徴ベクトルを生成する。S32においては、S12と同様にベクトルノルムによる正規化を行う。S33においては、特徴ベクトルをMean Shift(ミーンシフト)法によりクラスタリングする。   FIG. 7 is a flowchart showing the processing contents during learning of the abnormality detection processing according to the first embodiment of the present invention. This process is executed prior to the detection process of FIG. In S30, sample frame data for motion learning is input. In S31, a feature vector is generated as in S11. In S32, normalization by a vector norm is performed as in S12. In S33, the feature vectors are clustered by the Mean Shift method.

図14は、S33のクラスタリング処理の内容を示すフローチャートである。発明者らはvon Mises-Fisher分布を用いたMean Shift法を発明した。以下これを説明する。S120においては、未処理のサンプル点を1つ選択して参照点ξの初期値とする。S121においては、数式4に示す更新式に基づいて参照点ξの更新処理を行う。κはvon Mises-Fisher分布における集中度を表すパラメータであり、実験により設定する。   FIG. 14 is a flowchart showing the contents of the clustering process in S33. The inventors invented the Mean Shift method using the von Mises-Fisher distribution. This will be described below. In S120, one unprocessed sample point is selected as the initial value of the reference point ξ. In S121, the reference point ξ is updated based on the update formula shown in Formula 4. κ is a parameter representing the degree of concentration in the von Mises-Fisher distribution, and is set by experiment.

Figure 2008287478
Figure 2008287478

S122においては、ξに変化が無くなったか否か、即ち更新後のξと更新前のξとの差の絶対値が所定値以下か否かが判定され、判定結果が否定の場合にはS121に移行するが、肯定の場合にはS123に移行する。S123においては、全てのサンプル点について処理が完了したか否かが判定され、判定結果が否定の場合にはS120に移行するが、肯定の場合にはS124に移行する。以上の処理により、各サンプル点と対応する参照点ξが求まる。S124においては、近い位置にある点を統合する。即ち、参照点ξ相互の差が所定値以下である参照点を持つサンプルの集合を1つのクラスタと見なす。   In S122, it is determined whether or not ξ has changed, that is, whether or not the absolute value of the difference between ξ after the update and ξ before the update is equal to or less than a predetermined value. If the determination result is negative, the process returns to S121. If yes, the process proceeds to S123. In S123, it is determined whether or not processing has been completed for all sample points. If the determination result is negative, the process proceeds to S120, but if the determination is affirmative, the process proceeds to S124. Through the above processing, the reference point ξ corresponding to each sample point is obtained. In S124, the points at close positions are integrated. That is, a set of samples having reference points whose difference between reference points ξ is equal to or less than a predetermined value is regarded as one cluster.

図7に戻って、S34においては、未処理のクラスタを1つ選択する。S35においては、多角錐の基底ベクトルを例えば下記の方法によって求める。正常な特徴ベクトルの分布(最も外側の境界面)を示す多角錐は各頂点を表す特徴ベクトル=基底ベクトルによって表現でき、多角錐の内部にある特徴ベクトルを取り除いても多角錐の形状は不変である。そこで、周知のリーブワンアウト法(Leave One Out Method)を用いて多角錐の内部に存在する(多角錐の頂点とならない)特徴ベクトルを取り除き、基底ベクトルを得る。   Returning to FIG. 7, in S34, one unprocessed cluster is selected. In S35, the base vector of the polygonal pyramid is obtained by the following method, for example. A polygonal pyramid showing a normal feature vector distribution (outermost boundary surface) can be expressed by a feature vector representing each vertex = a base vector, and the shape of the polygonal pyramid is unchanged even if the feature vector inside the polygonal pyramid is removed. is there. Therefore, by using a well-known Leave One Out Method, feature vectors existing inside the polygonal pyramid (not serving as a vertex of the polygonal pyramid) are removed to obtain a base vector.

図2はリーブワンアウト法を示す説明図である。図2に示すようにサンプルの集合から非独立サンプルxtを取り除いても、多角錐の形状は変わらない。従って以下に示す方法によって非独立サンプルxtを取り除き、独立サンプルxbのみを残す。 FIG. 2 is an explanatory diagram showing the leave one-out method. Be removed non-independent samples x t from a set of samples, as shown in FIG. 2, the shape of the polygonal pyramid is unchanged. Therefore, the non-independent sample xt is removed by the method described below, and only the independent sample xb is left.

図16は、S35のリーブワンアウト法による基底ベクトル抽出処理の内容を示すフローチャートである。N個の特徴ベクトルからなるサンプル集合X=x1,...,xNがあったとする。S150においては、変数iを1にセットし、S151においては、凸2次計画問題またはNNLS問題を解くことによってxiを除いた集合X~によって形成される多角錐とベクトルxiとの最小角度ψiを算出する。S152においては、変数iに1を加算し、S153においては、変数iがNより大きいか否かが判定され、判定結果が否定の場合にはS151に移行するが、肯定の場合にはS154に移行する。 FIG. 16 is a flowchart showing the contents of the base vector extraction processing by the leave one-out method of S35. Suppose that there is a sample set X = x 1 ,..., X N consisting of N feature vectors. In S150, the variable i is set to 1, and in S151, the minimum angle between the polygonal cone formed by the set X˜ excluding x i by solving the convex quadratic programming problem or the NNLS problem and the vector x i ψ i is calculated. In S152, 1 is added to the variable i. In S153, it is determined whether or not the variable i is greater than N. If the determination result is negative, the process proceeds to S151. If the determination is positive, the process proceeds to S154. Transition.

S154においては、変数iを1にセットし、S155においては、角度ψiが所定の閾値s(正の小さな値)より大きいか否かが判定され、判定結果が否定の場合にはS157に移行するが、肯定の場合にはS156に移行する。S156においては、ベクトルxiを基底ベクトルxbとして登録する。なお、ここでψiがあまりに大きい値(閾値t以上)のときには外れ値として基底ベクトルには登録しない。結局は、s<ψi<tのものだけを登録する。
S157においては、変数iに1を加算し、S158においては、変数iがNより大きいか否かが判定され、判定結果が否定の場合にはS155に移行するが、肯定の場合には処理を終了する。リーブワンアウト法を適用することによって基底ベクトルの数は元の特徴ベクトル数と較べると非常に少なくなる。
In S154, the variable i is set to 1. In S155, it is determined whether or not the angle ψ i is larger than a predetermined threshold value s (positive small value). If the determination result is negative, the process proceeds to S157. However, if the determination is affirmative, the process proceeds to S156. In S156, it registers the vector x i as base vector x b. Here, if ψ i is too large (more than the threshold value t), it is not registered in the basis vector as an outlier. Eventually, only those with s <ψ i <t are registered.
In S157, 1 is added to the variable i. In S158, it is determined whether or not the variable i is greater than N. If the determination result is negative, the process proceeds to S155. finish. By applying the leave-one-out method, the number of basis vectors becomes very small compared to the number of original feature vectors.

図7に戻って、S36においては、全クラスタについて処理が完了したか否かが判定され、判定結果が否定の場合にはS34に移行するが、肯定の場合には処理を終了する。以上のような学習処理によって、正常範囲を示す1個あるいは複数個の多角錐の基底ベクトルが求められる。   Returning to FIG. 7, in S <b> 36, it is determined whether or not the processing has been completed for all clusters. If the determination result is negative, the process proceeds to S <b> 34, but if the determination is positive, the process ends. Through the learning process as described above, one or a plurality of polygonal pyramid basis vectors indicating the normal range are obtained.

次に、処理の細部について説明する。図12は、S11の特徴ベクトル生成処理の内容を示すフローチャートである。S100においては、差分データを生成し、2値化する。S100においては動画像データに対して「動き」の情報を検出し、背景など静止しているものを除去する目的で差分データを生成する。差分の取り方としては、隣接するフレーム間の同じ位置の画素の輝度の変化を抽出するフレーム間差分方式を採用するが、フレーム内における輝度の変化部分を抽出するエッジ差分、あるいは両方を採用してもよい。   Next, details of the processing will be described. FIG. 12 is a flowchart showing the contents of the feature vector generation process of S11. In S100, difference data is generated and binarized. In S100, "motion" information is detected for the moving image data, and difference data is generated for the purpose of removing stationary objects such as the background. As a method of taking the difference, an inter-frame difference method that extracts a change in luminance of a pixel at the same position between adjacent frames is adopted, but an edge difference that extracts a luminance change portion in a frame or both are adopted. May be.

更に、「動き」に無関係な色情報やノイズを除去するために自動閾値選定による2値化を行う。2値化の方法としては、例えば一定閾値、下記非特許文献5に開示されている判別最小二乗自動閾値法、閾値0及びノイズ処理方式(濃淡画像において差が0以外を全て動き有り=1とし、公知のノイズ除去法によってノイズを除去する方法)を採用可能である。以上の前処理により入力動画データは画素値に「動いた(1)」「動かない(0)」の論理値をもつフレームデータの列となる。
大津展之、“判別および最小2乗規準に基づく自動しきい値選定法”電子通信学会論文誌D、J63-D-4、P349-356、1980年。
Further, binarization is performed by automatic threshold selection to remove color information and noise unrelated to “movement”. As a binarization method, for example, a fixed threshold, a discriminative least square automatic threshold method disclosed in Non-Patent Document 5 below, a threshold 0 and a noise processing method (all differences except for 0 in a grayscale image are set to have motion = 1). A method of removing noise by a known noise removing method can be employed. By the above preprocessing, the input moving image data becomes a string of frame data having logical values of “moved (1)” and “not moved (0)” as pixel values.
Noriyuki Otsu, “Automatic threshold selection method based on discriminant and least-squares criteria” IEICE Transactions D, J63-D-4, P349-356, 1980.

S101においては、1フレーム分の画素データに関する相関パターンカウント処理を行い、フレームCHLACデータを生成する。詳細については後述するが、251次元の特徴ベクトルデータが生成される。時系列の二値差分データからの動作特徴の抽出には、立体高次局所自己相関(CHLAC) 特徴を用いる。N次自己相関関数は次の数式5のようになる。   In S101, correlation pattern count processing for pixel data for one frame is performed to generate frame CHLAC data. Although details will be described later, 251-dimensional feature vector data is generated. For extraction of motion features from time-series binary difference data, cubic higher-order local autocorrelation (CHLAC) features are used. The Nth-order autocorrelation function is as shown in Equation 5 below.

Figure 2008287478
Figure 2008287478

ここで、f は時系列画素値(差分値)であり、参照点(注目画素)rおよび参照点からみたN個の変位ai (i = 1,...,N) は差分フレーム内の二次元座標に時間も成分として持つ三次元のベクトルである。更に、時間方向の積分範囲はどの程度の時間方向の相関を取るかのパラメータである。但し、S101におけるフレームCHLACデータは1フレーム毎のデータであり、これを時間方向に所定期間だけ積分(加算)したものがCHLAC特徴データとなる。 Here, f is a time-series pixel value (difference value), and N displacements a i (i = 1,..., N) viewed from the reference point (target pixel) r and the reference point are represented in the difference frame. A three-dimensional vector having time as a component in two-dimensional coordinates. Further, the integration range in the time direction is a parameter indicating how much correlation in the time direction is taken. However, the frame CHLAC data in S101 is data for each frame, and CHLAC feature data is obtained by integrating (adding) this for a predetermined period in the time direction.

変位方向、次数のとり方により高次自己相関関数は無数に考えられるが、これを局所領域に限定したものが高次局所自己相関関数である。立体高次局所自己相関特徴では変位方向を参照点rを中心とする3×3×3画素の局所領域内、即ち参照点rの26近傍に限定している。特徴量の計算は1組の変位方向に対して式1の積分値が1つの特徴量になる。従って変位方向の組み合わせ(=マスクパターン)の数だけ特徴量が生成される。   There are an infinite number of higher-order autocorrelation functions depending on the direction of displacement and the order, but the higher-order local autocorrelation function is limited to a local region. In the three-dimensional high-order local autocorrelation feature, the displacement direction is limited to a 3 × 3 × 3 pixel local area centered on the reference point r, that is, in the vicinity of 26 of the reference point r. In the calculation of the feature amount, the integral value of Expression 1 becomes one feature amount for one set of displacement directions. Therefore, feature amounts are generated as many as the number of combinations of displacement directions (= mask patterns).

特徴量の数、つまり特徴ベクトルの次元はマスクパターンの種類に相当する。2値画像の場合、画素値1を何回乗算しても1であるので、二乗以上の項は乗数のみが異なる1乗の項と重複するものとして削除する。また数式5の積分操作(平行移動:スキャン)で重複するパターンは1つの代表パターンを残して他を削除する。式1右辺の式は参照点(f(r):局所領域の中心)を必ず含むので、代表パターンとしては中心点を含み、パターン全体が3×3×3画素の局所領域内に収まるものを選択する。   The number of feature amounts, that is, the dimension of the feature vector corresponds to the type of mask pattern. In the case of a binary image, since the pixel value 1 is multiplied by 1 regardless of how many times it is, a term of square or higher is deleted as an overlapping term of a square with a different multiplier only. In addition, patterns that overlap in the integration operation (parallel movement: scan) of Formula 5 are deleted while leaving one representative pattern. Since the expression on the right side of Expression 1 always includes a reference point (f (r): the center of the local area), the representative pattern includes the center point, and the entire pattern fits within the local area of 3 × 3 × 3 pixels. select.

この結果、中心点を含むマスクパターンの種類は、選択画素数が1個のもの:1個、2個のもの:26個、3個のもの:26×25/2=325個の計352個あるが、式1の積分操作(平行移動:スキャン)で重複するパターンを除くと、マスクパターンの種類は251種類となる。即ち、1つの3次元データに対する立体高次局所自己相関特徴ベクトルは251次元となる。   As a result, the number of types of mask patterns including the center point is 352 with a total number of selected pixels of one: one, two: 26, three: 26 × 25/2 = 325. However, there are 251 types of mask patterns except for overlapping patterns in the integration operation (parallel movement: scan) of Equation 1. That is, the three-dimensional higher-order local autocorrelation feature vector for one three-dimensional data is 251 dimensions.

なお、画素の値が多値の濃淡画像の場合には、例えば画素値をaとすると、相関値はa(0次)≠a×a(1次)≠a×a×a(2次)となり、選択画素が同じでも乗数の異なるものを重複削除できない。従って、多値の場合には、2値の場合より選択画素数が1の場合に2個、選択画素数が2の場合に26個増加し、マスクパターンの種類は計279種類となる。   When the pixel value is a multi-value gray image, for example, when the pixel value is a, the correlation value is a (0th order) ≠ a × a (primary) ≠ a × a × a (secondary). Thus, even if the selected pixels are the same, those having different multipliers cannot be redundantly deleted. Therefore, in the case of multi-value, the number is 2 when the number of selected pixels is 1 and 26 when the number of selected pixels is 2, and the number of mask patterns is 279 in total.

立体高次局所自己相関特徴の性質としては、変位方向を局所領域に限定しているためにデータに対する加法性があり、画面全体を通して積分しているためにデータ内の位置不変性がある。   The nature of the cubic higher-order local autocorrelation feature is additive to the data because the displacement direction is limited to the local region, and position invariance in the data because it is integrated throughout the entire screen.

S102においては、フレームCHLACデータをフレーム対応に保存する。S103においては、現在のCHLACデータにS101で求めた最新のフレームCHLACデータを加算すると共に、所定期間以上古いフレームに対応するフレームCHLACデータを現在のCHLACデータから減算して新たなCHLACデータを生成し、保存する。   In S102, the frame CHLAC data is stored in correspondence with the frame. In S103, the latest frame CHLAC data obtained in S101 is added to the current CHLAC data, and frame CHLAC data corresponding to a frame older than a predetermined period is subtracted from the current CHLAC data to generate new CHLAC data. ,save.

図19は、本発明による動画像の実時間処理の内容を示す説明図である。動画像のデータはフレームのシーケンスとなっている。そこで時間方向に一定幅の時間窓を設定し、窓内のフレーム集合を1つの3次元データとする。そして、新たなフレームが入力される度に時間窓を移動させ、古いフレームを削除することで有限な3次元データが得られる。この時間窓の長さは、認識しようとする動作の1周期と等しいか、より長く設定することが望ましい。   FIG. 19 is an explanatory diagram showing the contents of real-time processing of a moving image according to the present invention. The moving image data is a sequence of frames. Therefore, a time window having a certain width is set in the time direction, and a frame set in the window is set as one three-dimensional data. Each time a new frame is input, the time window is moved, and the old frame is deleted to obtain finite three-dimensional data. The length of this time window is desirably set equal to or longer than one cycle of the operation to be recognized.

なお、実際には画像フレームデータは差分を取るために1フレームのみ保存され、フレームと対応するフレームCHLACデータが時間窓分だけ保存される。即ち、図19において時刻tに新たなフレームが入力された時点では、直前の時間窓(t-1,t-n-1)に対応するフレームCHLACデータはすでに算出されている。但し、フレームCHLACデータを計算するためには直近の3つの差分フレームが必要であるが、(t-1)フレームは端なのでフレームCHLACデータは(t-2)フレームに対応するものまで算出されている。   Actually, only one frame is stored in order to obtain the difference in the image frame data, and the frame CHLAC data corresponding to the frame is stored for the time window. That is, when a new frame is input at time t in FIG. 19, the frame CHLAC data corresponding to the immediately preceding time window (t−1, t−n−1) has already been calculated. However, in order to calculate the frame CHLAC data, the last three difference frames are required, but since the (t-1) frame is the end, the frame CHLAC data is calculated up to the one corresponding to the (t-2) frame. Yes.

そこで、新たに入力されたtフレームを用いて(t-1)フレームに対応するフレームCHLACデータを生成してCHLACデータに加算する。また、最も古い(t-n-1)フレームと対応するフレームCHLACデータをCHLACデータから減算する。このような処理により、時間窓と対応するCHLAC特徴データが更新される。   Therefore, using the newly input t frame, frame CHLAC data corresponding to the (t−1) frame is generated and added to the CHLAC data. Also, the frame CHLAC data corresponding to the oldest (t-n-1) frame is subtracted from the CHLAC data. Through such processing, the CHLAC feature data corresponding to the time window is updated.

図13は、S101の立体高次局所自己相関特徴抽出処理の内容を示すフローチャートである。S110においては、251個の相関パターンカウンタをクリアする。S111においては、未処理の画素を1つ選択する(フレーム内で注目画素を順にスキャンする)。S112においては、未処理のマスクパターンを1つ選択する。   FIG. 13 is a flowchart showing the contents of the three-dimensional higher-order local autocorrelation feature extraction process in S101. In S110, 251 correlation pattern counters are cleared. In S111, one unprocessed pixel is selected (the target pixel is sequentially scanned in the frame). In S112, one unprocessed mask pattern is selected.

図17は、3次元画素空間における自己相関処理座標を示す説明図である。図17においては、t−1フレーム、tフレーム、t+1フレームの時間的に隣接する3つの差分フレームのxy平面を並べて図示してある。本発明においては、注目する参照画素を中心とする3×3×3(=27)画素の立方体の内部の画素について相関を取る。   FIG. 17 is an explanatory diagram showing autocorrelation processing coordinates in a three-dimensional pixel space. In FIG. 17, the xy planes of three difference frames temporally adjacent to each of the t−1 frame, the t frame, and the t + 1 frame are shown side by side. In the present invention, correlation is performed for pixels inside a cube of 3 × 3 × 3 (= 27) pixels centered on the reference pixel of interest.

マスクパターンは、相関を取る画素の組合せを示す情報であり、マスクパターンによって選択された画素のデータは相関値の計算に使用されるが、マスクパターンによって選択されなかった画素は無視される。前記したように、マスクパターンでは注目画素(中心の画素)は必ず選択される。また、2値画像で0次〜2次までの相関値を考えた場合、3×3×3画素の立方体において重複を排除した後のパターン数は251個となる。   The mask pattern is information indicating a combination of pixels to be correlated, and the pixel data selected by the mask pattern is used for calculating the correlation value, but the pixels not selected by the mask pattern are ignored. As described above, the target pixel (center pixel) is always selected in the mask pattern. Further, when considering correlation values from the 0th order to the 2nd order in a binary image, the number of patterns after eliminating the overlap in a 3 × 3 × 3 pixel cube is 251.

図18は、自己相関マスクパターンの例を示す説明図である。図18(1)は注目画素のみの最も簡単な0次のマスクパターンである。(2)はハッチングを施した2つの画素が選択されている1次マスクパターン例、(3)、(4)はハッチングを施した3つの画素が選択されている3次マスクパターン例であり、この他に多数のパターンがある。   FIG. 18 is an explanatory diagram showing an example of an autocorrelation mask pattern. FIG. 18A shows the simplest 0th-order mask pattern of only the target pixel. (2) is a primary mask pattern example in which two hatched pixels are selected, (3) and (4) are tertiary mask pattern examples in which three hatched pixels are selected, There are many other patterns.

図13に戻って、S113においては、前記した数式5を用いて相関値を計算する。数式5のf(r)f(r+a1)…f(r+aN)はマスクパターンと対応する座標の差分2値化3次元データの画素値を掛け合わせる(=相関値、0または1)ことに相当する。また、数式5の積分操作は注目画素をフレーム内で移動(スキャン)させて相関値をマスクパターンと対応するカウンタによって足し合わせる(1をカウントする)ことに相当する。 Returning to FIG. 13, in S113, the correlation value is calculated using Equation 5 described above. F (r) f (r + a 1 )... F (r + a N ) in Equation 5 is multiplied by the pixel value of the difference binarized three-dimensional data of the coordinates corresponding to the mask pattern (= correlation value, 0 or 1) It corresponds to that. Further, the integration operation of Equation 5 corresponds to moving (scanning) the pixel of interest within the frame and adding the correlation value with a counter corresponding to the mask pattern (counting 1).

S114においては、相関値は1か否かが判定され、判定結果が肯定の場合にはS115に移行するが、否定の場合にはS116に移行する。S115においては、マスクパターンと対応する相関パターンカウンタを+1する。S116においては、全てのパターンについて処理が完了したか否かが判定され、判定結果が肯定の場合にはS117に移行するが、否定の場合にはS112に移行する。   In S114, it is determined whether or not the correlation value is 1. If the determination result is affirmative, the process proceeds to S115. If the determination result is negative, the process proceeds to S116. In S115, the correlation pattern counter corresponding to the mask pattern is incremented by one. In S116, it is determined whether or not the processing has been completed for all patterns. If the determination result is affirmative, the process proceeds to S117. If the determination result is negative, the process proceeds to S112.

S117においては、全ての画素について処理が完了したか否かが判定され、判定結果が肯定の場合にはS118に移行するが、否定の場合にはS111に移行する。S118においては、パターンカウンタ値の集合を251次元フレームCHLACデータとして出力する。   In S117, it is determined whether or not the processing has been completed for all the pixels. If the determination result is affirmative, the process proceeds to S118, but if the determination result is negative, the process proceeds to S111. In S118, a set of pattern counter values is output as 251 dimensional frame CHLAC data.

図3は、本発明の実施例2(近似的多角錐1)の判定方法を示す説明図である。図3は説明を簡単にするために、CHLAC特徴データ空間を3次元(実際には例えば251次元)としている。実施例1においては、正常な特徴ベクトルの分布範囲を包含する多角錐を求めたが、実施例2においては、学習時に正常な特徴ベクトルの分布範囲を近似する多角錐を求め、この近似的多角錐を用いて、実施例1と同様に異常か否かを判定するものである。近似的多角錐の求め方について以下に実施例を説明する。   FIG. 3 is an explanatory diagram illustrating a determination method according to the second embodiment (approximate polygonal pyramid 1) of the present invention. In FIG. 3, in order to simplify the explanation, the CHLAC feature data space is three-dimensional (actually, for example, 251 dimensions). In the first embodiment, a polygonal pyramid including the distribution range of normal feature vectors is obtained. In the second embodiment, a polygonal pyramid that approximates the distribution range of normal feature vectors at the time of learning is obtained. A pyramid is used to determine whether or not there is an abnormality as in the first embodiment. Examples of how to obtain approximate polygonal pyramids will be described below.

<近似的多角錐の求め方1>
図8は、近似的多角錐の求め方1を用いた本発明の異常検出処理の学習時の処理内容を示すフローチャートである。図7に示した実施例1のフローチャートとの相違点はS35とS45が相違しているのみであり、他のステップの処理は同一であるので、S45の処理について説明する。近似的多角錐の求め方1においては、正常な特徴ベクトルの分布範囲を近似し、かつ基底ベクトルの数が少ない多角錐を求める。角数は任意である。但し、近似的多角錐1では特徴ベクトルの要素が全て非負であることを前提としている。例えばCHLAC特徴データなどではこの非負の条件を満たしており、この条件を満たさないデータに対しては分布が非負領域になるように回転させるなどの前処理により対処できる可能性がある。なお、本発明における近似的多角錐1以外の手法ではこのような前提を置いておらず、任意の特徴ベクトルに適用可能である。
<How to find an approximate polygonal pyramid 1>
FIG. 8 is a flowchart showing the processing contents at the time of learning of the abnormality detection processing of the present invention using the method 1 for obtaining the approximate polygonal pyramid. The only difference from the flowchart of the first embodiment shown in FIG. 7 is that S35 and S45 are different, and the processing of the other steps is the same, so the processing of S45 will be described. In the method 1 for obtaining an approximate polygonal pyramid, a polygonal pyramid having a small number of basis vectors and a normal feature vector distribution range is obtained. The number of corners is arbitrary. However, in the approximate polygonal pyramid 1, it is assumed that all the elements of the feature vector are non-negative. For example, CHLAC feature data or the like satisfies this non-negative condition, and data that does not satisfy this condition may be dealt with by preprocessing such as rotating the distribution so that it becomes a non-negative region. Note that methods other than the approximate polygonal pyramid 1 in the present invention do not make such a premise and can be applied to arbitrary feature vectors.

具体的には、例えば下記の数式6の式を下記の非特許文献6に開示されているような公知のノンネガティブマトリックスファクトライゼーション(Non-negative Matrix Factorization)法によって解き、近似的多角錐の基底ベクトルを求める。なお、Xは多角錐を構成している特徴ベクトル群、Wは近似的多角錐の基底ベクトル、Hは基底ベクトルの結合係数である。
Lee, D., & Seung, H. (1999). Learning the parts of objects by non-negative matrix factorization. Nature, 401, 788-791.
Specifically, for example, the following equation 6 is solved by a known non-negative matrix factorization method as disclosed in the following non-patent document 6 to obtain an approximate polygonal pyramid basis. Find a vector. X is a feature vector group constituting a polygonal pyramid, W is a basis vector of an approximate polygonal pyramid, and H is a coupling coefficient of the basis vectors.
Lee, D., & Seung, H. (1999). Learning the parts of objects by non-negative matrix factorization.Nature, 401, 788-791.

Figure 2008287478
Figure 2008287478

具体的には下記の数式7に示すような処理を行う。即ち、(1)WおよびHの初期値をランダムに設定する。(2)数式7に示すような式に従ってW、Hを更新する。(3)もし、(3)に示す判定式が収束した(値の変化が更新の前後で所定値以下であった)場合には処理を終了し、Wが近似的多角錐の基底ベクトルとなるが、そうでなければ(3)に示す更新式によってW、Hを正規化し、(2)に移行する。   Specifically, the processing shown in the following formula 7 is performed. (1) Initial values of W and H are set at random. (2) W and H are updated according to the equation as shown in Equation 7. (3) If the determination formula shown in (3) has converged (the change in value was less than or equal to a predetermined value before and after the update), the process is terminated, and W becomes the basis vector of the approximate polygonal pyramid. If not, W and H are normalized by the update formula shown in (3), and the process proceeds to (2).

Figure 2008287478
Figure 2008287478

学習時には以上の処理によって近似的多角錐を求め、検出時には近似的多角錐を用いて実施例1と同様に図6に示す処理によって異常の判定を行う。   At the time of learning, an approximate polygonal pyramid is obtained by the above process, and at the time of detection, an abnormality is determined by the process shown in FIG.

図3(b)、(c)は、本発明の実施例3(近似的多角錐2)の判定方法を示す説明図である。図3では説明を簡単にするために、CHLAC特徴データ空間を3次元(実際には例えば251次元)としている。実施例3においては、前述した実施例2と同様に近似的多角錐を求めるが、その求め方が異なり、得られた近似的多角錐は正常な特徴ベクトルの分布範囲を近似するものとなる。近似的角錐の求め方について以下に実施例を説明する。   FIGS. 3B and 3C are explanatory diagrams illustrating a determination method according to the third embodiment (approximate polygonal pyramid 2) of the present invention. In FIG. 3, in order to simplify the description, the CHLAC feature data space is three-dimensional (actually, for example, 251 dimensions). In the third embodiment, an approximate polygonal pyramid is obtained in the same manner as in the second embodiment described above, but the method of obtaining it is different, and the obtained approximate polygonal pyramid approximates the distribution range of normal feature vectors. Examples of how to obtain an approximate pyramid will be described below.

<近似的多角錐の求め方2>
図3(b)は、実施例3の判定方法を示す説明図である。実施例3(近似的多角錐の求め方2)においては公知の主成分分析によって多角錐の基底ベクトルを算出する。主成分分析の結果得られる第1固有ベクトルは多角錐の中心方向を示し、第2固有ベクトル以降は第1固有ベクトルと直角な多角錐の広がり方向を示している。そこで、第2固有ベクトル以降の固有ベクトルの軸上における特徴ベクトルの分布から近似的多角錐の基底ベクトルを算出する。
<How to find an approximate polygonal pyramid 2>
FIG. 3B is an explanatory diagram illustrating a determination method according to the third embodiment. In Example 3 (how to obtain an approximate polygonal pyramid 2), a polygonal pyramid basis vector is calculated by a known principal component analysis. The first eigenvector obtained as a result of the principal component analysis indicates the center direction of the polygonal pyramid, and the second and subsequent eigenvectors indicate the spreading direction of the polygonal pyramid perpendicular to the first eigenvector. Therefore, an approximate polygonal pyramid basis vector is calculated from the distribution of feature vectors on the axis of the eigenvector after the second eigenvector.

図9は、近似的多角錐の求め方2を用いた本発明の異常検出処理の学習時の処理内容を示すフローチャートである。図7に示した実施例1のフローチャートととの相違点はS35がS55、S56に置換されているのみであるので、S55、S56の処理について説明する。   FIG. 9 is a flowchart showing the processing contents at the time of learning of the abnormality detection processing of the present invention using the method 2 for obtaining the approximate polygonal pyramid. The only difference from the flowchart of the first embodiment shown in FIG. 7 is that S35 is replaced by S55 and S56, and therefore the processing of S55 and S56 will be described.

S55においては、主成分分析によって主成分ベクトルを出力する。主成分分析手法自体は周知であるので概略を説明する。まず、多角錐を含む部分空間を構成するために、CHLAC特徴データ群から主成分分析により主成分ベクトルを求める。M次元のCHLAC特徴ベクトルxを以下のように表す。   In S55, a principal component vector is output by principal component analysis. Since the principal component analysis method itself is well known, an outline will be described. First, in order to construct a partial space including a polygonal pyramid, a principal component vector is obtained from a CHLAC feature data group by principal component analysis. The M-dimensional CHLAC feature vector x is expressed as follows.

Figure 2008287478
Figure 2008287478

なお、M=251である。また、主成分ベクトルを列に並べた行列U(固有ベクトル)を以下の数式9のように表す。   Note that M = 251. A matrix U (eigenvector) in which the principal component vectors are arranged in a column is expressed as Equation 9 below.

Figure 2008287478
Figure 2008287478

なお、M=251である。主成分ベクトルを列に並べた行列Uは、以下のように求める。共分散行列Rを次の数式10に示す。   Note that M = 251. The matrix U in which the principal component vectors are arranged in columns is obtained as follows. The covariance matrix R is shown in Equation 10 below.

Figure 2008287478
Figure 2008287478

行列Uはこの共分散行列Rを用いて、次の数式11の固有値問題より求まる。   The matrix U is obtained from the eigenvalue problem of the following equation 11 using this covariance matrix R.

Figure 2008287478
Figure 2008287478

固有値の対角行列Λを次数式12で表す。   The diagonal matrix Λ of eigenvalues is expressed by the following equation 12.

Figure 2008287478
Figure 2008287478

第K固有値までの累積寄与率βKは、以下の数式13ように表される。 The cumulative contribution rate β K up to the K-th eigenvalue is expressed as Equation 13 below.

Figure 2008287478
Figure 2008287478

ここで、累積寄与率βKが所定値(例えばβK=0.99)となる次元までの固有ベクトルu1,...,uKを用いて多角錐の基底ベクトルを算出する。なお、累積寄与率βKの最適値は監視対象や検出精度にも依存するものと考えられるので実験等により決定する。 Here, the base vector of the polygonal pyramid is calculated using eigenvectors u 1 ,..., U K up to a dimension where the cumulative contribution rate β K becomes a predetermined value (for example, β K = 0.99). Note that the optimum value of the cumulative contribution rate β K is determined by experiments or the like because it is considered to depend on the monitoring target and detection accuracy.

S56においては、求めた主成分ベクトルから近似的多角錐の基底ベクトルを算出する。以下に主成分ベクトルから近似的多角錐の基底ベクトルを算出する方法を2つ説明する。   In S56, an approximate polygonal pyramid basis vector is calculated from the obtained principal component vector. Two methods for calculating an approximate polygonal pyramid basis vector from the principal component vector will be described below.

<近似的多角錐の求め方2A>
図3(c)は、近似的多角錐の求め方2の第1の算出方法を示す説明図である。第1の算出方法は、第i固有ベクトル(i>1)に射影した特徴ベクトルの分布の中心から標準偏差σのk倍の距離の点を基底ベクトルとする。即ち、第(2i−3)番目の基底ベクトル=e1+kσei、第(2i−2)番目の基底ベクトル=e1−kσeiとする。なお、eiは第i固有ベクトルでり、kは例えば実験によって最適値が決定される任意の実数であるが、例えばk=3であってもよい。
<How to find an approximate polygonal pyramid 2A>
FIG. 3C is an explanatory diagram illustrating a first calculation method of the method 2 for obtaining an approximate polygonal pyramid. In the first calculation method, a point having a distance k times the standard deviation σ from the center of the distribution of the feature vector projected onto the i-th eigenvector (i> 1) is set as a base vector. That is, the (2i−3) th basis vector = e 1 + kσe i and the (2i−2) th basis vector = e 1 −kσe i . Note that e i is the i-th eigenvector, and k is an arbitrary real number whose optimum value is determined by experiment, for example, but may be k = 3, for example.

この方法によれば、主成分分析による次元の2倍の数の基底ベクトルが得られる。また、標準偏差σのk倍の距離の点を基底ベクトルとすることにより、ノイズやはずれ値サンプル等による影響が軽減される。   According to this method, the number of basis vectors that is twice the number of dimensions by principal component analysis is obtained. In addition, by using a point having a distance k times as large as the standard deviation σ as a base vector, the influence of noise, outlier sample, or the like is reduced.

<近似的多角錐の求め方2B>
上述した近似的多角錐の求め方2Aと同様に主成分分析を行うが、基底ベクトルは、例えば第i固有ベクトル(i>1)に射影した特徴ベクトルの分布から手動で正常範囲を設定する。即ち第(2i−3)番目の基底ベクトル=e1+L1i、第(2i−2)番目の基底ベクトル=e1−L2iとする。なお、eiは第i固有ベクトルである。また、L1、L2は手動で設定したパラメータであり、例えば、各軸に射影されたサンプルの最大値、最小値であってもよい。この方法でも、主成分分析による次元の2倍の数の基底ベクトルが得られる。
<How to find an approximate polygonal pyramid 2B>
The principal component analysis is performed in the same manner as the above-described method 2A for obtaining the approximate polygonal pyramid, but the normal range is manually set from the distribution of the feature vectors projected onto the i-th eigenvector (i> 1), for example. That is the first (2i-3) th basis vector = e 1 + L 1 e i , the (2i-2) th basis vector = e 1 -L 2 e i. Note that e i is the i-th eigenvector. L 1 and L 2 are manually set parameters, and may be, for example, the maximum value and the minimum value of the sample projected on each axis. In this method as well, basis vectors having twice the number of dimensions obtained by principal component analysis can be obtained.

学習時には以上の処理によって近似的多角錐を求め、検出時には近似的多角錐を用いて実施例1と同様に図7に示す処理によって異常の判定を行う。   At the time of learning, an approximate polygonal pyramid is obtained by the above process, and at the time of detection, an abnormality is determined by the process shown in FIG.

図4は、本発明の実施例4(円錐)の判定方法を示す説明図である。図4は説明を簡単にするために、CHLAC特徴データ空間を3次元(実際には例えば251次元)としている。実施例4においては、正常な特徴ベクトルの分布範囲を包含する円錐(方向ベクトルγおよび広がり角φ)を求め、この円錐とサンプル特徴データxとの角度θを求めて異常か否かを判定するものである。以下に実施例を説明する。   FIG. 4 is an explanatory diagram illustrating a determination method according to the fourth embodiment (cone) of the present invention. In FIG. 4, in order to simplify the description, the CHLAC feature data space is three-dimensional (actually, for example, 251 dimensions). In the fourth embodiment, a cone (direction vector γ and spread angle φ) including a normal feature vector distribution range is obtained, and an angle θ between the cone and sample feature data x is obtained to determine whether or not there is an abnormality. Is. Examples will be described below.

図10は、本発明の異常検出処理の実施例4の検出時の処理内容を示すフローチャートである。図6に示した実施例1のフローチャートととの相違点はS14がS64からS66に置換されているのみであるので、相違点の処理について説明する。   FIG. 10 is a flowchart showing the processing contents at the time of detection in the embodiment 4 of the abnormality detection processing of the present invention. Since the difference from the flowchart of the first embodiment shown in FIG. 6 is only that S14 is replaced from S64 to S66, the processing of the difference will be described.

S64においては、正規化特徴ベクトルyが原点を中心とする球面上で等方的な分布を成すように特徴ベクトルの各要素のスケールを調整する。U、Λを後述の学習処理における主成分分析により得られた固有ベクトルおよび固有値対角行列とするとスケーリング処理後のベクトル~zは数式14によって表される。   In S64, the scale of each element of the feature vector is adjusted so that the normalized feature vector y has an isotropic distribution on a sphere centered on the origin. Assuming that U and Λ are eigenvectors and eigenvalue diagonal matrices obtained by principal component analysis in the learning process described later, the vector ~ z after the scaling process is expressed by Equation 14.

Figure 2008287478
Figure 2008287478

S65においてはS12と同様の処理によって、ベクトル~zはベクトルノルムにより正規化されてzとなる(||z||=1)。S66においては、数式15に示すような、特徴ベクトルzと方向ベクトルγとの角度を算出し、φを減算したものを錐体(円錐)への角度θとする。   In S65, the vector ~ z is normalized by the vector norm to become z (|| z || = 1) by the same processing as S12. In S66, the angle between the feature vector z and the direction vector γ as shown in Equation 15 is calculated, and the value obtained by subtracting φ is the angle θ to the cone (cone).

Figure 2008287478
Figure 2008287478

図11は、本発明の異常検出処理の実施例4の学習時の処理内容を示すフローチャートである。図7に示した実施例1のフローチャートとの相違点はS85〜S88のみであるので、相違点の処理について説明する。S85においては、主成分分析を行い、固有ベクトルUおよび固有値対角行列Λを求める。   FIG. 11 is a flowchart showing the processing contents during learning in the fourth embodiment of the abnormality detection processing of the present invention. Since the only difference from the flowchart of the first embodiment shown in FIG. 7 is S85 to S88, the processing of the difference will be described. In S85, principal component analysis is performed to obtain an eigenvector U and an eigenvalue diagonal matrix Λ.

S86においては、S64と同様の処理によって特徴ベクトルの各要素のスケールを調整する。S87においては、S65と同様の処理によってベクトルノルムによる正規化を行う。S88においては、1-class SVM(1-class Support Vector Machine)法により、方向ベクトルγおよび広がり角度φを求める。   In S86, the scale of each element of the feature vector is adjusted by the same processing as in S64. In S87, normalization by the vector norm is performed by the same process as in S65. In S88, the direction vector γ and the spread angle φ are obtained by a 1-class SVM (1-class Support Vector Machine) method.

図15は、S88の方向ベクトル算出処理の内容を示すフローチャートである。1-class SVM法自体は周知であるので概略を説明する。図4(c)において、方向ベクトルγおよび広がり角度φで規定される(超)球面上の円は(超)球と(超)平面の交線として表現できる。従って、サンプルの射影点(ノルム1に正規化されている)と原点とを分離し、かつ原点からの距離が最大の(超)平面bを求めれば、この超平面bへの法線ベクトルおよびこの(超)平面の原点からの距離から、方向ベクトルγ、角度の範囲φが求まる。即ち、これは1-class SVMの問題と等価になり、以下の数式16に示す1-class SVMの問題を解けばよいことになる。数式16は1-class SVMの問題において、最終的に解くべき凸2次計画問題である。   FIG. 15 is a flowchart showing the contents of the direction vector calculation process in S88. Since the 1-class SVM method itself is well known, an outline will be described. In FIG. 4C, the circle on the (hyper) spherical surface defined by the direction vector γ and the spread angle φ can be expressed as an intersection line of the (hyper) sphere and the (hyper) plane. Therefore, if the projection point of the sample (normalized to norm 1) and the origin are separated and the (super) plane b having the maximum distance from the origin is obtained, the normal vector to the hyperplane b and From the distance from the origin of the (hyper) plane, the direction vector γ and the angle range φ are obtained. That is, this is equivalent to the problem of 1-class SVM, and the problem of 1-class SVM shown in the following equation 16 should be solved. Equation 16 is a convex quadratic programming problem to be finally solved in the 1-class SVM problem.

Figure 2008287478
Figure 2008287478

なお、νはユーザが指定するパラメータであり、例えばν=0.01であってもよい。上記問題は前述の通り、サイバネットシステム社のMATLABを用いても解くことができるが、例えばここでは具体的には以下のようにも解ける。S130においては、変数t=1とし、またδを数式17の条件を満足する範囲でランダムに初期化する。   Note that ν is a parameter designated by the user, and may be, for example, ν = 0.01. As described above, the above problem can also be solved using MATLAB of Cybernet System Co., Ltd., but here, for example, it can also be specifically solved as follows. In S130, the variable t = 1 is set, and δ is initialized randomly within a range satisfying the condition of Expression 17.

Figure 2008287478
Figure 2008287478

S131においては、数式18に示すように、予備変数O、SV、ρを計算する。   In S131, reserve variables O, SV, and ρ are calculated as shown in Equation 18.

Figure 2008287478
Figure 2008287478

S132においては、数式19の条件を満たすi∈SVを選択する。   In S132, iεSV satisfying the condition of Expression 19 is selected.

Figure 2008287478
Figure 2008287478

S133においては、iはあったか否かが判定され、判定結果が否定の場合にはS134に移行するが、肯定の場合にはS136に移行する。S134においては、数式19の条件を満たすi∈1,..,Nを求める。S135においては、iはあったか否かが判定され、判定結果が否定の場合には処理を終了するが、肯定の場合にはS136に移行する。S136においては、数式20に基づいてjを求める。   In S133, it is determined whether or not i is present. If the determination result is negative, the process proceeds to S134, but if the determination is affirmative, the process proceeds to S136. In S134, i∈1,..., N satisfying the condition of Expression 19 is obtained. In S135, it is determined whether or not i is present. If the determination result is negative, the process ends. If the determination is affirmative, the process proceeds to S136. In S136, j is obtained based on Equation 20.

Figure 2008287478
Figure 2008287478

S137においては、数式21に基づいてδを更新する。   In S137, δ is updated based on Equation 21.

Figure 2008287478
Figure 2008287478

S138においては、δは数式22に示す条件を満足しているか否かが判定され、判定結果が否定の場合にはS139に移行するが、肯定の場合にはS140に移行する。   In S138, it is determined whether or not δ satisfies the condition shown in Expression 22. If the determination result is negative, the process proceeds to S139, but if the determination is affirmative, the process proceeds to S140.

Figure 2008287478
Figure 2008287478

S139においては、所定の範囲[0,1/νN]内に入るようにδjを射影する。即ち、もしδ>1/νNであれば、δ=1/νNとし、もしδ<0ならば、δ=0として、最も近い範囲内の点(端点)に移動する。そして、δiを再計算する。S140においては、t=t+1としてS131に移行する。以上の処理によって求められたδ、ρを用いて法線ベクトルγおよびφは以下の数式23によって求まる。 In S139, δ j is projected so as to fall within a predetermined range [0, 1 / νN]. That is, if δ> 1 / νN, δ = 1 / νN, and if δ <0, δ = 0, and the robot moves to the nearest point (end point). Then, δ i is recalculated. In S140, t = t + 1 and the process proceeds to S131. The normal vectors γ and φ are obtained by the following Expression 23 using δ and ρ obtained by the above processing.

Figure 2008287478
Figure 2008287478

図11に戻って、S89においては、全クラスタについて処理が完了したか否かが判定され、判定結果が否定の場合にはS84に移行するが、肯定の場合には処理を終了する。実施例4においては、検出時の計算負荷が軽く、高速に処理可能である。   Returning to FIG. 11, in S89, it is determined whether or not the processing has been completed for all clusters. If the determination result is negative, the process proceeds to S84, but if the determination is positive, the process ends. In the fourth embodiment, the calculation load during detection is light and processing can be performed at high speed.

以上、異常動作の検出を行う実施例について説明したが、本発明には以下のような変形例も考えられる。実施例においては、学習フェーズによって予め正常動作領域を示す多角錐あるいは円錐の情報を生成しておく例を開示したが、多角錐あるいは円錐の情報を更新しながら異常動作の検出を行うようにすれば、環境の変化(正常状態の変化)にも追随することが可能である。   As described above, the embodiment for detecting the abnormal operation has been described. However, the present invention may be modified as follows. In the embodiment, an example in which information on a polygonal cone or cone indicating a normal operation area is generated in advance by the learning phase has been disclosed. However, abnormal information is detected while updating information on the polygonal cone or cone. For example, it is possible to follow changes in the environment (changes in the normal state).

更に、例えば1分、1時間あるいは1日などのフレーム間隔よりも長い所定の周期で、一部のデータを使用して多角錐あるいは円錐の情報を更新し、次の更新までは固定した多角錐あるいは円錐の情報を使用して異常動作の検出を行ってもよい。このようにすれば学習における処理量が減少する。   Further, for example, polygonal cone or cone information is updated using a part of data at a predetermined period longer than a frame interval such as 1 minute, 1 hour or 1 day, and the polygonal pyramid is fixed until the next update. Or you may detect abnormal operation | movement using the information of a cone. In this way, the amount of processing in learning is reduced.

本発明の実施例1(多角錐)の判定方法を示す説明図である。It is explanatory drawing which shows the determination method of Example 1 (polygonal pyramid) of this invention. リーブワンアウト法を示す説明図である。It is explanatory drawing which shows the leave one out method. 本発明の実施例2(近似的多角錐1)の判定方法を示す説明図である。It is explanatory drawing which shows the determination method of Example 2 (approximate polygonal pyramid 1) of this invention. 本発明の実施例4(円錐)の判定方法を示す説明図である。It is explanatory drawing which shows the determination method of Example 4 (cone) of this invention. 本発明による異常検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the abnormality detection apparatus by this invention. 本発明の異常検出処理の検出時の処理内容を示すフローチャートである。It is a flowchart which shows the processing content at the time of the detection of the abnormality detection process of this invention. 本発明の実施例1の異常検出処理の学習時の処理内容を示すフローチャートである。It is a flowchart which shows the processing content at the time of learning of the abnormality detection process of Example 1 of this invention. 近似的多角錐の求め方1を用いた本発明の異常検出処理の学習時の処理内容を示すフローチャートである。It is a flowchart which shows the processing content at the time of learning of the abnormality detection process of this invention using the calculation method 1 of an approximate polygonal pyramid. 近似的多角錐の求め方2を用いた本発明の異常検出処理の学習時の処理内容を示すフローチャートである。It is a flowchart which shows the processing content at the time of learning of the abnormality detection process of this invention using the calculation method 2 of an approximate polygonal pyramid. 本発明の異常検出処理の実施例4の検出時の処理内容を示すフローチャートである。It is a flowchart which shows the processing content at the time of the detection of Example 4 of the abnormality detection process of this invention. 本発明の異常検出処理の実施例4の学習時の処理内容を示すフローチャートである。It is a flowchart which shows the processing content at the time of learning of Example 4 of the abnormality detection process of this invention. S11の特徴ベクトル生成処理の内容を示すフローチャートである。It is a flowchart which shows the content of the feature vector generation process of S11. S101の立体高次局所自己相関特徴抽出処理の内容を示すフローチャートである。It is a flowchart which shows the content of the solid high-order local autocorrelation feature extraction process of S101. S33のクラスタリング処理の内容を示すフローチャートである。It is a flowchart which shows the content of the clustering process of S33. S88の方向ベクトル算出処理の内容を示すフローチャートである。It is a flowchart which shows the content of the direction vector calculation process of S88. S35のリーブワンアウト法による基底ベクトル抽出処理の内容を示すフローチャートである。It is a flowchart which shows the content of the base vector extraction process by the leave one out method of S35. 3次元画素空間における自己相関処理座標を示す説明図である。It is explanatory drawing which shows the autocorrelation process coordinate in a three-dimensional pixel space. 自己相関マスクパターンの例を示す説明図である。It is explanatory drawing which shows the example of an autocorrelation mask pattern. 本発明による動画像の実時間処理の内容を示す説明図である。It is explanatory drawing which shows the content of the real-time process of the moving image by this invention.

符号の説明Explanation of symbols

x…サンプルベクトル
θ…異常判定指標である角度
10…ビデオカメラ
11…コンピュータ
12…モニタ装置
13…キーボード
14…マウス
x ... sample vector θ ... angle 10 which is an abnormality determination index ... video camera 11 ... computer 12 ... monitor device 13 ... keyboard 14 ... mouse

Claims (10)

入力されたデータから多次元の特徴データを抽出する特徴データ抽出手段と、
特徴データ空間において予め求められている正常空間を示す錐状体と前記特徴データ抽出手段により抽出された特徴データとの角度を計算する角度計算手段と、
前記角度が所定値よりも大きい場合に異常と判定する異常判定手段と、
を備えたことを特徴とする異常検出装置。
Feature data extraction means for extracting multidimensional feature data from input data;
Angle calculation means for calculating the angle between the cones indicating the normal space obtained in advance in the feature data space and the feature data extracted by the feature data extraction means;
Abnormality determining means for determining an abnormality when the angle is greater than a predetermined value;
An abnormality detection device characterized by comprising:
前記正常空間を示す錐状体は、複数の基底ベクトルにより各辺が規定された多角錐であることを特徴とする請求項1に記載された異常検出装置。   The anomaly detection apparatus according to claim 1, wherein the cone-shaped body indicating the normal space is a polygonal pyramid whose sides are defined by a plurality of basis vectors. 前記多角錐は、ノンネガティブマトリックスファクトライゼーション(Non-negative Matrix Factorization)法により得られた基底ベクトルによって各辺が規定された多角錐であることを特徴とする請求項2に記載された異常検出装置。   3. The abnormality detecting device according to claim 2, wherein the polygonal pyramid is a polygonal pyramid whose sides are defined by basis vectors obtained by a non-negative matrix factorization method. . 前記多角錐は、正常サンプルから主成分分析によって求めた主成分ベクトルに基づいて生成された複数の基底ベクトルによって各辺が規定された、正常部分空間内における正常サンプルの分布範囲を近似する多角錐であることを特徴とする請求項2に記載された異常検出装置。   The polygonal pyramid is a polygonal pyramid that approximates the distribution range of normal samples in a normal subspace, in which each side is defined by a plurality of basis vectors generated based on principal component vectors obtained from normal samples by principal component analysis. The abnormality detection device according to claim 2, wherein: 前記正常空間を示す錐状体は、円錐の中心を示す方向ベクトル情報および円錐の広がりを示す角度情報によって規定された円錐であることを特徴とする請求項1に記載された異常検出装置。   The anomaly detection apparatus according to claim 1, wherein the cone-shaped body indicating the normal space is a cone defined by direction vector information indicating a center of the cone and angle information indicating a spread of the cone. 更に、特徴データのスケールを正規化するスケール正規化手段を備えたことを特徴とする請求項5に記載の異常検出装置。   6. The abnormality detection apparatus according to claim 5, further comprising scale normalizing means for normalizing the scale of the feature data. 更に、学習用の入力データに基づき、前記特徴データ抽出手段によって抽出された複数の特徴データから正常空間を示す錐状体を算出する学習手段を備えたことを特徴とする請求項1に記載された異常検出装置。   2. The learning apparatus according to claim 1, further comprising learning means for calculating a cone representing a normal space from a plurality of feature data extracted by the feature data extraction means based on input data for learning. Anomaly detection device. 更に、特徴データを複数のクラスタに分けるクラスタ分割手段を備え、
前記学習手段は分割された各クラスタ毎に正常空間を示す錐状体を算出し、
前記異常判定手段は、前記各クラスタ毎に判定を行い、前記特徴データが全てのクラスタにおいて異常と判定された場合にのみ当該特徴データを異常と判定することを特徴とする請求項1に記載の異常検出装置。
Furthermore, a cluster dividing means for dividing the feature data into a plurality of clusters is provided,
The learning means calculates a cone indicating a normal space for each divided cluster,
The abnormality determination unit performs determination for each cluster, and determines the feature data as abnormal only when the feature data is determined as abnormal in all clusters. Anomaly detection device.
前記特徴データ抽出手段は、入力された複数の画像フレームデータからなる動画像データからフレーム間差分データを生成し、複数の前記フレーム間差分データからなる3次元データから立体高次局所自己相関によって動作特徴データを生成することを特徴とする請求項1に記載の異常検出装置。   The feature data extracting unit generates inter-frame difference data from moving image data composed of a plurality of input image frame data, and operates by three-dimensional high-order local autocorrelation from three-dimensional data composed of the plurality of inter-frame difference data The abnormality detection apparatus according to claim 1, wherein characteristic data is generated. 入力されたデータから特徴データを抽出するステップ、
特徴データ空間において予め求められている正常空間を示す錐状体と前記特徴データ抽出手段により抽出された特徴データとの角度を計算するステップ、
前記角度が所定値よりも大きい場合に異常と判定するステップ
を含むことを特徴とする異常検出方法。
Extracting feature data from the input data;
A step of calculating an angle between a cone indicating a normal space obtained in advance in the feature data space and the feature data extracted by the feature data extraction unit;
An abnormality detection method comprising: determining an abnormality when the angle is larger than a predetermined value.
JP2007131540A 2007-05-17 2007-05-17 Abnormality detection apparatus and abnormality detection method Expired - Fee Related JP4769983B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007131540A JP4769983B2 (en) 2007-05-17 2007-05-17 Abnormality detection apparatus and abnormality detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007131540A JP4769983B2 (en) 2007-05-17 2007-05-17 Abnormality detection apparatus and abnormality detection method

Publications (2)

Publication Number Publication Date
JP2008287478A true JP2008287478A (en) 2008-11-27
JP4769983B2 JP4769983B2 (en) 2011-09-07

Family

ID=40147137

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007131540A Expired - Fee Related JP4769983B2 (en) 2007-05-17 2007-05-17 Abnormality detection apparatus and abnormality detection method

Country Status (1)

Country Link
JP (1) JP4769983B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011014133A (en) * 2009-06-30 2011-01-20 Mitsubishi Electric Research Laboratories Inc Method for clustering sample using mean shift procedure
WO2014174702A1 (en) * 2013-04-26 2014-10-30 沖電気工業株式会社 Feature amount calculator, feature amount calculation method, and recording medium
JP2015136625A (en) * 2014-01-23 2015-07-30 三菱電機株式会社 Method for optimizing radiation dose for radiation therapy treatment and radiation therapy system
CN107949865A (en) * 2015-09-02 2018-04-20 富士通株式会社 Abnormal detector, method for detecting abnormality and abnormality detecting program
JP2018081714A (en) * 2012-11-09 2018-05-24 カリフォルニア インスティチュート オブ テクノロジー Automated feature analysis, comparison, and abnormality detection
JP2019504380A (en) * 2015-11-18 2019-02-14 アリババ グループ ホウルディング リミテッド Order clustering method and apparatus and method and apparatus for countering malicious information
KR20200072380A (en) * 2018-11-30 2020-06-22 경희대학교 산학협력단 Method and device for object awareness in video
JPWO2021028978A1 (en) * 2019-08-09 2021-10-21 三菱電機株式会社 Image change detection device and image change detection method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03288277A (en) * 1990-04-03 1991-12-18 Sharp Corp Picture processor
JP2000030065A (en) * 1998-07-14 2000-01-28 Toshiba Corp Pattern recognizing device and its method
JP2004118627A (en) * 2002-09-27 2004-04-15 Toshiba Corp Figure identification device and method
JP2006079272A (en) * 2004-09-08 2006-03-23 National Institute Of Advanced Industrial & Technology Abnormal behavior detection apparatus and abnormal behavior detection method
WO2006074289A2 (en) * 2005-01-07 2006-07-13 Gesturetek, Inc. Detecting and tracking objects in images
WO2007145235A1 (en) * 2006-06-16 2007-12-21 National Institute Of Advanced Industrial Science And Technology Abnormal region detecting device and abnormal region detecting method
JP2008191754A (en) * 2007-02-01 2008-08-21 National Institute Of Advanced Industrial & Technology Abnormality detection apparatus and abnormality detection method
JP4215781B2 (en) * 2006-06-16 2009-01-28 独立行政法人産業技術総合研究所 Abnormal operation detection device and abnormal operation detection method

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03288277A (en) * 1990-04-03 1991-12-18 Sharp Corp Picture processor
JP2000030065A (en) * 1998-07-14 2000-01-28 Toshiba Corp Pattern recognizing device and its method
JP2004118627A (en) * 2002-09-27 2004-04-15 Toshiba Corp Figure identification device and method
JP2006079272A (en) * 2004-09-08 2006-03-23 National Institute Of Advanced Industrial & Technology Abnormal behavior detection apparatus and abnormal behavior detection method
WO2006074289A2 (en) * 2005-01-07 2006-07-13 Gesturetek, Inc. Detecting and tracking objects in images
JP2008527541A (en) * 2005-01-07 2008-07-24 ジェスチャー テック,インコーポレイテッド Detection and tracking of objects in images
WO2007145235A1 (en) * 2006-06-16 2007-12-21 National Institute Of Advanced Industrial Science And Technology Abnormal region detecting device and abnormal region detecting method
JP4215781B2 (en) * 2006-06-16 2009-01-28 独立行政法人産業技術総合研究所 Abnormal operation detection device and abnormal operation detection method
JP4603512B2 (en) * 2006-06-16 2010-12-22 独立行政法人産業技術総合研究所 Abnormal region detection apparatus and abnormal region detection method
JP2008191754A (en) * 2007-02-01 2008-08-21 National Institute Of Advanced Industrial & Technology Abnormality detection apparatus and abnormality detection method

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011014133A (en) * 2009-06-30 2011-01-20 Mitsubishi Electric Research Laboratories Inc Method for clustering sample using mean shift procedure
JP2018081714A (en) * 2012-11-09 2018-05-24 カリフォルニア インスティチュート オブ テクノロジー Automated feature analysis, comparison, and abnormality detection
WO2014174702A1 (en) * 2013-04-26 2014-10-30 沖電気工業株式会社 Feature amount calculator, feature amount calculation method, and recording medium
JP2014215200A (en) * 2013-04-26 2014-11-17 沖電気工業株式会社 Feature quantity calculation device, feature quantity calculation method, and program
JP2015136625A (en) * 2014-01-23 2015-07-30 三菱電機株式会社 Method for optimizing radiation dose for radiation therapy treatment and radiation therapy system
CN107949865B (en) * 2015-09-02 2021-10-29 富士通株式会社 Abnormality detection device and abnormality detection method
CN107949865A (en) * 2015-09-02 2018-04-20 富士通株式会社 Abnormal detector, method for detecting abnormality and abnormality detecting program
JP2019504380A (en) * 2015-11-18 2019-02-14 アリババ グループ ホウルディング リミテッド Order clustering method and apparatus and method and apparatus for countering malicious information
US11100567B2 (en) 2015-11-18 2021-08-24 Advanced New Technologies Co., Ltd. Order clustering and malicious information combating method and apparatus
US11200615B2 (en) 2015-11-18 2021-12-14 Advanced New Technologies Co., Ltd. Order clustering and malicious information combating method and apparatus
KR102158097B1 (en) * 2018-11-30 2020-09-21 경희대학교 산학협력단 Method and device for object awareness in video
KR20200072380A (en) * 2018-11-30 2020-06-22 경희대학교 산학협력단 Method and device for object awareness in video
JPWO2021028978A1 (en) * 2019-08-09 2021-10-21 三菱電機株式会社 Image change detection device and image change detection method

Also Published As

Publication number Publication date
JP4769983B2 (en) 2011-09-07

Similar Documents

Publication Publication Date Title
JP4215781B2 (en) Abnormal operation detection device and abnormal operation detection method
JP4769983B2 (en) Abnormality detection apparatus and abnormality detection method
CN108470354B (en) Video target tracking method and device and implementation device
JP6041923B2 (en) Information processing method and information processing apparatus
JP4742370B2 (en) Abnormality detection apparatus and abnormality detection method
US20080123975A1 (en) Abnormal Action Detector and Abnormal Action Detecting Method
WO2017152794A1 (en) Method and device for target tracking
JP5297530B2 (en) Image processing apparatus and interface apparatus
Pless et al. Evaluation of local models of dynamic backgrounds
KR20170056860A (en) Method of generating image and apparatus thereof
Mai et al. Comparing salient object detection results without ground truth
JP5290227B2 (en) Object detection device and learning device thereof
US20050139782A1 (en) Face image detecting method, face image detecting system and face image detecting program
US20190370982A1 (en) Movement learning device, skill discriminating device, and skill discriminating system
JP2007122218A (en) Image analyzing device
CN109284673A (en) Method for tracing object and device, electronic equipment and storage medium
JP4903192B2 (en) Face detection device
Luna et al. Fast heuristic method to detect people in frontal depth images
KR101467307B1 (en) Method and apparatus for counting pedestrians using artificial neural network model
JP4477439B2 (en) Image segmentation system
JP5407897B2 (en) Image classification method, apparatus, and program
JP4434868B2 (en) Image segmentation system
Chen et al. Urban damage estimation using statistical processing of satellite images
JP2015187769A (en) Object detection device, object detection method, and program
Sun et al. Visual tracking by the combination of global detector and local image patch matching

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110215

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110413

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20110329

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110601

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110603

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140701

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4769983

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140701

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees