JP4641450B2 - Unsteady image detection method, unsteady image detection device, and unsteady image detection program - Google Patents

Unsteady image detection method, unsteady image detection device, and unsteady image detection program Download PDF

Info

Publication number
JP4641450B2
JP4641450B2 JP2005149164A JP2005149164A JP4641450B2 JP 4641450 B2 JP4641450 B2 JP 4641450B2 JP 2005149164 A JP2005149164 A JP 2005149164A JP 2005149164 A JP2005149164 A JP 2005149164A JP 4641450 B2 JP4641450 B2 JP 4641450B2
Authority
JP
Japan
Prior art keywords
image
input
cluster
stationary
threshold
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005149164A
Other languages
Japanese (ja)
Other versions
JP2006330797A (en
Inventor
恭子 数藤
憲作 藤井
賢一 荒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2005149164A priority Critical patent/JP4641450B2/en
Publication of JP2006330797A publication Critical patent/JP2006330797A/en
Application granted granted Critical
Publication of JP4641450B2 publication Critical patent/JP4641450B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、入力画像から非定常画像を検出する技術に関するものである。   The present invention relates to a technique for detecting an unsteady image from an input image.

点検や保守が必要な場所にカメラ等のセンサを設置し、映像等のセンサ情報から異常発生の有無を判断する技術が開示されている。   A technique is disclosed in which a sensor such as a camera is installed in a place where inspection or maintenance is necessary, and whether or not an abnormality has occurred is determined from sensor information such as an image.

例えば、水力発電所のセンサデータからあらかじめ正常なデータを収集しておき、1クラスSVMによって正常データのクラスタリングを行ってセンサ情報の異常を発見する技術が開示されている(例えば、非特許文献1参照。)。なお、この技術では、あらかじめ正常データを収集しておく必要がある。
小野田他,“One−Class SVMに基づく水力発電所軸受異常振動の予兆発見(1)”,The 18th Annual Conference of the Japanese Society for Artificial Intelligence,2004.
For example, a technique is disclosed in which normal data is collected in advance from sensor data of a hydroelectric power plant, and abnormalities in sensor information are discovered by clustering normal data using a one-class SVM (for example, Non-Patent Document 1). reference.). In this technique, it is necessary to collect normal data in advance.
Onoda et al., “Prediction of Abnormal Vibration of Hydroelectric Power Station Bearing Based on One-Class SVM (1)”, The 18th Annual Conference of the Japan Society for Artificial Intelligence, 2004.

日常的な映像に非定常な状態生じたとき、これを検知するためには新たな画像を逐次学習していき、似たシーケンスが何度も出現する場合には、自動的にこれを日常的な映像に加えていく仕組みが必要である。   When an unsteady state occurs in a daily image, new images are sequentially learned to detect this, and if a similar sequence appears repeatedly, this is automatically It is necessary to have a mechanism to add to the video.

従来の異常データの検知技術においては、正常データの分布を定義することが困難なため、教師無し学習を用いることによって対応していた。   In the conventional abnormal data detection technique, since it is difficult to define the distribution of normal data, it has been dealt with by using unsupervised learning.

しかし、あらかじめ正常と判断されたデータを収集しておく必要があった。   However, it was necessary to collect data that was determined to be normal in advance.

また、類似するデータが追加されたとき、これを正常のデータに加えつつ再学習していく機構は存在しない。   In addition, when similar data is added, there is no mechanism for re-learning while adding this to normal data.

本発明の目的は、撮影された映像において、複数の画像中から特徴が異なる画像を検出する技術を提供することにある。   An object of the present invention is to provide a technique for detecting images having different characteristics from a plurality of images in a captured video.

本発明は上記課題を解決するために、請求項1に記載の発明は、入力した複数の画像からクラスタを作成し、当該クラスタ作成に用いた画像より後に入力した画像が当該クラスタに属するかどうかに基づいて当該入力した画像が非定常画像であるかを判断する非定常画像検出装置における非定常画像検出方法であって、画像を入力する画像入力ステップと、前記入力された画像から特徴量を抽出する特徴抽出ステップと、前記抽出した特徴量の分布に基づく教師無し学習を行い、入力順位が閾値以下の前記入力された画像のクラスタを作成するクラスタ構成ステップと、前記入力された画像の入力順位が前記閾値を越えたかどうかを判断し、当該閾値より大きい入力順位の入力画像について、当該入力画像が前記クラスタに属するかどうかを判断する類似度判定ステップと、前記閾値より大きい入力順位の入力画像が非定常画像と判断されたときは当該旨を出力するとともに当該入力画像の特徴量を出力し、前記閾値より大きい入力順位の入力画像が非定常画像ではないと判断されたときは当該入力画像の特徴量を出力する判定結果出力ステップと、前記閾値より大きい入力順位の入力画像が非定常画像と判断されたときであっても非定常画像ではないと判断されたときであっても、前記クラスタ構成ステップにおいてクラスタを作成したときの画像の特徴量と前記閾値より大きい入力順位の入力画像の特徴量の分布に基づいて教師無し学習を行い、前記クラスタを再構成するクラスタ更新ステップと、を有することを特徴とする。 In order to solve the above-mentioned problem, the invention described in claim 1 creates a cluster from a plurality of inputted images, and whether an image inputted after the image used for creating the cluster belongs to the cluster. image the input is a non-stationary image detection method in unsteady image detection apparatus for determining whether a non-stationary image based on an image input step of inputting an image, a feature quantity from the input image a feature extraction step of extracting, perform unsupervised learning based on the distribution of the extracted feature quantity, and the cluster configuration steps to create a cluster of image input order is the input of the threshold value or less, the input of the input image Position is determined whether or exceeds the threshold value, the input image of the threshold is greater than the input rank, whether the input image belongs to the cluster A similarity judgment step of cross, and outputs the feature quantity of the input image and outputs the effect when the input image of the threshold is greater than the input rank is determined to unsteady image, the threshold value is greater than the input rank When it is determined that the input image is not a non-stationary image, a determination result output step for outputting the feature amount of the input image, and when an input image having an input rank greater than the threshold is determined to be a non-stationary image Even when it is determined that the image is not a non-stationary image, the teacher is based on the distribution of the feature amount of the image when the cluster is created in the cluster configuration step and the feature amount distribution of the input image having the input order higher than the threshold value. A cluster updating step of performing absence learning and reconfiguring the cluster.

また、請求項2に記載の発明は、前記画像入力ステップでは連続撮影された動画像を入力し、前記特徴抽出ステップでは前記連続撮影された動画像から規定した基準に基づいてシーケンスを抽出し、当該シーケンスごとに前記特徴量を抽出することを特徴とする。 In the invention according to claim 2, the image input step inputs a continuously shot moving image, and the feature extraction step extracts a sequence based on a standard defined from the continuously shot moving image, The feature amount is extracted for each sequence.

また、請求項3に記載の発明は、前記シーケンス抽出では前記連続撮影された動画像と時間的な対応がとれたセンサ情報を入力し、当該センサ情報に対応する画像から規定した数の画像を1シーケンスとすることを特徴とする。 According to a third aspect of the present invention, in the sequence extraction, sensor information that is temporally correlated with the continuously captured moving images is input, and a prescribed number of images are obtained from images corresponding to the sensor information. One sequence is a feature.

また、請求項4に記載の発明は、前記シーケンス抽出では前記連続撮影された動画像の1フレームごとに特徴量を抽出し、当該抽出した特徴量の値が閾値を超えたフレームを開始フレームとし当該開始フレームから規定した数のフレームを1シーケンスとすることを特徴とする。 According to a fourth aspect of the present invention, in the sequence extraction, a feature amount is extracted for each frame of the continuously shot moving image, and a frame in which the value of the extracted feature amount exceeds a threshold is set as a start frame. The number of frames defined from the start frame is one sequence.

また、請求項5に記載の発明は、コンピュータに請求項1〜4のいずれかに記載の各ステップを実行させる非定常画像検出プログラム、を特徴とする。 The invention described in claim 5 is characterized by an unsteady image detection program for causing a computer to execute each step described in any one of claims 1 to 4 .

また、請求項6に記載の発明は、入力した複数の画像からクラスタを作成し、当該クラスタ作成に用いた画像より後に入力した画像が当該クラスタに属するかどうかに基づいて当該入力した画像が非定常画像であるかを判断する非定常画像検出装置であって、画像を入力する画像入力部と、前記入力された画像から特徴量を抽出する特徴ベクトル抽出部と、前記抽出した特徴量の分布に基づく教師無し学習を行って、入力順位が閾値以下の前記入力された画像のクラスタを作成し、判定結果出力部によって前記閾値より大きい入力順位の入力画像が非定常画像と判断されたときであっても非定常画像でないと判断されたときであっても、前記クラスタを作成したときの画像の特徴量と前記閾値より大きい入力順位の入力画像の特徴量の分布に基づいて教師無し学習を行い、前記クラスタを再構成するクラスタ構成部と、前記画像入力部に入力された画像の入力順位が前記閾値を越えたかどうかを判断し、当該閾値より大きい入力順位の入力画像について、当該入力画像が前記クラスタに属するかどうかを判断する類似度判定部と、前記閾値より大きい入力順位の入力画像が非定常画像と判断されたときは当該旨を出力するとともに当該入力画像の特徴量を前記クラスタ構成部に送信し、前記閾値より大きい入力順位の入力画像が非定常画像ではないと判断されたときは当該入力画像の特徴量を前記クラスタ構成部に送信する前記判定結果出力部と、を有することを特徴とする。 According to the sixth aspect of the present invention, a cluster is created from a plurality of inputted images, and the inputted image is determined based on whether an image inputted after the image used for creating the cluster belongs to the cluster. A non-stationary image detection apparatus that determines whether a image is a stationary image, an image input unit that inputs an image, a feature vector extraction unit that extracts a feature amount from the input image, and a distribution of the extracted feature amount The unsupervised learning based on the above is performed to create a cluster of the input images whose input order is less than or equal to the threshold value, and when the input image having the input order greater than the threshold value is determined as a non-steady image by the determination result output unit Even if it is determined that the image is not a non-stationary image, the distribution of the feature amount of the image when the cluster is created and the feature amount of the input image having an input rank higher than the threshold value Therefore, unsupervised learning is performed to determine whether or not the input order of the images input to the image input unit exceeds the threshold by reconfiguring the cluster, and input an input order higher than the threshold For an image, a similarity determination unit that determines whether the input image belongs to the cluster, and when an input image having an input order higher than the threshold is determined to be a non-steady image, the fact is output and the input image The determination result of transmitting the feature amount of the input image to the cluster configuration unit when it is determined that an input image having an input order higher than the threshold is not a non-stationary image. And an output unit .

請求項1及び6に記載の発明、並びにこれに従属する発明では、クラスタ構成部が入力画像の特徴量に基づいて入力された画像のクラスタを作成するので、あらかじめ正常と判断されたデータを収集しておく必要が無い。また、クラスタ構成部が判定結果出力部から送信されたクラスタに属する画像の特徴量に基づいてクラスタを再構成するので、類似するデータが追加されたとき、これを正常のデータに加えつつ再学習していく機構が実現される。 In the inventions according to claims 1 and 6 and the subordinate inventions, since the cluster forming unit creates a cluster of the input image based on the feature amount of the input image, the data determined to be normal in advance is collected. There is no need to keep it. In addition, since the cluster configuration unit reconstructs the cluster based on the feature amount of the image belonging to the cluster transmitted from the determination result output unit, when similar data is added, it is re-learned while adding this to normal data The mechanism to do is realized.

また、クラスタ構成部が判定結果出力部から送信されたクラスタに属さない画像の特徴量にも基づいてクラスタを再構成するので、クラスタ構成の初期段階では非定常画像と判定されても、その後この非定常画像に類似する画像が頻出した場合にはこの非定常画像に類似する画像は定常画像と判断することが可能となる。 In addition, since the cluster configuration unit reconstructs the cluster based on the feature amount of the image that does not belong to the cluster transmitted from the determination result output unit, even if it is determined as an unsteady image in the initial stage of the cluster configuration, When an image similar to a non-stationary image appears frequently, an image similar to the non-stationary image can be determined as a stationary image.

さらに請求項2に記載の発明、及びこれに従属する発明では、連続撮影された動画像中から非定常画像を抽出することが可能となる。
なお、入力画像が非定常画像と判断されたときは当該旨を出力するが、これはユーザインタフェースに、非定常画像を表示すること、他の定常画像とは異なる特徴を強調して表示すること、この画像が入力された時刻を表示すること、音声として通知すること等が含まれる。
Furthermore, in the invention described in claim 2 and the invention subordinate thereto, it is possible to extract a non-stationary image from continuously captured moving images.
When the input image is determined to be a non-steady image, a message to that effect is output. This indicates that the non-steady image is displayed on the user interface, and features different from those of other steady images are highlighted. , Displaying the time when this image was input, notifying as sound, and the like.

また、前記センサ情報としては、カメラセンサ情報、赤外線センサ情報、マイクセンサ情報、振動センサ情報、圧力センサ情報等が含まれる。   The sensor information includes camera sensor information, infrared sensor information, microphone sensor information, vibration sensor information, pressure sensor information, and the like.

請求項1〜6に記載の発明によれば、異常データの検知技術における正常データ分布の作成において、あらかじめ正常と判断されたデータを収集しておく必要が無い。また、類似するデータが追加されたとき、これを正常データに加えつつ再学習していく機構が実現される。 According to the invention described in claims 1 to 6, in the creation of the normal data distribution in the detection technology of abnormal data, not necessary to collect is determined in advance normal data. Further, when similar data is added, a mechanism for re-learning while adding this to normal data is realized.

以下、実施形態を図面を用いて説明する。   Hereinafter, embodiments will be described with reference to the drawings.

図1は非定常画像検出装置の構成図である。図1に示すように非定常画像検出装置は、画像入力部11、特徴ベクトル抽出部12、類似度判別部13、判別結果出力部14、クラスタ構成部15、及びクラスタ情報蓄積部16を有している。   FIG. 1 is a configuration diagram of an unsteady image detection apparatus. As shown in FIG. 1, the unsteady image detection apparatus includes an image input unit 11, a feature vector extraction unit 12, a similarity determination unit 13, a determination result output unit 14, a cluster configuration unit 15, and a cluster information storage unit 16. ing.

画像入力部11は、複数の画像を入力する。   The image input unit 11 inputs a plurality of images.

特徴ベクトル抽出部12は、入力した画像から特徴量を抽出する。   The feature vector extraction unit 12 extracts a feature amount from the input image.

クラスタ構成部15は、抽出した特徴量に基づいて入力された複数の画像から類似した画像のクラスタを構成する。   The cluster configuration unit 15 configures a cluster of similar images from a plurality of images input based on the extracted feature amount.

類似度判別部13は、クラスタ構成部15において構成された類似画像のクラスタに新たに入力された画像が属するか属さないかを判別し、その結果を判別結果出力部14へ送る。   The similarity determination unit 13 determines whether or not a newly input image belongs to a cluster of similar images configured in the cluster configuration unit 15, and sends the result to the determination result output unit 14.

判別結果出力部14は、新たに入力された画像の類似度判別部13における判別結果が類似画像のクラスタに属さないものであった場合には、そのことを出力する。一方、類似画像のクラスタに属する場合には、その画像をクラスタ構成部15に入力する。   The discrimination result output unit 14 outputs the fact that the discrimination result in the similarity discrimination unit 13 of the newly input image does not belong to the cluster of similar images. On the other hand, if the image belongs to a cluster of similar images, the image is input to the cluster configuration unit 15.

クラスタ構成部15は、新たに入力があった場合にはそれまでに入力されたすべての画像及び入力した類似画像からクラスタを再構成する。   When there is a new input, the cluster configuration unit 15 reconstructs a cluster from all the images input so far and the input similar images.

次に、クラスタ構成部15及び類似度判別部13の動作例を図2を用いて説明する。   Next, operation examples of the cluster configuration unit 15 and the similarity determination unit 13 will be described with reference to FIG.

なお、ここでは入力は常時撮影している映像であり、日常的な映像と異なる映像が得られたときにこれを通知するという場合について説明する。   Here, a case will be described in which the input is a video that is constantly shot, and notification is given when a video that differs from a daily video is obtained.

特徴ベクトル抽出部12では、映像のシーケンスごとに特徴量を抽出する。ここではk番目のシーケンスの特徴量までが入力さているものとする。   The feature vector extraction unit 12 extracts a feature amount for each video sequence. Here, it is assumed that up to the feature amount of the k-th sequence is input.

クラスタ構成部15では、次々に入力される特徴量のデータを学習してクラスタを構成するが、日常的な映像の特徴量の性質はあらかじめ定義されていない。このため入力データの分布に基づく教師無し学習を行う。これによって、類似したデータ群を一つのクラスタとし、入力されたデータの中でこのクラスタに属するデータが日常的なデータであり、これに属さないデータが非定常なデータであると解釈できる。   The cluster configuration unit 15 learns feature value data input one after another to form a cluster, but the characteristics of the daily feature values are not defined in advance. For this reason, unsupervised learning based on the distribution of input data is performed. As a result, a similar data group is defined as one cluster, and the data belonging to this cluster among the input data can be interpreted as everyday data, and the data not belonging to this can be interpreted as non-stationary data.

図2において、k番目までの特徴量から日常的なデータを学習したクラスタをCkとする。最初にクラスタを構成するには、ある程度の数のデータが必要であるため、初期クラスタ構成のためのデータ数nを設定しておき、k<nの間は、クラスタ構成部15ではデータを蓄積し、それ以降には以下の逐次処理を行う。   In FIG. 2, a cluster obtained by learning daily data from the k-th feature amount is defined as Ck. Since a certain amount of data is required to configure a cluster for the first time, the number of data n for the initial cluster configuration is set, and the data is stored in the cluster configuration unit 15 while k <n. Thereafter, the following sequential processing is performed.

類似度判別部13では、k+1番目に入力されたデータがk番目までの特徴量から学習された日常的なデータのクラスタCkからはずれている場合、非定常なデータが発見されたという判定を出力する。   The similarity determination unit 13 outputs a determination that non-stationary data has been found when the k + 1st input data deviates from the daily data cluster Ck learned from the kth feature quantity. To do.

次に、k番目までは学習の初期段階であったが、I番目(I>k)のシーケンスまで入力されたとする。もしI番目までに、k+1番目に入力されたデータと類似の特徴量を有するデータが大量に入力されたとすると、I番目までのデータによって構成された類似クラスタは特徴空間において、k+1番目のデータの存在する領域まで広がり、k+1番目と類似の特徴量は非定常データとしては判別されなくなる。   Next, up to the kth is the initial stage of learning, but it is assumed that the Ith (I> k) sequence has been input. If a large amount of data having a similar feature amount to the data input to the (k + 1) th is input up to the Ith, a similar cluster constituted by the data up to the Ith is represented by the k + 1th data in the feature space. The feature quantity that extends to the existing area and is similar to the (k + 1) th is no longer determined as non-stationary data.

クラスタ構成部15における教師無し学習の方法の例としては、k‐means法、自己組織化マップ、One‐Class SVM、EMアルゴリズムなどがある。k‐means法は、入力データを加えながら全入力データの平均値をクラスタ中心として更新していく方法である。自己組織化マップは、クラスタを代表するプロトタイプをつくり、入力データと最も近いプロトタイプを探してその近傍を変化させて更新していく方法である。One‐Class SVMは、入力空間での孤立点がガウシアンカーネルによって特徴空間の原点近傍に写像される性質を利用した方法である。EMアルゴリズムは、データの分布にガウス分布を仮定して分布パラメータを推定する方法である。   Examples of unsupervised learning methods in the cluster configuration unit 15 include a k-means method, a self-organizing map, a One-Class SVM, and an EM algorithm. The k-means method is a method of updating the average value of all input data as the cluster center while adding the input data. The self-organizing map is a method of creating a prototype that represents a cluster, searching for a prototype closest to the input data, and changing the neighborhood to update it. One-Class SVM is a method that utilizes the property that isolated points in the input space are mapped to the vicinity of the origin of the feature space by the Gaussian kernel. The EM algorithm is a method of estimating a distribution parameter assuming a Gaussian distribution as a data distribution.

次に、クラスタ情報蓄積部16、類似度判別部13、及び判別結果出力部14での処理について説明する。   Next, processing in the cluster information storage unit 16, the similarity determination unit 13, and the determination result output unit 14 will be described.

クラスタ構成部15において学習された結果、学習に用いた識別器の種類、及び識別器のパラメータはクラスタ情報蓄積部16に蓄積される。   As a result of learning in the cluster configuration unit 15, the type of classifier used for learning and the parameters of the classifier are stored in the cluster information storage unit 16.

類似度判別部13では、新たに加わった特徴ベクトルをこのパラメータによって変換し、類似クラスに属するか属さないかの判別を行い、その特徴ベクトルを判別結果出力部14へ送る。   The similarity determination unit 13 converts the newly added feature vector using this parameter, determines whether it belongs to a similar class, and sends the feature vector to the determination result output unit 14.

判別結果出力部14は、属するという判別結果の場合には、その特徴ベクトルをクラスタ構成部15へ入力する。   The discrimination result output unit 14 inputs the feature vector to the cluster configuration unit 15 in the case of the discrimination result of belonging.

一方、属さないという判別結果の場合には、非定常画像の検出通知を出力する。また、この場合にも、特徴ベクトルをクラスタ構成部15へ入力し、クラスタ構成部15で類似クラスとは異なるクラスを学習し、クラスタ情報蓄積部16に蓄積していくこともできる。これにより、学習の初期段階では非定常と判定されても、その後頻出する場合に新たな定常のクラスを形成することができる。   On the other hand, in the case of the determination result that it does not belong, an unsteady image detection notification is output. Also in this case, a feature vector can be input to the cluster configuration unit 15, a class different from the similar class can be learned by the cluster configuration unit 15, and stored in the cluster information storage unit 16. Thereby, even if it is determined to be non-stationary at the initial stage of learning, a new stationary class can be formed when it frequently appears thereafter.

次に、特徴ベクトル抽出部12の構成例を図3を用いて説明する。   Next, a configuration example of the feature vector extraction unit 12 will be described with reference to FIG.

特徴ベクトル抽出部12は、シーケンス抽出部21、及び特徴量算出部22を備えており、シーケンス抽出部21はセンサ情報入力部23を備える。   The feature vector extraction unit 12 includes a sequence extraction unit 21 and a feature amount calculation unit 22, and the sequence extraction unit 21 includes a sensor information input unit 23.

シーケンス抽出部21は、画像入力部11からの入力が静止画像の場合には、静止画像の1枚1枚をシーケンスとみなして特徴量算出部22に送る。入力が動画像の場合には、これをシーケンスに分けてから特徴量算出部22に送る。
When the input from the image input unit 11 is a still image, the sequence extraction unit 21 regards each still image as a sequence and sends it to the feature amount calculation unit 22 . If the input is a moving image, it is divided into sequences and sent to the feature quantity calculation unit 22 .

シーケンスに分ける操作をもっとも簡単に行うには、現在のフレームからあらかじめ定めた一定枚数(1枚以上)のフレームを用いることが考えられる。しかし、長時間撮影の映像に本非定常画像検出装置を適用する場合、シーケンスの開始フレームと終了フレームのとり方が一定でないと、過去に学習されたシーケンスの一部であっても、非定常なシーケンスとして判別されてしまう可能性がある。   In order to perform the operation of dividing into a sequence most easily, it is conceivable to use a predetermined number (one or more) of frames from the current frame. However, when this non-stationary image detection apparatus is applied to a long-shot video, if the sequence start and end frames are not constant, even if it is part of a sequence learned in the past, There is a possibility of being discriminated as a sequence.

そこで、シーケンスの抽出基準をあらかじめ設定しておくことが考えられる。抽出基準の例としては、センサ情報入力部23によるセンサ情報を利用すること、及び特徴量算出部22で算出した特徴量の変化を利用することがある。   Therefore, it is conceivable to set a sequence extraction criterion in advance. Examples of extraction criteria include using sensor information from the sensor information input unit 23 and using a change in the feature amount calculated by the feature amount calculation unit 22.

センサ情報を利用する場合、センサ情報入力部23は画像以外のセンサ情報をトリガとして特徴量算出部22へ入力する。   When using sensor information, the sensor information input unit 23 inputs sensor information other than an image to the feature amount calculation unit 22 as a trigger.

センサ情報入力部23で用いるセンサは、例えば、カメラ、赤外線センサ、マイク、振動センサ、圧力センサなどであり、特徴ベクトル抽出部12で抽出したい情報に伴って発生する情報を検知できるセンサが有効である。   Sensors used in the sensor information input unit 23 are, for example, a camera, an infrared sensor, a microphone, a vibration sensor, a pressure sensor, and the like, and a sensor that can detect information generated along with information to be extracted by the feature vector extraction unit 12 is effective. is there.

例えば、特徴ベクトル抽出部12において、音を伴う動作のシーケンスを切り出したい場合には、マイクを用いることができる。   For example, in the feature vector extraction unit 12, a microphone can be used when it is desired to cut out an operation sequence accompanied by sound.

特徴量算出部22で算出された特徴量の変化を利用する場合、1フレームごとに特徴量を求め、特徴量が一定値以上の領域を1シーケンスとして切り出すなどの方法が考えられる。   When using a change in the feature amount calculated by the feature amount calculation unit 22, a method may be considered in which a feature amount is obtained for each frame, and an area having a feature amount equal to or greater than a certain value is cut out as one sequence.

例えば、入力が固定カメラの監視映像である場合、特徴量算出部22では、あらかじめ取得された背景画像との差分画像を作成し変化領域の面積を特徴量として算出し、その値をシーケンス抽出部21へ送る。   For example, when the input is a monitoring video of a fixed camera, the feature amount calculation unit 22 creates a difference image from the background image acquired in advance, calculates the area of the change area as the feature amount, and calculates the value as a sequence extraction unit Send to 21.

シーケンス抽出部21では、その値が一定値以上のフレームを開始フレームとして、あらかじめ定めた枚数のフレームを1シーケンスとすることができる。   The sequence extraction unit 21 can set a predetermined number of frames as one sequence with a frame having a certain value or more as a start frame.

特徴量算出部22で求められる特徴量は、このほかに、画素の輝度値、色、オプティカルフロー、それらの時間変化などがある。   In addition to this, the feature amount obtained by the feature amount calculation unit 22 includes a luminance value of a pixel, a color, an optical flow, and their temporal change.

次に、非定常画像検出装置における処理例を図4を用いて説明する。   Next, a processing example in the unsteady image detection apparatus will be described with reference to FIG.

ここでは、画像入力部11から、(a)に示す熱帯魚を撮影した映像が入力されるものとする。   Here, it is assumed that an image of tropical fish shown in (a) is input from the image input unit 11.

特徴ベクトル抽出部12では、映像の変化は2フレームごとに1シーケンスとみなし、ブロックごとにオプティカルフローを抽出して特徴ベクトルを抽出し、クラスタ構成部15に入力する。   The feature vector extraction unit 12 regards a video change as one sequence every two frames, extracts an optical flow for each block, extracts a feature vector, and inputs it to the cluster configuration unit 15.

クラスタ構成部15では、識別器として2次多項式カーネルを用いたOne‐Class SVMを用いる。(b)は、初期クラスタの学習の結果、1クラスとみなされた映像の例で、構図や動きの方向が類似した映像が含まれている。   The cluster configuration unit 15 uses One-Class SVM using a second-order polynomial kernel as a discriminator. (B) is an example of an image considered as one class as a result of learning of the initial cluster, and includes an image having a similar composition and direction of motion.

(c)は、クラスタから距離の遠かった映像の例である。しかし、クラスタ構成部15に(c)と類似の映像が多数学習されていくと、すべて1クラスとして構成することができる。   (C) is an example of an image that is far from the cluster. However, when a number of videos similar to (c) are learned in the cluster configuration unit 15, all of them can be configured as one class.

なお、上記実施形態において、非定常画像検出装置は、例えば、非定常画像検出装置を構成するコンピュータ装置が有するCPUによって実現され、特徴ベクトル抽出処理、類似度判定処理、判定結果出力処理、クラスタ構成処理などをアプリケーションプログラムとして搭載することができる。   In the above embodiment, the non-stationary image detection device is realized by, for example, a CPU included in a computer device constituting the non-stationary image detection device, and features vector extraction processing, similarity determination processing, determination result output processing, cluster configuration Processing and the like can be installed as an application program.

また、特徴ベクトル抽出処理、類似度判定処理、判定結果出力処理、クラスタ構成処理などで行った、抽出した特徴ベクトル、計算したクラスタ等の処理結果、計算結果、及び当該処理、計算に必要な情報等のデータを内部メモリや外部記憶装置等に書き込み・読み出しができるようにしてもよい。   Also, the extracted feature vectors, the processing results of the calculated clusters, the calculation results, and the information necessary for the calculation and calculation performed in the feature vector extraction process, the similarity determination process, the determination result output process, the cluster configuration process, etc. Such data may be written to and read from an internal memory or an external storage device.

また、顔検出装置の機能を実現するソフトウェアのプログラムコードを記録した記録媒体を、システム、又は装置に供給し、そのシステム、又は装置のCPU(MPU)が記憶媒体に格納されたプログラムコードを読み出し実行することも可能である。この場合、記憶媒体から読み出されたプログラムコード自体が上記実施形態の機能を実現することになり、このプログラムコードを記憶した記憶媒体としては、例えば、CD−ROM、DVD−ROM、CD−R、CD−RW、MO、及びHDD等がある。   In addition, a recording medium in which a program code of software for realizing the function of the face detection apparatus is recorded is supplied to the system or apparatus, and the CPU (MPU) of the system or apparatus reads the program code stored in the storage medium. It is also possible to execute. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and examples of the storage medium storing the program code include CD-ROM, DVD-ROM, and CD-R. , CD-RW, MO, and HDD.

非定常画像検出装置の構成図。The block diagram of a non-stationary image detection apparatus. クラスタ構成部15及び類似度判別部13の動作例の説明図。Explanatory drawing of the operation example of the cluster structure part 15 and the similarity determination part 13. FIG. 特徴ベクトル抽出部12の構成図。The block diagram of the feature vector extraction part 12. FIG. 非定常画像検出装置における処理例の説明図。Explanatory drawing of the process example in an unsteady image detection apparatus.

符号の説明Explanation of symbols

11 画像入力部
12 特徴ベクトル抽出部
13 類似度判定部
14 判定結果出力部
15 クラスタ構成部
16 クラスタ情報蓄積部
21 シーケンス抽出部
22 特徴量算出部
23 センサ情報入力部
DESCRIPTION OF SYMBOLS 11 Image input part 12 Feature vector extraction part 13 Similarity determination part 14 Determination result output part 15 Cluster structure part 16 Cluster information storage part 21 Sequence extraction part 22 Feature-value calculation part 23 Sensor information input part

Claims (6)

入力した複数の画像からクラスタを作成し、当該クラスタ作成に用いた画像より後に入力した画像が当該クラスタに属するかどうかに基づいて当該入力した画像が非定常画像であるかを判断する非定常画像検出装置における非定常画像検出方法であって、
画像を入力する画像入力ステップと、
前記入力された画像から特徴量を抽出する特徴抽出ステップと、
前記抽出した特徴量の分布に基づく教師無し学習を行い、入力順位が閾値以下の前記入力された画像のクラスタを作成するクラスタ構成ステップと、
前記入力された画像の入力順位が前記閾値を越えたかどうかを判断し、当該閾値より大きい入力順位の入力画像について、当該入力画像が前記クラスタに属するかどうかを判断する類似度判定ステップと、
前記閾値より大きい入力順位の入力画像が非定常画像と判断されたときは当該旨を出力するとともに当該入力画像の特徴量を出力し、前記閾値より大きい入力順位の入力画像が非定常画像ではないと判断されたときは当該入力画像の特徴量を出力する判定結果出力ステップと、
前記閾値より大きい入力順位の入力画像が非定常画像と判断されたときであっても非定常画像ではないと判断されたときであっても、前記クラスタ構成ステップにおいてクラスタを作成したときの画像の特徴量と前記閾値より大きい入力順位の入力画像の特徴量の分布に基づいて教師無し学習を行い、前記クラスタを再構成するクラスタ更新ステップと、を有することを特徴とする非定常画像検出方法。
A non-stationary image that creates a cluster from a plurality of input images and determines whether the input image is a non-stationary image based on whether an image input after the image used for the cluster generation belongs to the cluster A non-stationary image detection method in a detection device,
An image input step of inputting an image,
A feature extraction step of extracting a feature quantity from the input image,
Perform unsupervised learning based on the distribution of the extracted feature quantity, and the cluster configuration steps to create the input rank of following the input image threshold clusters,
Determining whether the input order of the input image exceeds the threshold value, the input image of the threshold is greater than the input rank, and similarity determination step of the input image to determine whether belonging to the cluster,
When an input image with an input order higher than the threshold is determined to be a non-stationary image, a message to that effect is output and a feature amount of the input image is output, and an input image with an input order higher than the threshold is not a non-stationary image A determination result output step for outputting the feature amount of the input image when it is determined,
Even when an input image having an input order higher than the threshold is determined to be a non-stationary image or not to be a non-stationary image, the image of the image when the cluster is created in the cluster configuration step is determined. A non-stationary image detection method comprising: a cluster update step of performing unsupervised learning based on a feature amount and a feature amount distribution of an input image having an input order higher than the threshold value, and reconstructing the cluster.
前記画像入力ステップでは連続撮影された動画像を入力し、
前記特徴抽出ステップでは前記連続撮影された動画像から規定した基準に基づいてシーケンスを抽出し、当該シーケンスごとに前記特徴量を抽出することを特徴とする請求項1に記載の非定常画像検出方法。
In the image input step , a continuously captured moving image is input,
The non-stationary image detection method according to claim 1 , wherein in the feature extraction step, a sequence is extracted based on a standard defined from the continuously captured moving images, and the feature amount is extracted for each sequence. .
前記シーケンス抽出では前記連続撮影された動画像と時間的な対応がとれたセンサ情報を入力し、当該センサ情報に対応する画像から規定した数の画像を1シーケンスとすることを特徴とする請求項2に記載の非定常画像検出方法。 Claim wherein the sequence extraction, characterized in that said type continuous shooting moving images and temporal sensor information corresponding is taken, the image number 1 sequence as defined by the corresponding image to the sensor information 3. The non-stationary image detection method according to 2. 前記シーケンス抽出では前記連続撮影された動画像の1フレームごとに特徴量を抽出し、当該抽出した特徴量の値が閾値を超えたフレームを開始フレームとし当該開始フレームから規定した数のフレームを1シーケンスとすることを特徴とする請求項2に記載の非定常画像検出方法。 In the sequence extraction, a feature amount is extracted for each frame of the continuously shot moving images, and a frame whose value of the extracted feature amount exceeds a threshold is set as a start frame, and the number of frames defined from the start frame is 1 3. The non-stationary image detection method according to claim 2 , wherein the sequence is a sequence. コンピュータに請求項1〜4のいずれかに記載の各ステップを実行させる非定常画像検出プログラム。
The non-stationary image detection program which makes a computer perform each step in any one of Claims 1-4 .
入力した複数の画像からクラスタを作成し、当該クラスタ作成に用いた画像より後に入力した画像が当該クラスタに属するかどうかに基づいて当該入力した画像が非定常画像であるかを判断する非定常画像検出装置であって、
画像を入力する画像入力部と、
前記入力された画像から特徴量を抽出する特徴ベクトル抽出部と、
前記抽出した特徴量の分布に基づく教師無し学習を行って、入力順位が閾値以下の前記入力された画像のクラスタを作成し、判定結果出力部によって前記閾値より大きい入力順位の入力画像が非定常画像と判断されたときであっても非定常画像でないと判断されたときであっても、前記クラスタを作成したときの画像の特徴量と前記閾値より大きい入力順位の入力画像の特徴量の分布に基づいて教師無し学習を行い、前記クラスタを再構成するクラスタ構成部と、
前記画像入力部に入力された画像の入力順位が前記閾値を越えたかどうかを判断し、当該閾値より大きい入力順位の入力画像について、当該入力画像が前記クラスタに属するかどうかを判断する類似度判定部と、
前記閾値より大きい入力順位の入力画像が非定常画像と判断されたときは当該旨を出力するとともに当該入力画像の特徴量を前記クラスタ構成部に送信し、前記閾値より大きい入力順位の入力画像が非定常画像ではないと判断されたときは当該入力画像の特徴量を前記クラスタ構成部に送信する判定結果出力部と、を有することを特徴とする非定常画像検出装置。
A non-stationary image that creates a cluster from a plurality of input images and determines whether the input image is a non-stationary image based on whether an image input after the image used for the cluster generation belongs to the cluster A detection device,
An image input unit for inputting an image;
A feature vector extraction unit that extracts a feature amount from the input image;
An unsupervised learning based on the extracted feature quantity distribution is performed to create a cluster of the input images whose input order is less than or equal to a threshold, and an input image having an input order greater than the threshold is unsteady by the determination result output unit Even when it is determined that the image is not a non-steady image, the distribution of the feature amount of the image when the cluster is created and the feature amount of the input image having an input order higher than the threshold value Based on the unsupervised learning and reconfiguring the cluster,
Similarity determination that determines whether or not the input order of the images input to the image input unit has exceeded the threshold, and determines whether or not the input image belongs to the cluster for input images that are higher than the threshold And
When an input image with an input rank greater than the threshold is determined to be a non-steady image, the fact is output, and the feature quantity of the input image is transmitted to the cluster configuration unit. A non-stationary image detection apparatus comprising: a determination result output unit configured to transmit a feature amount of the input image to the cluster configuration unit when it is determined that the image is not a non-stationary image.
JP2005149164A 2005-05-23 2005-05-23 Unsteady image detection method, unsteady image detection device, and unsteady image detection program Active JP4641450B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005149164A JP4641450B2 (en) 2005-05-23 2005-05-23 Unsteady image detection method, unsteady image detection device, and unsteady image detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005149164A JP4641450B2 (en) 2005-05-23 2005-05-23 Unsteady image detection method, unsteady image detection device, and unsteady image detection program

Publications (2)

Publication Number Publication Date
JP2006330797A JP2006330797A (en) 2006-12-07
JP4641450B2 true JP4641450B2 (en) 2011-03-02

Family

ID=37552458

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005149164A Active JP4641450B2 (en) 2005-05-23 2005-05-23 Unsteady image detection method, unsteady image detection device, and unsteady image detection program

Country Status (1)

Country Link
JP (1) JP4641450B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109074052A (en) * 2016-04-19 2018-12-21 三菱电机株式会社 Unstable detection device, unstable detection system and unstable detection method

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4912028B2 (en) * 2006-05-01 2012-04-04 日本電信電話株式会社 Sequential learning type non-stationary video detection apparatus, sequential learning type non-stationary video detection method, and program implementing the method
JP4742370B2 (en) * 2007-02-01 2011-08-10 独立行政法人産業技術総合研究所 Abnormality detection apparatus and abnormality detection method
JP4895204B2 (en) * 2007-03-22 2012-03-14 富士フイルム株式会社 Image component separation device, method, and program, and normal image generation device, method, and program
JP2008278128A (en) * 2007-04-27 2008-11-13 Toshiba Corp Monitoring system, monitoring method, and program
KR20100018070A (en) * 2007-06-15 2010-02-16 코닌클리케 필립스 일렉트로닉스 엔.브이. Method and apparatus for automatically generating summaries of a multimedia file
JP5159654B2 (en) * 2009-01-23 2013-03-06 株式会社東芝 Video processing apparatus and video processing method
JP6186203B2 (en) * 2013-08-09 2017-08-23 株式会社日立製作所 Diagnostic system and elevator
JP2019049780A (en) 2017-09-07 2019-03-28 富士通株式会社 Teacher data creation program, teacher data creation device and teacher data creation method
CN109990803B (en) * 2018-01-02 2022-05-24 西门子(中国)有限公司 Method and device for detecting system abnormity and method and device for sensor processing
JP2020173680A (en) * 2019-04-12 2020-10-22 京セラドキュメントソリューションズ株式会社 Electronic device and image determining program
KR20230138335A (en) * 2022-03-23 2023-10-05 주식회사 Lg 경영개발원 An artificial intelligence apparatus for detecting defective products based on product images and method thereof

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02297117A (en) * 1989-01-12 1990-12-07 Recognition Equip Inc Nerve system simulation system
JPH0325986B2 (en) * 1982-02-04 1991-04-09 Nippon Television Network
JPH0460865A (en) * 1990-06-29 1992-02-26 Iwatsu Electric Co Ltd Learning method and device for neural network
JPH06109498A (en) * 1992-09-29 1994-04-19 Toshiba Corp Detector for unsteady and abnormal state
JPH11176899A (en) * 1997-12-09 1999-07-02 Toshiba Corp Method and system for alarming defect
JP2000266570A (en) * 1999-03-15 2000-09-29 Omron Corp Signal processor for discriminating steady state and unsteady state
JP2002240798A (en) * 2001-02-19 2002-08-28 Nippon Signal Co Ltd:The Monitoring device
JP2003067743A (en) * 2001-08-24 2003-03-07 Sharp Corp Device and method for preparing pattern recognition dictionary, computer program therefor, and recording medium recorded with the program
JP3506934B2 (en) * 1998-12-11 2004-03-15 株式会社メガチップス Monitoring device and monitoring system
JP2004248312A (en) * 2004-03-25 2004-09-02 Casio Comput Co Ltd Image processing apparatus and image processing method

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0325986B2 (en) * 1982-02-04 1991-04-09 Nippon Television Network
JPH02297117A (en) * 1989-01-12 1990-12-07 Recognition Equip Inc Nerve system simulation system
JPH0460865A (en) * 1990-06-29 1992-02-26 Iwatsu Electric Co Ltd Learning method and device for neural network
JPH06109498A (en) * 1992-09-29 1994-04-19 Toshiba Corp Detector for unsteady and abnormal state
JPH11176899A (en) * 1997-12-09 1999-07-02 Toshiba Corp Method and system for alarming defect
JP3506934B2 (en) * 1998-12-11 2004-03-15 株式会社メガチップス Monitoring device and monitoring system
JP2000266570A (en) * 1999-03-15 2000-09-29 Omron Corp Signal processor for discriminating steady state and unsteady state
JP2002240798A (en) * 2001-02-19 2002-08-28 Nippon Signal Co Ltd:The Monitoring device
JP2003067743A (en) * 2001-08-24 2003-03-07 Sharp Corp Device and method for preparing pattern recognition dictionary, computer program therefor, and recording medium recorded with the program
JP2004248312A (en) * 2004-03-25 2004-09-02 Casio Comput Co Ltd Image processing apparatus and image processing method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109074052A (en) * 2016-04-19 2018-12-21 三菱电机株式会社 Unstable detection device, unstable detection system and unstable detection method
CN109074052B (en) * 2016-04-19 2020-01-03 三菱电机株式会社 Unsteady detection device, unsteady detection system, and unsteady detection method

Also Published As

Publication number Publication date
JP2006330797A (en) 2006-12-07

Similar Documents

Publication Publication Date Title
JP4641450B2 (en) Unsteady image detection method, unsteady image detection device, and unsteady image detection program
US8121968B2 (en) Long-term memory in a video analysis system
JP4369961B2 (en) Abnormality detection device and abnormality detection program
DK2377044T3 (en) DETECTING ANORMAL EVENTS USING A LONG TIME MEMORY IN A VIDEO ANALYSIS SYSTEM
US20130121590A1 (en) Event detection apparatus and event detection method
JP6299299B2 (en) Event detection apparatus and event detection method
US8270732B2 (en) Clustering nodes in a self-organizing map using an adaptive resonance theory network
KR20150084939A (en) Image stabilization techniques for video surveillance systems
CN106156706B (en) Pedestrian abnormal behavior detection method
CN109063626B (en) Dynamic face recognition method and device
CN111738054B (en) Behavior anomaly detection method based on space-time self-encoder network and space-time CNN
CN113255518B (en) Video abnormal event detection method and chip
Wang et al. Real-time detection of abnormal crowd behavior using a matrix approximation-based approach
JP2007249922A (en) Nonroutine action detecting system
KR20190125029A (en) Methods and apparatuses for generating text to video based on time series adversarial neural network
JP4912028B2 (en) Sequential learning type non-stationary video detection apparatus, sequential learning type non-stationary video detection method, and program implementing the method
JP4641492B2 (en) Singular image detection device, singular image detection method and program
CN113706837B (en) Engine abnormal state detection method and device
KR20210040604A (en) Action recognition method and device
JP2019194758A (en) Information processing device, information processing method, and program
JP2007293559A (en) Device and method for detecting non-stationary image, and program mounted with the method
CN116976441A (en) Equipment failure prediction model training method, equipment failure prediction method and equipment failure prediction device
Bergaoui et al. Object-centric and memory-guided normality reconstruction for video anomaly detection
KR102646430B1 (en) Method for learning classifier and prediction classification apparatus using the same
JP7084962B2 (en) Estimator program, estimator, estimation method, generation program, generation device and generation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070810

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090528

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20100513

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100622

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100907

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101124

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101129

R150 Certificate of patent or registration of utility model

Ref document number: 4641450

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131210

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350