JP4641450B2 - Unsteady image detection method, unsteady image detection device, and unsteady image detection program - Google Patents
Unsteady image detection method, unsteady image detection device, and unsteady image detection program Download PDFInfo
- Publication number
- JP4641450B2 JP4641450B2 JP2005149164A JP2005149164A JP4641450B2 JP 4641450 B2 JP4641450 B2 JP 4641450B2 JP 2005149164 A JP2005149164 A JP 2005149164A JP 2005149164 A JP2005149164 A JP 2005149164A JP 4641450 B2 JP4641450 B2 JP 4641450B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- input
- cluster
- stationary
- threshold
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、入力画像から非定常画像を検出する技術に関するものである。 The present invention relates to a technique for detecting an unsteady image from an input image.
点検や保守が必要な場所にカメラ等のセンサを設置し、映像等のセンサ情報から異常発生の有無を判断する技術が開示されている。 A technique is disclosed in which a sensor such as a camera is installed in a place where inspection or maintenance is necessary, and whether or not an abnormality has occurred is determined from sensor information such as an image.
例えば、水力発電所のセンサデータからあらかじめ正常なデータを収集しておき、1クラスSVMによって正常データのクラスタリングを行ってセンサ情報の異常を発見する技術が開示されている(例えば、非特許文献1参照。)。なお、この技術では、あらかじめ正常データを収集しておく必要がある。
日常的な映像に非定常な状態生じたとき、これを検知するためには新たな画像を逐次学習していき、似たシーケンスが何度も出現する場合には、自動的にこれを日常的な映像に加えていく仕組みが必要である。 When an unsteady state occurs in a daily image, new images are sequentially learned to detect this, and if a similar sequence appears repeatedly, this is automatically It is necessary to have a mechanism to add to the video.
従来の異常データの検知技術においては、正常データの分布を定義することが困難なため、教師無し学習を用いることによって対応していた。 In the conventional abnormal data detection technique, since it is difficult to define the distribution of normal data, it has been dealt with by using unsupervised learning.
しかし、あらかじめ正常と判断されたデータを収集しておく必要があった。 However, it was necessary to collect data that was determined to be normal in advance.
また、類似するデータが追加されたとき、これを正常のデータに加えつつ再学習していく機構は存在しない。 In addition, when similar data is added, there is no mechanism for re-learning while adding this to normal data.
本発明の目的は、撮影された映像において、複数の画像中から特徴が異なる画像を検出する技術を提供することにある。 An object of the present invention is to provide a technique for detecting images having different characteristics from a plurality of images in a captured video.
本発明は上記課題を解決するために、請求項1に記載の発明は、入力した複数の画像からクラスタを作成し、当該クラスタ作成に用いた画像より後に入力した画像が当該クラスタに属するかどうかに基づいて当該入力した画像が非定常画像であるかを判断する非定常画像検出装置における非定常画像検出方法であって、画像を入力する画像入力ステップと、前記入力された画像から特徴量を抽出する特徴抽出ステップと、前記抽出した特徴量の分布に基づく教師無し学習を行い、入力順位が閾値以下の前記入力された画像のクラスタを作成するクラスタ構成ステップと、前記入力された画像の入力順位が前記閾値を越えたかどうかを判断し、当該閾値より大きい入力順位の入力画像について、当該入力画像が前記クラスタに属するかどうかを判断する類似度判定ステップと、前記閾値より大きい入力順位の入力画像が非定常画像と判断されたときは当該旨を出力するとともに当該入力画像の特徴量を出力し、前記閾値より大きい入力順位の入力画像が非定常画像ではないと判断されたときは当該入力画像の特徴量を出力する判定結果出力ステップと、前記閾値より大きい入力順位の入力画像が非定常画像と判断されたときであっても非定常画像ではないと判断されたときであっても、前記クラスタ構成ステップにおいてクラスタを作成したときの画像の特徴量と前記閾値より大きい入力順位の入力画像の特徴量の分布に基づいて教師無し学習を行い、前記クラスタを再構成するクラスタ更新ステップと、を有することを特徴とする。 In order to solve the above-mentioned problem, the invention described in claim 1 creates a cluster from a plurality of inputted images, and whether an image inputted after the image used for creating the cluster belongs to the cluster. image the input is a non-stationary image detection method in unsteady image detection apparatus for determining whether a non-stationary image based on an image input step of inputting an image, a feature quantity from the input image a feature extraction step of extracting, perform unsupervised learning based on the distribution of the extracted feature quantity, and the cluster configuration steps to create a cluster of image input order is the input of the threshold value or less, the input of the input image Position is determined whether or exceeds the threshold value, the input image of the threshold is greater than the input rank, whether the input image belongs to the cluster A similarity judgment step of cross, and outputs the feature quantity of the input image and outputs the effect when the input image of the threshold is greater than the input rank is determined to unsteady image, the threshold value is greater than the input rank When it is determined that the input image is not a non-stationary image, a determination result output step for outputting the feature amount of the input image, and when an input image having an input rank greater than the threshold is determined to be a non-stationary image Even when it is determined that the image is not a non-stationary image, the teacher is based on the distribution of the feature amount of the image when the cluster is created in the cluster configuration step and the feature amount distribution of the input image having the input order higher than the threshold value. A cluster updating step of performing absence learning and reconfiguring the cluster.
また、請求項2に記載の発明は、前記画像入力ステップでは連続撮影された動画像を入力し、前記特徴抽出ステップでは前記連続撮影された動画像から規定した基準に基づいてシーケンスを抽出し、当該シーケンスごとに前記特徴量を抽出することを特徴とする。 In the invention according to claim 2, the image input step inputs a continuously shot moving image, and the feature extraction step extracts a sequence based on a standard defined from the continuously shot moving image, The feature amount is extracted for each sequence.
また、請求項3に記載の発明は、前記シーケンス抽出では前記連続撮影された動画像と時間的な対応がとれたセンサ情報を入力し、当該センサ情報に対応する画像から規定した数の画像を1シーケンスとすることを特徴とする。 According to a third aspect of the present invention, in the sequence extraction, sensor information that is temporally correlated with the continuously captured moving images is input, and a prescribed number of images are obtained from images corresponding to the sensor information. One sequence is a feature.
また、請求項4に記載の発明は、前記シーケンス抽出では前記連続撮影された動画像の1フレームごとに特徴量を抽出し、当該抽出した特徴量の値が閾値を超えたフレームを開始フレームとし当該開始フレームから規定した数のフレームを1シーケンスとすることを特徴とする。 According to a fourth aspect of the present invention, in the sequence extraction, a feature amount is extracted for each frame of the continuously shot moving image, and a frame in which the value of the extracted feature amount exceeds a threshold is set as a start frame. The number of frames defined from the start frame is one sequence.
また、請求項5に記載の発明は、コンピュータに請求項1〜4のいずれかに記載の各ステップを実行させる非定常画像検出プログラム、を特徴とする。 The invention described in claim 5 is characterized by an unsteady image detection program for causing a computer to execute each step described in any one of claims 1 to 4 .
また、請求項6に記載の発明は、入力した複数の画像からクラスタを作成し、当該クラスタ作成に用いた画像より後に入力した画像が当該クラスタに属するかどうかに基づいて当該入力した画像が非定常画像であるかを判断する非定常画像検出装置であって、画像を入力する画像入力部と、前記入力された画像から特徴量を抽出する特徴ベクトル抽出部と、前記抽出した特徴量の分布に基づく教師無し学習を行って、入力順位が閾値以下の前記入力された画像のクラスタを作成し、判定結果出力部によって前記閾値より大きい入力順位の入力画像が非定常画像と判断されたときであっても非定常画像でないと判断されたときであっても、前記クラスタを作成したときの画像の特徴量と前記閾値より大きい入力順位の入力画像の特徴量の分布に基づいて教師無し学習を行い、前記クラスタを再構成するクラスタ構成部と、前記画像入力部に入力された画像の入力順位が前記閾値を越えたかどうかを判断し、当該閾値より大きい入力順位の入力画像について、当該入力画像が前記クラスタに属するかどうかを判断する類似度判定部と、前記閾値より大きい入力順位の入力画像が非定常画像と判断されたときは当該旨を出力するとともに当該入力画像の特徴量を前記クラスタ構成部に送信し、前記閾値より大きい入力順位の入力画像が非定常画像ではないと判断されたときは当該入力画像の特徴量を前記クラスタ構成部に送信する前記判定結果出力部と、を有することを特徴とする。 According to the sixth aspect of the present invention, a cluster is created from a plurality of inputted images, and the inputted image is determined based on whether an image inputted after the image used for creating the cluster belongs to the cluster. A non-stationary image detection apparatus that determines whether a image is a stationary image, an image input unit that inputs an image, a feature vector extraction unit that extracts a feature amount from the input image, and a distribution of the extracted feature amount The unsupervised learning based on the above is performed to create a cluster of the input images whose input order is less than or equal to the threshold value, and when the input image having the input order greater than the threshold value is determined as a non-steady image by the determination result output unit Even if it is determined that the image is not a non-stationary image, the distribution of the feature amount of the image when the cluster is created and the feature amount of the input image having an input rank higher than the threshold value Therefore, unsupervised learning is performed to determine whether or not the input order of the images input to the image input unit exceeds the threshold by reconfiguring the cluster, and input an input order higher than the threshold For an image, a similarity determination unit that determines whether the input image belongs to the cluster, and when an input image having an input order higher than the threshold is determined to be a non-steady image, the fact is output and the input image The determination result of transmitting the feature amount of the input image to the cluster configuration unit when it is determined that an input image having an input order higher than the threshold is not a non-stationary image. And an output unit .
請求項1及び6に記載の発明、並びにこれに従属する発明では、クラスタ構成部が入力画像の特徴量に基づいて入力された画像のクラスタを作成するので、あらかじめ正常と判断されたデータを収集しておく必要が無い。また、クラスタ構成部が判定結果出力部から送信されたクラスタに属する画像の特徴量に基づいてクラスタを再構成するので、類似するデータが追加されたとき、これを正常のデータに加えつつ再学習していく機構が実現される。 In the inventions according to claims 1 and 6 and the subordinate inventions, since the cluster forming unit creates a cluster of the input image based on the feature amount of the input image, the data determined to be normal in advance is collected. There is no need to keep it. In addition, since the cluster configuration unit reconstructs the cluster based on the feature amount of the image belonging to the cluster transmitted from the determination result output unit, when similar data is added, it is re-learned while adding this to normal data The mechanism to do is realized.
また、クラスタ構成部が判定結果出力部から送信されたクラスタに属さない画像の特徴量にも基づいてクラスタを再構成するので、クラスタ構成の初期段階では非定常画像と判定されても、その後この非定常画像に類似する画像が頻出した場合にはこの非定常画像に類似する画像は定常画像と判断することが可能となる。 In addition, since the cluster configuration unit reconstructs the cluster based on the feature amount of the image that does not belong to the cluster transmitted from the determination result output unit, even if it is determined as an unsteady image in the initial stage of the cluster configuration, When an image similar to a non-stationary image appears frequently, an image similar to the non-stationary image can be determined as a stationary image.
さらに請求項2に記載の発明、及びこれに従属する発明では、連続撮影された動画像中から非定常画像を抽出することが可能となる。
なお、入力画像が非定常画像と判断されたときは当該旨を出力するが、これはユーザインタフェースに、非定常画像を表示すること、他の定常画像とは異なる特徴を強調して表示すること、この画像が入力された時刻を表示すること、音声として通知すること等が含まれる。
Furthermore, in the invention described in claim 2 and the invention subordinate thereto, it is possible to extract a non-stationary image from continuously captured moving images.
When the input image is determined to be a non-steady image, a message to that effect is output. This indicates that the non-steady image is displayed on the user interface, and features different from those of other steady images are highlighted. , Displaying the time when this image was input, notifying as sound, and the like.
また、前記センサ情報としては、カメラセンサ情報、赤外線センサ情報、マイクセンサ情報、振動センサ情報、圧力センサ情報等が含まれる。 The sensor information includes camera sensor information, infrared sensor information, microphone sensor information, vibration sensor information, pressure sensor information, and the like.
請求項1〜6に記載の発明によれば、異常データの検知技術における正常データ分布の作成において、あらかじめ正常と判断されたデータを収集しておく必要が無い。また、類似するデータが追加されたとき、これを正常データに加えつつ再学習していく機構が実現される。 According to the invention described in claims 1 to 6, in the creation of the normal data distribution in the detection technology of abnormal data, not necessary to collect is determined in advance normal data. Further, when similar data is added, a mechanism for re-learning while adding this to normal data is realized.
以下、実施形態を図面を用いて説明する。 Hereinafter, embodiments will be described with reference to the drawings.
図1は非定常画像検出装置の構成図である。図1に示すように非定常画像検出装置は、画像入力部11、特徴ベクトル抽出部12、類似度判別部13、判別結果出力部14、クラスタ構成部15、及びクラスタ情報蓄積部16を有している。 FIG. 1 is a configuration diagram of an unsteady image detection apparatus. As shown in FIG. 1, the unsteady image detection apparatus includes an image input unit 11, a feature vector extraction unit 12, a similarity determination unit 13, a determination result output unit 14, a cluster configuration unit 15, and a cluster information storage unit 16. ing.
画像入力部11は、複数の画像を入力する。 The image input unit 11 inputs a plurality of images.
特徴ベクトル抽出部12は、入力した画像から特徴量を抽出する。 The feature vector extraction unit 12 extracts a feature amount from the input image.
クラスタ構成部15は、抽出した特徴量に基づいて入力された複数の画像から類似した画像のクラスタを構成する。 The cluster configuration unit 15 configures a cluster of similar images from a plurality of images input based on the extracted feature amount.
類似度判別部13は、クラスタ構成部15において構成された類似画像のクラスタに新たに入力された画像が属するか属さないかを判別し、その結果を判別結果出力部14へ送る。 The similarity determination unit 13 determines whether or not a newly input image belongs to a cluster of similar images configured in the cluster configuration unit 15, and sends the result to the determination result output unit 14.
判別結果出力部14は、新たに入力された画像の類似度判別部13における判別結果が類似画像のクラスタに属さないものであった場合には、そのことを出力する。一方、類似画像のクラスタに属する場合には、その画像をクラスタ構成部15に入力する。 The discrimination result output unit 14 outputs the fact that the discrimination result in the similarity discrimination unit 13 of the newly input image does not belong to the cluster of similar images. On the other hand, if the image belongs to a cluster of similar images, the image is input to the cluster configuration unit 15.
クラスタ構成部15は、新たに入力があった場合にはそれまでに入力されたすべての画像及び入力した類似画像からクラスタを再構成する。 When there is a new input, the cluster configuration unit 15 reconstructs a cluster from all the images input so far and the input similar images.
次に、クラスタ構成部15及び類似度判別部13の動作例を図2を用いて説明する。 Next, operation examples of the cluster configuration unit 15 and the similarity determination unit 13 will be described with reference to FIG.
なお、ここでは入力は常時撮影している映像であり、日常的な映像と異なる映像が得られたときにこれを通知するという場合について説明する。 Here, a case will be described in which the input is a video that is constantly shot, and notification is given when a video that differs from a daily video is obtained.
特徴ベクトル抽出部12では、映像のシーケンスごとに特徴量を抽出する。ここではk番目のシーケンスの特徴量までが入力さているものとする。 The feature vector extraction unit 12 extracts a feature amount for each video sequence. Here, it is assumed that up to the feature amount of the k-th sequence is input.
クラスタ構成部15では、次々に入力される特徴量のデータを学習してクラスタを構成するが、日常的な映像の特徴量の性質はあらかじめ定義されていない。このため入力データの分布に基づく教師無し学習を行う。これによって、類似したデータ群を一つのクラスタとし、入力されたデータの中でこのクラスタに属するデータが日常的なデータであり、これに属さないデータが非定常なデータであると解釈できる。 The cluster configuration unit 15 learns feature value data input one after another to form a cluster, but the characteristics of the daily feature values are not defined in advance. For this reason, unsupervised learning based on the distribution of input data is performed. As a result, a similar data group is defined as one cluster, and the data belonging to this cluster among the input data can be interpreted as everyday data, and the data not belonging to this can be interpreted as non-stationary data.
図2において、k番目までの特徴量から日常的なデータを学習したクラスタをCkとする。最初にクラスタを構成するには、ある程度の数のデータが必要であるため、初期クラスタ構成のためのデータ数nを設定しておき、k<nの間は、クラスタ構成部15ではデータを蓄積し、それ以降には以下の逐次処理を行う。 In FIG. 2, a cluster obtained by learning daily data from the k-th feature amount is defined as Ck. Since a certain amount of data is required to configure a cluster for the first time, the number of data n for the initial cluster configuration is set, and the data is stored in the cluster configuration unit 15 while k <n. Thereafter, the following sequential processing is performed.
類似度判別部13では、k+1番目に入力されたデータがk番目までの特徴量から学習された日常的なデータのクラスタCkからはずれている場合、非定常なデータが発見されたという判定を出力する。 The similarity determination unit 13 outputs a determination that non-stationary data has been found when the k + 1st input data deviates from the daily data cluster Ck learned from the kth feature quantity. To do.
次に、k番目までは学習の初期段階であったが、I番目(I>k)のシーケンスまで入力されたとする。もしI番目までに、k+1番目に入力されたデータと類似の特徴量を有するデータが大量に入力されたとすると、I番目までのデータによって構成された類似クラスタは特徴空間において、k+1番目のデータの存在する領域まで広がり、k+1番目と類似の特徴量は非定常データとしては判別されなくなる。 Next, up to the kth is the initial stage of learning, but it is assumed that the Ith (I> k) sequence has been input. If a large amount of data having a similar feature amount to the data input to the (k + 1) th is input up to the Ith, a similar cluster constituted by the data up to the Ith is represented by the k + 1th data in the feature space. The feature quantity that extends to the existing area and is similar to the (k + 1) th is no longer determined as non-stationary data.
クラスタ構成部15における教師無し学習の方法の例としては、k‐means法、自己組織化マップ、One‐Class SVM、EMアルゴリズムなどがある。k‐means法は、入力データを加えながら全入力データの平均値をクラスタ中心として更新していく方法である。自己組織化マップは、クラスタを代表するプロトタイプをつくり、入力データと最も近いプロトタイプを探してその近傍を変化させて更新していく方法である。One‐Class SVMは、入力空間での孤立点がガウシアンカーネルによって特徴空間の原点近傍に写像される性質を利用した方法である。EMアルゴリズムは、データの分布にガウス分布を仮定して分布パラメータを推定する方法である。 Examples of unsupervised learning methods in the cluster configuration unit 15 include a k-means method, a self-organizing map, a One-Class SVM, and an EM algorithm. The k-means method is a method of updating the average value of all input data as the cluster center while adding the input data. The self-organizing map is a method of creating a prototype that represents a cluster, searching for a prototype closest to the input data, and changing the neighborhood to update it. One-Class SVM is a method that utilizes the property that isolated points in the input space are mapped to the vicinity of the origin of the feature space by the Gaussian kernel. The EM algorithm is a method of estimating a distribution parameter assuming a Gaussian distribution as a data distribution.
次に、クラスタ情報蓄積部16、類似度判別部13、及び判別結果出力部14での処理について説明する。 Next, processing in the cluster information storage unit 16, the similarity determination unit 13, and the determination result output unit 14 will be described.
クラスタ構成部15において学習された結果、学習に用いた識別器の種類、及び識別器のパラメータはクラスタ情報蓄積部16に蓄積される。 As a result of learning in the cluster configuration unit 15, the type of classifier used for learning and the parameters of the classifier are stored in the cluster information storage unit 16.
類似度判別部13では、新たに加わった特徴ベクトルをこのパラメータによって変換し、類似クラスに属するか属さないかの判別を行い、その特徴ベクトルを判別結果出力部14へ送る。 The similarity determination unit 13 converts the newly added feature vector using this parameter, determines whether it belongs to a similar class, and sends the feature vector to the determination result output unit 14.
判別結果出力部14は、属するという判別結果の場合には、その特徴ベクトルをクラスタ構成部15へ入力する。 The discrimination result output unit 14 inputs the feature vector to the cluster configuration unit 15 in the case of the discrimination result of belonging.
一方、属さないという判別結果の場合には、非定常画像の検出通知を出力する。また、この場合にも、特徴ベクトルをクラスタ構成部15へ入力し、クラスタ構成部15で類似クラスとは異なるクラスを学習し、クラスタ情報蓄積部16に蓄積していくこともできる。これにより、学習の初期段階では非定常と判定されても、その後頻出する場合に新たな定常のクラスを形成することができる。 On the other hand, in the case of the determination result that it does not belong, an unsteady image detection notification is output. Also in this case, a feature vector can be input to the cluster configuration unit 15, a class different from the similar class can be learned by the cluster configuration unit 15, and stored in the cluster information storage unit 16. Thereby, even if it is determined to be non-stationary at the initial stage of learning, a new stationary class can be formed when it frequently appears thereafter.
次に、特徴ベクトル抽出部12の構成例を図3を用いて説明する。 Next, a configuration example of the feature vector extraction unit 12 will be described with reference to FIG.
特徴ベクトル抽出部12は、シーケンス抽出部21、及び特徴量算出部22を備えており、シーケンス抽出部21はセンサ情報入力部23を備える。 The feature vector extraction unit 12 includes a sequence extraction unit 21 and a feature amount calculation unit 22, and the sequence extraction unit 21 includes a sensor information input unit 23.
シーケンス抽出部21は、画像入力部11からの入力が静止画像の場合には、静止画像の1枚1枚をシーケンスとみなして特徴量算出部22に送る。入力が動画像の場合には、これをシーケンスに分けてから特徴量算出部22に送る。
When the input from the image input unit 11 is a still image, the sequence extraction unit 21 regards each still image as a sequence and sends it to the feature amount calculation unit 22 . If the input is a moving image, it is divided into sequences and sent to the feature quantity calculation unit 22 .
シーケンスに分ける操作をもっとも簡単に行うには、現在のフレームからあらかじめ定めた一定枚数(1枚以上)のフレームを用いることが考えられる。しかし、長時間撮影の映像に本非定常画像検出装置を適用する場合、シーケンスの開始フレームと終了フレームのとり方が一定でないと、過去に学習されたシーケンスの一部であっても、非定常なシーケンスとして判別されてしまう可能性がある。 In order to perform the operation of dividing into a sequence most easily, it is conceivable to use a predetermined number (one or more) of frames from the current frame. However, when this non-stationary image detection apparatus is applied to a long-shot video, if the sequence start and end frames are not constant, even if it is part of a sequence learned in the past, There is a possibility of being discriminated as a sequence.
そこで、シーケンスの抽出基準をあらかじめ設定しておくことが考えられる。抽出基準の例としては、センサ情報入力部23によるセンサ情報を利用すること、及び特徴量算出部22で算出した特徴量の変化を利用することがある。 Therefore, it is conceivable to set a sequence extraction criterion in advance. Examples of extraction criteria include using sensor information from the sensor information input unit 23 and using a change in the feature amount calculated by the feature amount calculation unit 22.
センサ情報を利用する場合、センサ情報入力部23は画像以外のセンサ情報をトリガとして特徴量算出部22へ入力する。 When using sensor information, the sensor information input unit 23 inputs sensor information other than an image to the feature amount calculation unit 22 as a trigger.
センサ情報入力部23で用いるセンサは、例えば、カメラ、赤外線センサ、マイク、振動センサ、圧力センサなどであり、特徴ベクトル抽出部12で抽出したい情報に伴って発生する情報を検知できるセンサが有効である。 Sensors used in the sensor information input unit 23 are, for example, a camera, an infrared sensor, a microphone, a vibration sensor, a pressure sensor, and the like, and a sensor that can detect information generated along with information to be extracted by the feature vector extraction unit 12 is effective. is there.
例えば、特徴ベクトル抽出部12において、音を伴う動作のシーケンスを切り出したい場合には、マイクを用いることができる。 For example, in the feature vector extraction unit 12, a microphone can be used when it is desired to cut out an operation sequence accompanied by sound.
特徴量算出部22で算出された特徴量の変化を利用する場合、1フレームごとに特徴量を求め、特徴量が一定値以上の領域を1シーケンスとして切り出すなどの方法が考えられる。 When using a change in the feature amount calculated by the feature amount calculation unit 22, a method may be considered in which a feature amount is obtained for each frame, and an area having a feature amount equal to or greater than a certain value is cut out as one sequence.
例えば、入力が固定カメラの監視映像である場合、特徴量算出部22では、あらかじめ取得された背景画像との差分画像を作成し変化領域の面積を特徴量として算出し、その値をシーケンス抽出部21へ送る。 For example, when the input is a monitoring video of a fixed camera, the feature amount calculation unit 22 creates a difference image from the background image acquired in advance, calculates the area of the change area as the feature amount, and calculates the value as a sequence extraction unit Send to 21.
シーケンス抽出部21では、その値が一定値以上のフレームを開始フレームとして、あらかじめ定めた枚数のフレームを1シーケンスとすることができる。 The sequence extraction unit 21 can set a predetermined number of frames as one sequence with a frame having a certain value or more as a start frame.
特徴量算出部22で求められる特徴量は、このほかに、画素の輝度値、色、オプティカルフロー、それらの時間変化などがある。 In addition to this, the feature amount obtained by the feature amount calculation unit 22 includes a luminance value of a pixel, a color, an optical flow, and their temporal change.
次に、非定常画像検出装置における処理例を図4を用いて説明する。 Next, a processing example in the unsteady image detection apparatus will be described with reference to FIG.
ここでは、画像入力部11から、(a)に示す熱帯魚を撮影した映像が入力されるものとする。 Here, it is assumed that an image of tropical fish shown in (a) is input from the image input unit 11.
特徴ベクトル抽出部12では、映像の変化は2フレームごとに1シーケンスとみなし、ブロックごとにオプティカルフローを抽出して特徴ベクトルを抽出し、クラスタ構成部15に入力する。 The feature vector extraction unit 12 regards a video change as one sequence every two frames, extracts an optical flow for each block, extracts a feature vector, and inputs it to the cluster configuration unit 15.
クラスタ構成部15では、識別器として2次多項式カーネルを用いたOne‐Class SVMを用いる。(b)は、初期クラスタの学習の結果、1クラスとみなされた映像の例で、構図や動きの方向が類似した映像が含まれている。 The cluster configuration unit 15 uses One-Class SVM using a second-order polynomial kernel as a discriminator. (B) is an example of an image considered as one class as a result of learning of the initial cluster, and includes an image having a similar composition and direction of motion.
(c)は、クラスタから距離の遠かった映像の例である。しかし、クラスタ構成部15に(c)と類似の映像が多数学習されていくと、すべて1クラスとして構成することができる。 (C) is an example of an image that is far from the cluster. However, when a number of videos similar to (c) are learned in the cluster configuration unit 15, all of them can be configured as one class.
なお、上記実施形態において、非定常画像検出装置は、例えば、非定常画像検出装置を構成するコンピュータ装置が有するCPUによって実現され、特徴ベクトル抽出処理、類似度判定処理、判定結果出力処理、クラスタ構成処理などをアプリケーションプログラムとして搭載することができる。 In the above embodiment, the non-stationary image detection device is realized by, for example, a CPU included in a computer device constituting the non-stationary image detection device, and features vector extraction processing, similarity determination processing, determination result output processing, cluster configuration Processing and the like can be installed as an application program.
また、特徴ベクトル抽出処理、類似度判定処理、判定結果出力処理、クラスタ構成処理などで行った、抽出した特徴ベクトル、計算したクラスタ等の処理結果、計算結果、及び当該処理、計算に必要な情報等のデータを内部メモリや外部記憶装置等に書き込み・読み出しができるようにしてもよい。 Also, the extracted feature vectors, the processing results of the calculated clusters, the calculation results, and the information necessary for the calculation and calculation performed in the feature vector extraction process, the similarity determination process, the determination result output process, the cluster configuration process, etc. Such data may be written to and read from an internal memory or an external storage device.
また、顔検出装置の機能を実現するソフトウェアのプログラムコードを記録した記録媒体を、システム、又は装置に供給し、そのシステム、又は装置のCPU(MPU)が記憶媒体に格納されたプログラムコードを読み出し実行することも可能である。この場合、記憶媒体から読み出されたプログラムコード自体が上記実施形態の機能を実現することになり、このプログラムコードを記憶した記憶媒体としては、例えば、CD−ROM、DVD−ROM、CD−R、CD−RW、MO、及びHDD等がある。 In addition, a recording medium in which a program code of software for realizing the function of the face detection apparatus is recorded is supplied to the system or apparatus, and the CPU (MPU) of the system or apparatus reads the program code stored in the storage medium. It is also possible to execute. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and examples of the storage medium storing the program code include CD-ROM, DVD-ROM, and CD-R. , CD-RW, MO, and HDD.
11 画像入力部
12 特徴ベクトル抽出部
13 類似度判定部
14 判定結果出力部
15 クラスタ構成部
16 クラスタ情報蓄積部
21 シーケンス抽出部
22 特徴量算出部
23 センサ情報入力部
DESCRIPTION OF SYMBOLS 11 Image input part 12 Feature vector extraction part 13 Similarity determination part 14 Determination result output part 15 Cluster structure part 16 Cluster information storage part 21 Sequence extraction part 22 Feature-value calculation part 23 Sensor information input part
Claims (6)
画像を入力する画像入力ステップと、
前記入力された画像から特徴量を抽出する特徴抽出ステップと、
前記抽出した特徴量の分布に基づく教師無し学習を行い、入力順位が閾値以下の前記入力された画像のクラスタを作成するクラスタ構成ステップと、
前記入力された画像の入力順位が前記閾値を越えたかどうかを判断し、当該閾値より大きい入力順位の入力画像について、当該入力画像が前記クラスタに属するかどうかを判断する類似度判定ステップと、
前記閾値より大きい入力順位の入力画像が非定常画像と判断されたときは当該旨を出力するとともに当該入力画像の特徴量を出力し、前記閾値より大きい入力順位の入力画像が非定常画像ではないと判断されたときは当該入力画像の特徴量を出力する判定結果出力ステップと、
前記閾値より大きい入力順位の入力画像が非定常画像と判断されたときであっても非定常画像ではないと判断されたときであっても、前記クラスタ構成ステップにおいてクラスタを作成したときの画像の特徴量と前記閾値より大きい入力順位の入力画像の特徴量の分布に基づいて教師無し学習を行い、前記クラスタを再構成するクラスタ更新ステップと、を有することを特徴とする非定常画像検出方法。 A non-stationary image that creates a cluster from a plurality of input images and determines whether the input image is a non-stationary image based on whether an image input after the image used for the cluster generation belongs to the cluster A non-stationary image detection method in a detection device,
An image input step of inputting an image,
A feature extraction step of extracting a feature quantity from the input image,
Perform unsupervised learning based on the distribution of the extracted feature quantity, and the cluster configuration steps to create the input rank of following the input image threshold clusters,
Determining whether the input order of the input image exceeds the threshold value, the input image of the threshold is greater than the input rank, and similarity determination step of the input image to determine whether belonging to the cluster,
When an input image with an input order higher than the threshold is determined to be a non-stationary image, a message to that effect is output and a feature amount of the input image is output, and an input image with an input order higher than the threshold is not a non-stationary image A determination result output step for outputting the feature amount of the input image when it is determined,
Even when an input image having an input order higher than the threshold is determined to be a non-stationary image or not to be a non-stationary image, the image of the image when the cluster is created in the cluster configuration step is determined. A non-stationary image detection method comprising: a cluster update step of performing unsupervised learning based on a feature amount and a feature amount distribution of an input image having an input order higher than the threshold value, and reconstructing the cluster.
前記特徴抽出ステップでは前記連続撮影された動画像から規定した基準に基づいてシーケンスを抽出し、当該シーケンスごとに前記特徴量を抽出することを特徴とする請求項1に記載の非定常画像検出方法。 In the image input step , a continuously captured moving image is input,
The non-stationary image detection method according to claim 1 , wherein in the feature extraction step, a sequence is extracted based on a standard defined from the continuously captured moving images, and the feature amount is extracted for each sequence. .
The non-stationary image detection program which makes a computer perform each step in any one of Claims 1-4 .
画像を入力する画像入力部と、
前記入力された画像から特徴量を抽出する特徴ベクトル抽出部と、
前記抽出した特徴量の分布に基づく教師無し学習を行って、入力順位が閾値以下の前記入力された画像のクラスタを作成し、判定結果出力部によって前記閾値より大きい入力順位の入力画像が非定常画像と判断されたときであっても非定常画像でないと判断されたときであっても、前記クラスタを作成したときの画像の特徴量と前記閾値より大きい入力順位の入力画像の特徴量の分布に基づいて教師無し学習を行い、前記クラスタを再構成するクラスタ構成部と、
前記画像入力部に入力された画像の入力順位が前記閾値を越えたかどうかを判断し、当該閾値より大きい入力順位の入力画像について、当該入力画像が前記クラスタに属するかどうかを判断する類似度判定部と、
前記閾値より大きい入力順位の入力画像が非定常画像と判断されたときは当該旨を出力するとともに当該入力画像の特徴量を前記クラスタ構成部に送信し、前記閾値より大きい入力順位の入力画像が非定常画像ではないと判断されたときは当該入力画像の特徴量を前記クラスタ構成部に送信する判定結果出力部と、を有することを特徴とする非定常画像検出装置。 A non-stationary image that creates a cluster from a plurality of input images and determines whether the input image is a non-stationary image based on whether an image input after the image used for the cluster generation belongs to the cluster A detection device,
An image input unit for inputting an image;
A feature vector extraction unit that extracts a feature amount from the input image;
An unsupervised learning based on the extracted feature quantity distribution is performed to create a cluster of the input images whose input order is less than or equal to a threshold, and an input image having an input order greater than the threshold is unsteady by the determination result output unit Even when it is determined that the image is not a non-steady image, the distribution of the feature amount of the image when the cluster is created and the feature amount of the input image having an input order higher than the threshold value Based on the unsupervised learning and reconfiguring the cluster,
Similarity determination that determines whether or not the input order of the images input to the image input unit has exceeded the threshold, and determines whether or not the input image belongs to the cluster for input images that are higher than the threshold And
When an input image with an input rank greater than the threshold is determined to be a non-steady image, the fact is output, and the feature quantity of the input image is transmitted to the cluster configuration unit. A non-stationary image detection apparatus comprising: a determination result output unit configured to transmit a feature amount of the input image to the cluster configuration unit when it is determined that the image is not a non-stationary image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005149164A JP4641450B2 (en) | 2005-05-23 | 2005-05-23 | Unsteady image detection method, unsteady image detection device, and unsteady image detection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005149164A JP4641450B2 (en) | 2005-05-23 | 2005-05-23 | Unsteady image detection method, unsteady image detection device, and unsteady image detection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006330797A JP2006330797A (en) | 2006-12-07 |
JP4641450B2 true JP4641450B2 (en) | 2011-03-02 |
Family
ID=37552458
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005149164A Active JP4641450B2 (en) | 2005-05-23 | 2005-05-23 | Unsteady image detection method, unsteady image detection device, and unsteady image detection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4641450B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109074052A (en) * | 2016-04-19 | 2018-12-21 | 三菱电机株式会社 | Unstable detection device, unstable detection system and unstable detection method |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4912028B2 (en) * | 2006-05-01 | 2012-04-04 | 日本電信電話株式会社 | Sequential learning type non-stationary video detection apparatus, sequential learning type non-stationary video detection method, and program implementing the method |
JP4742370B2 (en) * | 2007-02-01 | 2011-08-10 | 独立行政法人産業技術総合研究所 | Abnormality detection apparatus and abnormality detection method |
JP4895204B2 (en) * | 2007-03-22 | 2012-03-14 | 富士フイルム株式会社 | Image component separation device, method, and program, and normal image generation device, method, and program |
JP2008278128A (en) * | 2007-04-27 | 2008-11-13 | Toshiba Corp | Monitoring system, monitoring method, and program |
KR20100018070A (en) * | 2007-06-15 | 2010-02-16 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | Method and apparatus for automatically generating summaries of a multimedia file |
JP5159654B2 (en) * | 2009-01-23 | 2013-03-06 | 株式会社東芝 | Video processing apparatus and video processing method |
JP6186203B2 (en) * | 2013-08-09 | 2017-08-23 | 株式会社日立製作所 | Diagnostic system and elevator |
JP2019049780A (en) | 2017-09-07 | 2019-03-28 | 富士通株式会社 | Teacher data creation program, teacher data creation device and teacher data creation method |
CN109990803B (en) * | 2018-01-02 | 2022-05-24 | 西门子(中国)有限公司 | Method and device for detecting system abnormity and method and device for sensor processing |
JP2020173680A (en) * | 2019-04-12 | 2020-10-22 | 京セラドキュメントソリューションズ株式会社 | Electronic device and image determining program |
KR20230138335A (en) * | 2022-03-23 | 2023-10-05 | 주식회사 Lg 경영개발원 | An artificial intelligence apparatus for detecting defective products based on product images and method thereof |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02297117A (en) * | 1989-01-12 | 1990-12-07 | Recognition Equip Inc | Nerve system simulation system |
JPH0325986B2 (en) * | 1982-02-04 | 1991-04-09 | Nippon Television Network | |
JPH0460865A (en) * | 1990-06-29 | 1992-02-26 | Iwatsu Electric Co Ltd | Learning method and device for neural network |
JPH06109498A (en) * | 1992-09-29 | 1994-04-19 | Toshiba Corp | Detector for unsteady and abnormal state |
JPH11176899A (en) * | 1997-12-09 | 1999-07-02 | Toshiba Corp | Method and system for alarming defect |
JP2000266570A (en) * | 1999-03-15 | 2000-09-29 | Omron Corp | Signal processor for discriminating steady state and unsteady state |
JP2002240798A (en) * | 2001-02-19 | 2002-08-28 | Nippon Signal Co Ltd:The | Monitoring device |
JP2003067743A (en) * | 2001-08-24 | 2003-03-07 | Sharp Corp | Device and method for preparing pattern recognition dictionary, computer program therefor, and recording medium recorded with the program |
JP3506934B2 (en) * | 1998-12-11 | 2004-03-15 | 株式会社メガチップス | Monitoring device and monitoring system |
JP2004248312A (en) * | 2004-03-25 | 2004-09-02 | Casio Comput Co Ltd | Image processing apparatus and image processing method |
-
2005
- 2005-05-23 JP JP2005149164A patent/JP4641450B2/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0325986B2 (en) * | 1982-02-04 | 1991-04-09 | Nippon Television Network | |
JPH02297117A (en) * | 1989-01-12 | 1990-12-07 | Recognition Equip Inc | Nerve system simulation system |
JPH0460865A (en) * | 1990-06-29 | 1992-02-26 | Iwatsu Electric Co Ltd | Learning method and device for neural network |
JPH06109498A (en) * | 1992-09-29 | 1994-04-19 | Toshiba Corp | Detector for unsteady and abnormal state |
JPH11176899A (en) * | 1997-12-09 | 1999-07-02 | Toshiba Corp | Method and system for alarming defect |
JP3506934B2 (en) * | 1998-12-11 | 2004-03-15 | 株式会社メガチップス | Monitoring device and monitoring system |
JP2000266570A (en) * | 1999-03-15 | 2000-09-29 | Omron Corp | Signal processor for discriminating steady state and unsteady state |
JP2002240798A (en) * | 2001-02-19 | 2002-08-28 | Nippon Signal Co Ltd:The | Monitoring device |
JP2003067743A (en) * | 2001-08-24 | 2003-03-07 | Sharp Corp | Device and method for preparing pattern recognition dictionary, computer program therefor, and recording medium recorded with the program |
JP2004248312A (en) * | 2004-03-25 | 2004-09-02 | Casio Comput Co Ltd | Image processing apparatus and image processing method |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109074052A (en) * | 2016-04-19 | 2018-12-21 | 三菱电机株式会社 | Unstable detection device, unstable detection system and unstable detection method |
CN109074052B (en) * | 2016-04-19 | 2020-01-03 | 三菱电机株式会社 | Unsteady detection device, unsteady detection system, and unsteady detection method |
Also Published As
Publication number | Publication date |
---|---|
JP2006330797A (en) | 2006-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4641450B2 (en) | Unsteady image detection method, unsteady image detection device, and unsteady image detection program | |
US8121968B2 (en) | Long-term memory in a video analysis system | |
JP4369961B2 (en) | Abnormality detection device and abnormality detection program | |
DK2377044T3 (en) | DETECTING ANORMAL EVENTS USING A LONG TIME MEMORY IN A VIDEO ANALYSIS SYSTEM | |
US20130121590A1 (en) | Event detection apparatus and event detection method | |
JP6299299B2 (en) | Event detection apparatus and event detection method | |
US8270732B2 (en) | Clustering nodes in a self-organizing map using an adaptive resonance theory network | |
KR20150084939A (en) | Image stabilization techniques for video surveillance systems | |
CN106156706B (en) | Pedestrian abnormal behavior detection method | |
CN109063626B (en) | Dynamic face recognition method and device | |
CN111738054B (en) | Behavior anomaly detection method based on space-time self-encoder network and space-time CNN | |
CN113255518B (en) | Video abnormal event detection method and chip | |
Wang et al. | Real-time detection of abnormal crowd behavior using a matrix approximation-based approach | |
JP2007249922A (en) | Nonroutine action detecting system | |
KR20190125029A (en) | Methods and apparatuses for generating text to video based on time series adversarial neural network | |
JP4912028B2 (en) | Sequential learning type non-stationary video detection apparatus, sequential learning type non-stationary video detection method, and program implementing the method | |
JP4641492B2 (en) | Singular image detection device, singular image detection method and program | |
CN113706837B (en) | Engine abnormal state detection method and device | |
KR20210040604A (en) | Action recognition method and device | |
JP2019194758A (en) | Information processing device, information processing method, and program | |
JP2007293559A (en) | Device and method for detecting non-stationary image, and program mounted with the method | |
CN116976441A (en) | Equipment failure prediction model training method, equipment failure prediction method and equipment failure prediction device | |
Bergaoui et al. | Object-centric and memory-guided normality reconstruction for video anomaly detection | |
KR102646430B1 (en) | Method for learning classifier and prediction classification apparatus using the same | |
JP7084962B2 (en) | Estimator program, estimator, estimation method, generation program, generation device and generation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070810 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20090528 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20100513 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100615 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100622 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100818 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100907 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101104 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101124 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101129 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4641450 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131210 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |