JP2019046278A - Information processor, control method, computer program, storage medium, and model creation device - Google Patents
Information processor, control method, computer program, storage medium, and model creation device Download PDFInfo
- Publication number
- JP2019046278A JP2019046278A JP2017170046A JP2017170046A JP2019046278A JP 2019046278 A JP2019046278 A JP 2019046278A JP 2017170046 A JP2017170046 A JP 2017170046A JP 2017170046 A JP2017170046 A JP 2017170046A JP 2019046278 A JP2019046278 A JP 2019046278A
- Authority
- JP
- Japan
- Prior art keywords
- data
- model
- learning data
- learning
- feature amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Testing And Monitoring For Control Systems (AREA)
Abstract
Description
本発明は、センサデータや映像データに基づいてモデルを作成する技術に関する。 The present invention relates to a technology for creating a model based on sensor data and video data.
従来、各種センサからセンサデータや映像データを取得して、これらデータに異常があるか否かを判定するモデル作成手法が検討されている。データに異常があるか否かを判定するためのモデル作成の手法の一つに、正常時に収集されたデータからモデルを作成し、判定対象のデータと作成したモデルとを比較して判定するものがある。 2. Description of the Related Art Conventionally, a model creation method has been studied in which sensor data and video data are acquired from various sensors and whether or not there is an abnormality in these data. One of the model creation methods for determining whether there is an abnormality in the data, creating a model from the data collected at normal time, and comparing and determining the data to be determined and the created model There is.
例えば、特許文献1に開示されたモデル作成方法では、センサ信号を介して特徴ベクトルを抽出して蓄積することで学習データを生成する。そして、この学習データの特徴ベクトルをクラスタリングによって分割してモデルを作成する、というものである。
また、非特許文献1では、映像データ中の移動物体を抽出し、抽出された移動物体領域の位置・大きさ・動きを特徴量としてクラスタリングを行う。そして、映像データのフレームの各ピクセルにおける該クラスタの出現確率に基づいて、画像を複数の領域に分割して各領域でモデルを作成する、というものである。
このように、学習データの分布をクラスタリングにより分割してモデルを作成することで、モデルの判別精度を向上させることができる。
For example, in the model creation method disclosed in Patent Document 1, learning data is generated by extracting and storing feature vectors via sensor signals. Then, a feature vector of this learning data is divided by clustering to create a model.
In Non-Patent Document 1, moving objects in video data are extracted, and clustering is performed using the position, size, and motion of the extracted moving object region as a feature amount. Then, based on the appearance probability of the cluster in each pixel of the frame of the video data, the image is divided into a plurality of areas and a model is created in each area.
As described above, the classification accuracy of the model can be improved by dividing the distribution of learning data by clustering to create the model.
しかしながら、これらの方法では特定クラスの学習データのみを用いてモデルを作成している。そのため、学習データと類似する特定外クラスデータを判別することは難しい。 このように、特定クラスの学習データのみを用いたモデル作成において特定外クラスデータが得られた場合、そのデータを学習へ活用することができていない、という課題がある。 However, in these methods, a model is created using only a specific class of training data. Therefore, it is difficult to determine non-specific class data similar to learning data. As described above, when non-specific class data is obtained in model creation using only learning data of a specific class, there is a problem that the data can not be utilized for learning.
本発明は、モデルの判定精度をより向上させることができる情報処理装置を提供することを、主たる目的とする。 The main object of the present invention is to provide an information processing apparatus capable of further improving the determination accuracy of a model.
本発明は、センサの出力データに異常があるか否かを判定するモデルを作成する情報処理装置であって、前記センサの出力データを学習データとして取得する学習データ取得手段と、前記学習データから特徴量を算出する特徴量算出手段と、前記算出された特徴量に基づいて前記学習データを分割する分割手段と、前記分割後の学習データを用いてモデルを作成するモデル作成手段と、前記センサの出力データを検証データとして取得する検証データ取得手段と、前記特徴量算出手段により算出された前記検証データの特徴量と前記作成されたモデルに基づいて当該検証データの評価を行なう評価手段と、前記評価の結果に応じて、前記学習データと前記検証データに基づいて当該学習データを再分割する再分割手段と、を有し、前記モデル作成手段は、前記再分割手段により前記学習データの再分割が行われたときには当該再分割後の学習データを用いて前記モデルを作成することを特徴とする。 The present invention is an information processing apparatus for creating a model for determining whether or not there is an abnormality in output data of a sensor, and from learning data acquisition means for acquiring output data of the sensor as learning data, and from the learning data Feature quantity calculation means for calculating feature quantity, division means for dividing the learning data based on the calculated feature quantity, model generation means for preparing a model using the learning data after the division, and the sensor Verification data acquisition means for acquiring the output data of the data as verification data, and evaluation means for evaluating the verification data based on the feature amount of the verification data calculated by the feature amount calculation means and the created model. And re-dividing means for re-dividing the learning data based on the learning data and the verification data according to the result of the evaluation, and the model Forming means is characterized by creating the model by using the learning data after the subdivision when the subdivision of the learning data is performed by the subdivision means.
本発明によれば、モデルの判定精度をより向上させることが可能となる。 According to the present invention, it is possible to further improve the determination accuracy of the model.
以下、添付図面を参照して、本発明を適用した情報処理装置をモデル作成装置として機能させる場合を例に挙げて、各実施形態について説明する。
以下に説明するモデル作成装置は、特定クラスの学習データを用いて作成したモデルを評価して、その評価結果に基づいてモデルを再作成する。
また、各実施形態の説明においては、特定クラスを正常データ、特定外クラスを異常データとして記述するが、本発明は正常・異常の2クラスの判別に限定するものでなく、他のクラス判別や多クラス判別に用いてもよい。
Hereinafter, each embodiment will be described with reference to the accompanying drawings, taking an information processing apparatus to which the present invention is applied as a model creating apparatus as an example.
The model creating apparatus described below evaluates a model created using learning data of a specific class, and recreates the model based on the evaluation result.
In the description of each embodiment, a specific class is described as normal data, and a non-specific class is described as abnormal data. However, the present invention is not limited to the discrimination of two classes of normal and abnormal, and other class discrimination and You may use for multiclass discrimination.
[第1実施形態]
図1は、本実施形態に係るモデル作成装置100の構成の一例を示す図である。
モデル作成装置100は、主として学習部121、判定部122を含んで構成される。また、モデル保存部11a、表示装置130を有する。モデル作成装置100は、CPU200、メモリ300を有する。なお、CPU200は、メモリ300(例えば、RAM)に記憶されたプログラムなどを読み出してモデル作成装置100の動作を制御する。
また、表示装置130は、情報処理装置(例えば、PC)あるいはモデル作成装置に接続されたディスプレイの他にも、ネットワークを介して接続された遠隔地にあるPCやタブレットのディスプレイなどであってもよい。
First Embodiment
FIG. 1 is a diagram showing an example of the configuration of a
The
In addition to the display connected to the information processing apparatus (for example, PC) or the model creation apparatus, the
学習部121は、学習データ取得部101、特徴量算出部102、データ分割部103、モデル作成部104、検証データ取得部105、評価部106、データ再分割部107、を含んで構成される。
判定部122は、判定データ取得部111、特徴量算出部112、識別部113を含んで構成される。
The
The
[学習部121の機能構成]
学習部121が有する学習データ取得部101は、機器に取り付けられたセンサの出力データ(出力値)を学習データとして取得する。ここで、センサは、熱センサ、角度センサ、振動センサなどの各種センサを用いることが可能である。取得された学習データは特徴量算出部102へ出力される。
特徴量算出部102は、学習データ取得部101を介して受け付けたデータから特徴量を算出する。
なお、ここでは特徴量は各センサの出力データ(出力値)をベクトルの各要素とする多次元の特徴ベクトルとする。特徴ベクトルは、大きさが1になるように正規化してもよい。また、その他の特徴量として、各センサの出力を時系列のある区間でまとめて離散ウェーブレット変換等の変換を適用して特徴ベクトルとしてもよい。
以下、特徴ベクトルについて説明する。
[Functional configuration of learning unit 121]
The learning
The feature amount calculation unit 102 calculates a feature amount from the data received via the learning
Here, the feature amount is a multi-dimensional feature vector in which output data (output value) of each sensor is an element of the vector. The feature vector may be normalized to have a magnitude of one. Further, as other feature quantities, outputs of the respective sensors may be put together in a certain section of the time series and transformation such as discrete wavelet transform may be applied as a feature vector.
The feature vector will be described below.
図2は、2つのセンサの出力データ(出力値)を各要素として特徴ベクトルとした場合の特徴量の分布の一例を示す図である。
図2中において「○」で示す学習データの特徴量201が1個の特徴ベクトルに対応する。また、図2中に示しているクラスタ情報202、クラスタ情報203、「×」で示す検証データの特徴量204については後述する。抽出した特徴量はデータ分割部103、あるいは評価部106へ出力される。
FIG. 2 is a diagram showing an example of the distribution of feature amounts when output data (output values) of two sensors are used as feature vectors.
図1の説明に戻り、データ分割部103は、特徴量算出部102を介して算出された特徴量を用いて学習データの分割を行なう。データの分割方法としては、例えば特徴空間上における学習データの分布に対して混合正規分布を当てはめることによりクラスタリングを行ないデータを分割することができる。
また、混合正規分布のクラスタ数は、所定の離散値を設定するか、離散値の候補の中から赤池情報量基準などを用いてデータに合う候補数を選択してもよい。
また、混合正規分布によるクラスタリングの他にk近傍法で所定離散値のクラスタ数Cにデータを分割することも可能であり、またこれら以外の公知の方法を用いて分割を行ってもよい。
データ分割によって、図2に示すように、学習データをクラスタ情報202、203それぞれに属する学習データへと分割することができる。なお、各学習データの特徴量201とクラスタ情報202、203はモデル作成部104へと出力される。
Returning to the description of FIG. 1, the
Further, the number of clusters in the mixed normal distribution may be set to a predetermined discrete value, or the number of candidate discrete values may be selected from the candidates for the data matching using the Akaike information amount standard or the like.
Also, in addition to clustering by mixed normal distribution, it is also possible to divide data into a cluster number C of a predetermined discrete value by the k-neighbor method, or division may be performed using other known methods.
By data division, as shown in FIG. 2, learning data can be divided into learning data belonging to each of
モデル作成部104は、学習データの特徴量201をクラスタ情報202、203毎に分けてモデルを作成する。モデルの作成方法としては、例えばデータ分割部103において分割された各学習データに対して、特徴空間上で当てはめた混合正規分布の重心位置と分散共分散を正常の範囲としてモデルの作成を行うことができる。
また、混合正規分布以外には、分割した学習データに「One―Class Support Vector Machine」を適用して、学習データの中からサポートベクトルとそれぞれのサポートベクトルの重みを学習する。この学習したサポートベクトルとそれぞれの係数と閾値を判別モデルとしてもよい。
また、ここで述べている「モデル」とは、特徴空間上における学習データの分布を表すものをモデル化したものであり、該分布内を正常、分布外を異常と判別可能なものであればよい。得られたモデルは評価部106へと出力される。
The
In addition to the mixed normal distribution, “One-Class Support Vector Machine” is applied to the divided learning data to learn the support vector and the weight of each support vector from the learning data. The learned support vector, the respective coefficients and the threshold may be used as a discriminant model.
Further, the “model” described here is a model that represents the distribution of learning data in the feature space, as long as it can be determined that the distribution is normal and the outside is abnormal. Good. The obtained model is output to the
検証データ取得部105は、学習データ取得部101と同様に、機器に取り付けた各種センサからセンサデータを取得する。そして、取得したデータに対してユーザは、異常が発生している時のデータ(異常データ)を検証データとして選定するものとする。
検証データの選定方法としては、例えば異常が発生した時のセンサデータをプロットしたものを表示画面上に表示して、ユーザが表示画面を介して指定することで選定可能に構成することができる。なお、選定方法はこれ以外の方法を用いてもよい。
選定した検証データは特徴量算出部102へと出力され、特徴量算出部102において、図2中において「×」で示す検証データの特徴量204が算出される。算出された特徴量204は評価部106へと出力される。
Similar to the learning
As a method of selecting verification data, for example, it is possible to configure selection by displaying a plot of sensor data when an abnormality occurs on the display screen, and designating it through the display screen by the user. The selection method may use other methods.
The selected verification data is output to the feature amount calculation unit 102, and the feature amount calculation unit 102 calculates the
評価部106は、検証データの特徴量204とモデル作成部104により作成されたモデルに基づいて、当該モデルが検証データの特徴量204を異常と判定できるか否かを評価する。判定方法としては、作成したモデルが混合正規分布である場合、各混合正規分布の重心位置と分散共分散を用いて、検証データとのマハラノビス距離を以下に示す式1を用いて算出する。
The
ここで、
:検証データの特徴量、μ:正規分布の重心位置、Σ:正規分布の分散共分散行列であるとする。評価部106は、各混合正規分布とのマハラノビス距離が最小となるものを選択し、距離が閾値以下であれば正常と判定し、閾値以上であれば異常と判定する。
また、モデルに「One−Class Support Vector Machine」を用いている場合、学習したサポートベクトルとそれぞれの係数とペナルティ項を用いて以下に示す式2を用いて評価する
here,
: Feature amount of verification data, μ: center of gravity of normal distribution, Σ: variance-covariance matrix of normal distribution. The
In addition, when “One-Class Support Vector Machine” is used for the model, evaluation is performed using Equation 2 shown below using the learned support vectors, respective coefficients and penalty terms.
ここで、w:学習した係数、
:検証データの特徴量、
:写像関数、
:学習したペナルティ項、sign():符号関数であるとする。この結果f(x)が+1であれば正常と判定され、−1であれば異常と判定される。
Where w: learned coefficient,
: Characteristic amount of verification data,
: Mapping function,
: Learned penalty term, sign (): It is assumed that it is a sign function. As a result, if f (x) is +1, it is judged as normal, and if it is -1, it is judged as abnormal.
評価部106が検証データを「異常」と判定した場合、異常であることが正しく判定できている。そのため、作成したモデルはモデル保存部11aへと出力され保存される。
一方、検証データを異常と判定できなかった場合、学習データと検証データがデータ再分割部107へと出力される。
When the
On the other hand, when the verification data can not be determined to be abnormal, the learning data and the verification data are output to the
データ再分割部107は、まず、学習データと検証データを用いて学習データと検証データとの類似度の算出を行なう。類似度の算出には以下に示す式3を用いることができる。
The
ここで、
:学習データの特徴量、
:検証データの特徴量、
:スケールファクター、
:距離関数であるとする。この式3では、選択した2つの学習データの特徴量の距離と比べて相対的により近い距離で検証データ204の特徴量がある場合、2つの学習データの類似度を0とするようになっている。
here,
: Feature amount of learning data,
: Characteristic amount of verification data,
: Scale factor,
: Suppose that it is a distance function. In this formula 3, when there is a feature amount of the
次に、算出した類似度を用いて、対角行列
と、正規化類似度行列
を算出し、クラスタ数C(所定の離散値)を設定する。また、クラスタ数Cは赤池情報量基準などを算出することにより決定してもよい。
次に、正規化類似度行列Lの固有値・固有ベクトルを算出し、行列
を作成する。次に、Xの行ベクトルを正規化した行列
を作成する。
次に、
のn本のベクトルに対してk近傍法を適用して、クラスタ番号cを割り当てる。
次に、
の第i行のベクトルに割り当てられたクラスタ番号cを、特徴ベクトル
のクラスタ番号cとする。
Next, using the calculated similarity, the diagonal matrix
And the normalized similarity matrix
Is calculated, and the number of clusters C (predetermined discrete value) is set. Further, the number of clusters C may be determined by calculating the Akaike information amount standard or the like.
Next, the eigenvalues and eigenvectors of the normalized similarity matrix L are calculated.
Create Next, a matrix of normalized row vectors of X
Create
next,
The cluster number c is assigned by applying the k-nearest neighbor method to n vectors of.
next,
The cluster number c assigned to the vector of the i-th row of, the feature vector
Cluster number c.
図3は、図2に示す特徴量の分布に対する再分割後の分布の一例を示す図である。
図3に示すように、データ再分割部107によるデータ再分割により検証データの特徴ベクトル204を含まないように学習データの特徴ベクトル201がクラスタリングされ、学習データはクラスタ情報203、305、306それぞれに再分割されている。クラスタ情報203、305、306それぞれに再分割された学習データ201はモデル作成部104へと出力され、再度モデルの作成が行なわれる。
FIG. 3 is a diagram showing an example of the distribution after redivision for the distribution of the feature shown in FIG.
As shown in FIG. 3, the
また、複数の検証データが得られている場合、学習データと複数の検証データに基づいて、式3を用いて類似度を算出する。そして、既知の局所フィッシャー判別分析(Local Fisher Discriminant Analysis:LFDA)を用いて正常データと検証データを分離することも可能である。
なお、以下に示すように、局所フィッシャー判別分析(式6)では、学習データと検証データを用いて局所クラス内散布行列(式4)と局所クラス間散布行列(式5)を求める。
When a plurality of verification data are obtained, the similarity is calculated using Equation 3 based on the learning data and the plurality of verification data. Then, it is possible to separate normal data and verification data using known Local Fisher Discriminant Analysis (LFDA).
As shown below, in the local Fisher discriminant analysis (equation 6), a local intra-class scatter matrix (equation 4) and a local inter-class scatter matrix (equation 5) are determined using learning data and verification data.
この固有値・固有ベクトルを算出することで、次元削減をしつつ学習データと検証データを分割することができる。また、本発明においては、データ再分割方法は上記の方法に限定するわけではなく、これら以外の方法を用いてデータを分割してもよい。
分割されたデータはモデル作成部104へと出力され、再度分割した学習データを使ってモデルの作成が行なわれる。
By calculating the eigenvalues and eigenvectors, it is possible to divide learning data and verification data while performing dimensional reduction. Further, in the present invention, the data re-division method is not limited to the above method, and data may be divided using methods other than these.
The divided data is output to the
[判定部122の機能構成]
判定部122が有する判定データ取得部111は、学習データ取得部101と同様に、機器に取り付けた各種センサの出力値を判定データとして取得する。取得した判定データは特徴量算出部112へと出力される。
[Functional Configuration of Determination Unit 122]
The determination
特徴量算出部112は、取得した判定データから特徴量を算出する。特徴量算出方法については特徴量算出部102と同様の処理により算出することが可能であるため、ここでの説明は省略する。算出した特徴量は識別部113へと出力される。
The feature amount calculation unit 112 calculates a feature amount from the acquired determination data. The feature amount calculation method can be calculated by the same process as that of the feature amount calculation unit 102, and thus the description thereof is omitted here. The calculated feature amount is output to the
識別部113は、モデル保存部11aから作成したモデルを取得し、特徴量算出部112から取得した判定データの特徴量を判定する。
判定方法としては、例えばモデルが混合正規分布の場合、判定データの特徴量に対して混合正規分布の重心位置との距離が最も短い混合正規分布を選択し、その混合正規分布とのマハラノビス距離(式1参照)を算出し、距離が閾値以下であれば「正常」と判定する。また、距離が閾値以上であれば「異常」と判定する。
また、作成したモデルが「One−Class Support Vector Machine」の場合、判定データの特徴量に対して先述した数2を適用し、その結果が+1であれば「正常」と判定する。また、結果−1であれば「異常」と判定する。識別部113によって判定された判定結果は、表示装置130に出力される。
The
As the determination method, for example, when the model is a mixture normal distribution, a mixture normal distribution having the shortest distance to the center of gravity of the mixture normal distribution with respect to the feature amount of the determination data is selected, and the Mahalanobis distance with the mixture normal distribution ( Formula 1) is calculated, and if the distance is equal to or less than the threshold value, it is determined as "normal". If the distance is equal to or greater than the threshold value, it is determined as "abnormal".
When the created model is "One-Class Support Vector Machine", the above-described equation 2 is applied to the feature amount of the determination data, and when the result is +1, it is determined as "normal". If the result is -1, it is determined as "abnormal". The determination result determined by the
[学習部121の処理フロー]
図4は、モデル作成装置100の処理手順の一例を示すフローチャートである。
なお、図4に示す処理は主として学習部121の処理に関するものであり、CPU200により制御される。
[Processing flow of learning unit 121]
FIG. 4 is a flowchart showing an example of the processing procedure of the
The process shown in FIG. 4 mainly relates to the process of the
CPU200は、学習データ取得部101を介して、学習データを取得する(S401)。
取得方法としては、例えば機器に取り付けられているセンサからデータを取得して学習データとしてもよいし、保存されているHDDなどからセンサデータを取得して学習データとしてもよい。取得した学習データは特徴量算出部102へと送られる。
The
As an acquisition method, for example, data may be acquired from a sensor attached to a device and used as learning data, or sensor data may be acquired as a learning data from a stored HDD or the like. The acquired learning data is sent to the feature amount calculation unit 102.
CPU200は、取得した学習データから当該学習データの特徴量を算出する(S402)。特徴量の算出は、各センサの出力値を要素とした特徴ベクトルに基づいて特徴量を算出してもよい。算出した特徴量201はデータ分割部103へと送られる。
The
CPU200は、データ分割部103を介して、学習データの特徴量201に基づいて学習データの分割を行なう(S403)。
学習データの分割には、特徴空間上で特徴量の分布に対して混合正規分布を当てはめて、学習データがどの正規分布に属するかで分割することができる。その他にもクラスタ数C(所定の離散値)としてk近傍法によるクラスタリングを行なうことでデータを分割することができる。
この処理により、学習データはクラスタ情報202内のデータと、クラスタ情報203内のデータへと分割される。分割された学習データに係る情報はモデル作成部104へと送られる。
The
In dividing the learning data, a mixed normal distribution can be applied to the distribution of the feature amount on the feature space, and the learning data can be divided according to which normal distribution. In addition, data can be divided by performing clustering using the k-neighbor method with the number of clusters C (predetermined discrete value).
By this processing, the learning data is divided into data in the
CPU200は、データ分割部103、データ再分割部108を介して分割された学習データに基づいて、各分割データに対するモデルの作成を行なう(S404)。
モデルの作成方法としては、例えばデータ分割部103で求めた混合正規分布の重心位置と分散共分散を用いてモデルとしてもよい。また、混合正規分布の他に、分割したデータ毎に「One−Class Support Vector Machine」を用いてサポートベクトルとそれぞれの係数と閾値を算出し、それらをモデルとしてもよい。
作成したモデルは評価部106へと送られる。
The
As a method of creating a model, for example, the barycentric position and variance covariance of the mixed normal distribution determined by the
The created model is sent to the
CPU200は、検証データ取得部105を介して、検証データを取得する(S405)。検証データは、機器に取り付けた各種センサから検知結果を取得し、ユーザが機器に異常が発生した時のデータを選択するようにしてもよい。取得した検証データは特徴量算出部102へと送られる。
The
CPU200は、特徴量算出部102を介して、検証データの特徴量204を算出する(S406)。なお、検証データの特徴量算出は、学習データの特徴量を算出する方法と同じ方法を用いて算出することができる。算出した検証データの特徴量204は評価部106へと送られる。
The
CPU200は、評価部106を介して、検証データの特徴量204を異常と判定できるか否かを検証する(S407)。
検証方法としては、混合正規分布(クラスタ情報202および203)を用いて、判定データと各正規分布の重心位置との距離が最も近い正規分布202(クラスタ情報202)を選択する。選択した正規分布202の重心位置と分散共分散を用いて、判定データの特徴量204とのマハラノビス距離を先述した式1を用いて算出する。CPU200は、算出した距離が閾値以内であれば「正常」と判定する。また、閾値以上であれば「異常」と判定する。
The
As a verification method, using a mixed normal distribution (
CPU200は、ステップS407の処理において検証データの判定結果が「異常」と判定されたか否かを識別する(S408)。
検証データが異常と判定された場合(S408:Yes)、ステップS410の処理に進む。また、そうでない場合(S408:No)、つまり検証データが「異常」であると判定されなかった場合、CPU200は、学習データの特徴量201と検証データの特徴量204をデータ再分割部107へと出力する。そして、ステップS409の処理に進む。
The
If it is determined that the verification data is abnormal (S408: Yes), the process proceeds to step S410. If not (S408: No), that is, if it is not determined that the verification data is "abnormal", the
CPU200は、データ再分割部107を介して、学習データの特徴量201と検証データの特徴量204に基づいてデータの再分割を行なう(S409)。
データの再分割処理方法としては、例えば先述した式3を用いてデータ間の類似度を算出する。その際、検証データを類似度算出の条件に用いる。求めた類似度に基づいて固有値・固有ベクトルを算出し、固有値の上位C個を対角要素に並べた行列を生成し、その行ベクトルをk近傍法でクラスタリングする。そして、i番目の行に割り当てられたクラスタリング結果をもとに学習データを分割する。
学習データ201とクラスタリング結果であるクラスタ情報203、305、306(図3参照)は再度モデル作成部104へと送られる。CPU200は、ステップS404へと戻り、再度モデルの作成を行う。
CPU200は、作成されたモデルをモデル保存部11aに保存する(S410)。
The
As a data repartitioning method, for example, the similarity between data is calculated using the equation 3 described above. At this time, verification data is used as a condition for similarity calculation. Eigenvalues and eigenvectors are calculated based on the determined similarity, a matrix in which the top C of the eigenvalues are arranged in diagonal elements is generated, and the row vectors are clustered by the k-neighbor method. Then, the learning data is divided based on the clustering result assigned to the i-th row.
The learning
The
[判定部122の処理フロー]
図5は、モデル作成装置100の処理手順の一例を示すフローチャートである。
なお、図5に示す処理は主として判定部122の処理に関するものであり、CPU200により制御される。
[Processing flow of determination unit 122]
FIG. 5 is a flowchart illustrating an example of the processing procedure of the
The process shown in FIG. 5 mainly relates to the process of the
CPU200は、機器に取り付けた各種センサから判定データを取得する(S421)。取得した判定データは、特徴量算出部112へと出力される。
The
CPU200は、特徴量算出部112を介して、判定データの特徴量を算出する(S422)。特徴量の算出は、特徴量算出部102の場合と同様の特徴量算出方法を用いて算出することができる。算出した検証データの特徴量は識別部113へと出力される。
The
CPU200は、識別部113を介して、モデル保存部11aから作成したモデルを取得し、特徴量算出部112から取得した判定データの特徴量を判定する(S423)。
判定方法としては、例えばモデルが混合正規分布の場合、先述した式1を用いて各正規分布と判定データのマハラノビス距離を算出する。各正規分布とのマハラノビス距離(式1)が最小のものを選択し、その距離が閾値以下であれば「正常」と判定する。また、閾値以上であれば「異常」と判定する。
なお、本発明での識別処理は正規分布に限定するわけではなく、別の方法を用いて判定を行ってもよい
The
As a determination method, for example, when the model is a mixed normal distribution, the Mahalanobis distance between each normal distribution and the determination data is calculated using Equation 1 described above. The one with the smallest Mahalanobis distance (Equation 1) with each normal distribution is selected, and if the distance is equal to or less than the threshold value, it is determined as "normal". If it is equal to or higher than the threshold, it is determined as "abnormal".
Note that the identification processing in the present invention is not limited to the normal distribution, and determination may be performed using another method.
CPU200は、識別部113による判定結果を表示装置130の表示画面に表示する(S424)。
The
このように、本実施形態に係るモデル作成装置100では、検証データを含まないように学習データを分割してモデルを作成することで、検証データを「異常」と判定することができるモデルを作成することができる。そのため、機器の異常を検知することが可能となり、モデルの判定精度をより向上させることができる。
また、本実施形態でモデル作成結果を表示装置に出力してユーザが確認することができる。そのため、ユーザは検証データの選択・追加を行うことで確認しながらモデルを作成することが可能になる。
また、各実施形態において検証データを異常データとして説明を記述しているが、検証データは正常データと異常データのどちらを用いてもよい。この時、評価部106において正常データを異常と評価した場合、データ再分割部107においてデータ再分割が実施される。
また、本実施形態では未検知となった異常データを逐次追加しながらモデルを作成させることができるモデル作成装置を提供することが可能となる。
As described above, the
Further, in the present embodiment, the user can confirm that the model creation result is output to the display device. Therefore, the user can create a model while confirming by performing selection and addition of verification data.
Moreover, although verification data are described as abnormal data in each embodiment, either of normal data or abnormal data may be used as verification data. At this time, when the
Further, in the present embodiment, it is possible to provide a model creation apparatus capable of creating a model while sequentially adding abnormal data that has not been detected.
[第2実施形態]
本実施形態では、映像監視システムにおけるモデル作成装置について説明する。
なお、第1実施形態における各構成と同一の構成については、同一の符号を付してその説明を省略する。
Second Embodiment
In the present embodiment, a model creation device in a video surveillance system will be described.
In addition, about the structure same as each structure in 1st Embodiment, the same code | symbol is attached | subjected and the description is abbreviate | omitted.
図6は、本実施形態に係るモデル作成装置500の構成の一例を示す図である。
なお、本実施形態では、撮像データ(映像データ)を用いて異常検知を行なう場合を想定して屋外の交差点のシーンを例に挙げて説明するが、例えば商業施設などの屋内や、病院、介護施設、駅などの公共施設など様々な場所のシーンにおいても適用することができる。
FIG. 6 is a diagram showing an example of the configuration of a
In the present embodiment, it is assumed that a scene of an outdoor intersection is taken as an example on the assumption that abnormality detection is performed using imaging data (video data). The present invention can be applied to scenes of various places such as facilities and public facilities such as stations.
モデル作成装置500は、主として学習部521と判定部522を含んで構成される。また、領域・モデル保存部51a、表示装置130を有する。
モデル作成装置500は、CPU200、メモリ300を有する。なお、CPU200は、メモリ300(例えば、RAM)に記憶されたプログラムなどを読み出してモデル作成装置500の動作を制御する。
The
The
学習部521は、学習映像取得部501、特徴量算出部502、領域分割部503、モデル作成部104、検証映像取得部505、評価部106を含んで構成される。
判定部522は、判定映像取得部511、特徴量算出部512、識別部113を含んで構成される。
本実施形態では、取得した学習映像に基づいて当該映像を複数の領域に分割し、分割した各領域で正常モデルを作成する方法について説明する。
The
The
In the present embodiment, a method of dividing the video into a plurality of regions based on the acquired learning video and creating a normal model in each of the divided regions will be described.
[学習部521の機能構成]
学習部521が有する学習映像取得部501は、学習用の映像データ(以下、学習映像と称す)を取得する。
図7は、学習映像の一例を示す図である。図7に示す学習映像601は、撮影シーンにおける各撮影対象(以下、対象と称す)602〜605が移動している映像である。なお、図7中に示す対象602〜605については後述する。
なお、学習映像601は、モデル作成装置500に接続された監視カメラから取得するように構成してもよい。また、監視カメラで撮影・録画した映像をHDD(ハードディスクドライブ)、デジタルビデオレコーダーから取得するように構成してもよい。得られた学習映像601は特徴量算出部502へと出力される。
[Functional configuration of learning unit 521]
The learning
FIG. 7 is a diagram showing an example of a learning image. A
Note that the learning
図6の説明に戻り、特徴量算出部502は、取得した学習映像601に対して対象を検出して特徴量を算出する。対象の検出には、あらかじめ用意したテンプレートを用いてテンプレートマッチングで映像内の対象を検出することができる。
なお、対象は撮影シーンに併せて抽出する対象をユーザが設定してもよい。その他に、あらかじめ用意した背景画像を使って背景差分法などで背景を除去することで、前景領域を対象として抽出する事ができる。また、検出方法は上記の方法に限定するものではなく、他の公知の技術を用いて行なってもよい。
Returning to the description of FIG. 6, the feature amount calculation unit 502 detects a target for the acquired
The user may set an object to be extracted along with the shooting scene. In addition, it is possible to extract the foreground region as a target by removing the background by the background subtraction method etc. using the background image prepared in advance. Also, the detection method is not limited to the above method, and other known techniques may be used.
これにより、例えば図7に示す撮影シーンにおける各対象602〜605の位置・範囲等が情報として検出され、画像から検出された対象602〜605に対して位置・範囲の画像データを用いて特徴量を算出することができる。
なお、特徴量の算出は、既知の勾配方向ヒストグラムやテクスチャ特徴量を用いることができる。また、映像データから動きベクトルを抽出して動きベクトルを方向別に分けて強度を足し合わせてヒストグラムにしたMHOF(Multi Histogram of Optical Flow)特徴量を抽出することもできる。また、特徴量については上記に限定するものではなく、それ以外の特徴量を用いるように構成してもよい。
算出した特徴量は領域分割部503、あるいは評価部106へ出力される。
Thus, for example, the positions, ranges, and the like of the
In addition, the gradient direction histogram and texture feature amount which are known can be used for calculation of a feature amount. Further, it is also possible to extract a multi histogram of optical flow (MHOF) feature value in which a motion vector is extracted from video data, the motion vector is divided into directions, and intensities are added to form a histogram. Also, the feature amount is not limited to the above, and other feature amounts may be used.
The calculated feature amount is output to the
領域分割部503は、特徴量算出部502を介して取得された位置情報や特徴量に基づいて領域の分割を行なう。領域分割方法としては、例えば以下に示す式7を用いて類似度を算出して行うことができる。
The
ここで、
:対象の特徴量、
:画像上での対象の位置、
:スケールファクター(クラスタ重心位置とデータ位置の距離)、
:距離閾値、である。この類似度を使って、スペクトラルクラスタリングの手法を用いてクラスタリングを行ない、画像の各ピクセルでのクラスタの出現確率を算出し、その出現確率を基準に複数の領域へと分割する。分割された領域、及び、学習映像から抽出した特徴量はモデル作成部104へと送られる。
here,
: Target feature amount,
: The position of the object on the image,
: Scale factor (distance between cluster center position and data position),
: Distance threshold. Using this similarity, clustering is performed using a spectral clustering method, the appearance probability of the cluster at each pixel of the image is calculated, and the image is divided into a plurality of regions based on the appearance probability. The divided area and the feature quantity extracted from the learning video are sent to the
検証映像取得部505は、検証用の映像データ(以下、検証映像と称す)を取得する。
図8は、検証映像の一例を示す図である。
図8に示す検証映像707は、人物708が転倒している映像の一例である。この検証映像707には、対象である人物708が転倒しているフレームでの位置・範囲が入力されている。なお、位置・範囲は、例えばユーザがGUIを介して映像のフレームを選択し、画像上の位置・範囲を指定することで入力される。このように、例えば人物が転倒するなどの異常行動が発生したフレームを検証映像とし、異常の発生位置と範囲の情報を入力する。
取得した映像707は特徴量算出部502へと出力され、人物708の特徴量が算出される。
The verification
FIG. 8 is a diagram showing an example of a verification video.
The
The acquired
領域再分割部507では、学習映像601における対象602〜605の特徴量と、検証映像における対象708の位置情報と特徴量に基づいて領域の再分割を行なう。
なお、領域の再分割方法としては、先述した式3を用いて類似度を算出する他に、以下に示す式8を用いて類似度を算出することができる。
The region redivision
In addition to calculating the degree of similarity using Equation 3 described above, the degree of similarity can be calculated using Equation 8 shown below as the region re-division method.
ここで、α:任意の値であり、L:データのラベル(学習データ=+1、検証データ=0)である。こうすることで、学習データと検証データの類似度が0になるように算出することができる。類似度を算出した後、固有値を算出してk近傍法によりクラスタリングする。これにより、特徴量をクラスタリングすることができる。
映像において、各ピクセルにおけるクラスタリングした各クラスタの出現確率を算出し、出現確率に基づいて領域を分割する。再分割された領域はモデル作成部104へと出力され、再度モデルの作成が行なわれる。
Here, α is an arbitrary value, and L is a label of data (learning data = + 1, verification data = 0). By doing this, it is possible to calculate so that the degree of similarity between the learning data and the verification data becomes zero. After the similarity is calculated, the eigenvalues are calculated and clustering is performed by the k-neighbor method. Thereby, feature quantities can be clustered.
In the image, the appearance probability of each clustered cluster in each pixel is calculated, and the area is divided based on the appearance probability. The re-divided area is output to the
[判定部522の機能構成]
判定部522が有する判定映像取得部511は、例えば監視カメラから映像データを判定データとして取得する。取得した判定データは特徴量算出部512へと出力される。
[Functional Configuration of Determination Unit 522]
The determination
特徴量算出部512は、判定映像から対象である人物を検出して特徴量を算出する。
なお、人物の検出及び特徴量算出は特徴量算出部502と同様の処理により行なうことができるため説明は省略する。算出した特徴量は識別部113へと出力される。
The feature
Note that the person detection and the feature amount calculation can be performed by the same process as the feature amount calculation unit 502, so the description will be omitted. The calculated feature amount is output to the
[学習部521の処理フロー]
図9は、モデル作成装置500の処理手順の一例を示すフローチャートである。
なお、図9に示す処理は主として学習部521の処理に関するものであり、CPU200により制御される。
[Processing flow of learning unit 521]
FIG. 9 is a flowchart showing an example of the processing procedure of the
The process shown in FIG. 9 mainly relates to the process of the
CPU200は、学習映像601を取得する(S801)。取得した学習映像601は特徴量算出部502へと送られる。
CPU200は、特徴量算出部502を介して、取得した学習映像601から当該学習映像601の特徴量を算出する(S802)。特徴量の算出は、例えば予め用意した背景画像を用いて背景差分を行ない映像内の前景領域を抽出するように構成してもよい。また、テンプレートマッチングで検出して対称(人物)の位置・領域を取得してもよい。
具体的には、対象602〜605に対してHOG特徴量やHOF特徴量などの特徴量を算出する。算出した対象の位置情報、特徴量は学習データとして領域分割部503へと送られる。
The
The
Specifically, feature amounts such as HOG feature amounts and HOF feature amounts are calculated for the
CPU200は、領域分割部503を介して、学習映像601に基づく学習データを用いて領域の分割を行なう(S803)。
領域分割は、算出した位置情報、特徴量に基づいて先述した式8を用いて類似度を算出し、スペクトラルクラスタリングによる方法を用いて領域を分割することができる。
具体的には、類似度の固有値・固有ベクトルを算出して、k近傍法によりクラスタリングすることで学習データにクラスタ番号の割り当てを行う。そして、映像の各ピクセルに対してクラスタの出現確率を算出して、各ピクセルに割り当てられたクラスタの出現確率に基づいて領域に分割する。
分割された領域、学習データの位置・特徴量に係る情報はモデル作成部104へと送られる。
The
In the area division, the similarity can be calculated using Equation 8 described above based on the calculated position information and feature amount, and the area can be divided using a method using spectral clustering.
Specifically, cluster numbers are assigned to learning data by calculating eigenvalues and eigenvectors of the degree of similarity and performing clustering using the k-nearest neighbor method. Then, the appearance probability of clusters is calculated for each pixel of the image, and divided into regions based on the appearance probability of clusters allocated to each pixel.
Information on the divided area and the position / feature amount of learning data is sent to the
CPU200は、領域分割部503、あるいは領域再分割部507を介して分割された領域に係る情報に基づいて、各領域に対するモデルの作成を行なう(S804)。
The
CPU200は、検証映像取得部505を介して、検証映像707を取得する(S805)。検証映像は、例えば予め監視カメラで撮影された映像を録画しておいて、ユーザがその映像の中から異常な行動をしているシーンを選択するようにしてもよい。取得した検証映像707は、特徴量算出部502へと送られる。
The
CPU200は、特徴量算出部502を介して、検証映像707の特徴量を算出する(S806)。なお、検証映像707の特徴量の算出は、学習映像601の特徴量を算出する方法と同じ方法を用いて行うことができる。算出した検証映像707の特徴量は検証データとして評価部106へと送られる。
The
CPU200は、評価部106を介して、検証データを異常と判定できるか否かを検証する(S807)。なお、この検証は、ステップS407(図4参照)と同様の処理により行うことができる。
CPU200は、ステップS807の処理において検証データの判定結果が「異常」と判定されたか否かを識別する(S808)。
検証データが異常と判定された場合(S808:Yes)、ステップS810の処理に進む。また、そうでない場合(S808:No)、つまり検証データが「異常」であると判定されなかった場合、CPU200は、学習データと検証データを領域再分割部507へと出力する。そして、ステップS809の処理に進む。
The
The
If it is determined that the verification data is abnormal (S808: Yes), the process proceeds to step S810. If not (S808: No), that is, if it is not determined that the verification data is "abnormal", the
CPU200は、領域再分割部507を介して、学習データと検証データに基づいて領域の再分割を行う(S809)。
領域の再分割は、例えば取得した学習データと検証データの特徴量と画像上での位置を用いて類似度を先述した式8により算出する。そして、算出した学習・検証データの類似度に基づいて、スペクトラルクラスタリングを用いてデータをクラスタリングし、類似する特徴量が発生する対象の位置に基づいて領域を分割することができる。
領域分割結果はモデル作成部104へと送られる。CPU200は、ステップS804へと戻り、再度モデルの作成を行う。
CPU200は、分割した領域と各領域のモデルを領域・モデル保存部51aに保存する(S810)。
The
For re-division of the region, for example, the degree of similarity is calculated using the feature amount of the acquired learning data and verification data and the position on the image according to Equation 8 described above. Then, based on the calculated degree of similarity of the learning / verification data, the data can be clustered using spectral clustering, and the area can be divided based on the position of the target at which the similar feature quantity occurs.
The area division result is sent to the
The
[判定部522の処理フロー]
図10は、モデル作成装置500の処理手順の一例を示すフローチャートである。
なお、図10に示す処理は主として判定部522の処理に関するものであり、CPU200により制御される。
[Processing flow of determination unit 522]
FIG. 10 is a flow chart showing an example of the processing procedure of the
The process shown in FIG. 10 mainly relates to the process of the
CPU200は、判定映像取得部511を介して、検証映像707を取得する(S821)。取得した検証映像707は判定データとして特徴量算出部512へと送られる。
The
CPU200は、特徴量算出部512を介して、判定データの特徴量を算出する(S822)。特徴量の算出は、特徴量算出部502の場合と同様の特徴量算出方法を用いて算出することができる。算出した判定データの特徴量(判定映像の特徴量)は識別部113へと送られる。
The
CPU200は、識別部113を介して、モデル保存部11aから作成したモデルを読み込み、特徴量算出部112から取得した判定データの特徴量を判定する(S823)。
CPU200は、識別部113による判定結果を表示装置130の表示画面に表示する(S824)。
The
The
本実施形態に係るモデル作成装置500のように、本発明を設備機器の監視システムや、映像による監視システム分野におけるモデル作成装置として構成することもできる。
また、本発明はユーザが逐次、検証データを追加することでモデルを再作成していくことが可能となる。
As in the
Also, according to the present invention, it is possible for the user to re-create a model by sequentially adding verification data.
[第3実施形態]
図11は、本実施形態に係るモデル作成装置900の構成の一例を示す図である。
なお、図6に示すモデル作成装置500との違いは、モデル作成装置900では学習部921がモデル再作成部908を有している点である。また、第1、第2実施形態における各構成と同一の構成については、同一の符号を付してその説明を省略する。
Third Embodiment
FIG. 11 is a diagram showing an example of the configuration of a
A difference from the
学習部921のモデル再作成部908は、領域再分割部507において分割された学習映像と検証映像の両方を用いてモデルを作成する。
モデル作成方法としては、学習映像内の人物602〜605の特徴量を領域再分割部507によって分割したものと検証映像内に入力されている異常発生時の人物708の特徴量に基づいて、「Support Vector Machine」(SVM)などを用いて行うことができる。
The
As a model creation method, based on the feature amount of the
このとき、学習映像のラベルを+1とし、検証映像のラベルを−1とすることでSVMの学習をすることができる。なお、検証映像のデータ数が極端に少ない場合、検証映像に重みを付けて学習してもよいし、学習映像をアンダーサンプリングして学習映像と検証映像のデータ数のバランスを取ってモデルの作成を行なってもよい。モデル作成によって、サポートベクトルとそれぞれの係数と閾値が得られる。 At this time, SVM can be learned by setting the label of the learning image to +1 and the label of the verification image to -1. If the number of verification video data is extremely small, the verification video may be weighted and learned, or the learning video may be undersampled to balance the number of data of the learning video and the verification video to create a model. You may Model creation provides support vectors and their respective coefficients and thresholds.
また、サンプリングにより学習に用いていない学習映像を用いて、異常と誤検知しないか検証を行うことも可能である。また、本発明では、モデル再作成方法についてはSupport Vector Machineに限定するわけではなく、他の方法を用いてモデルを作成してもよい。例えば、オンライン学習方法などを用いて、追加された検証データを逐次学習・更新することも可能である。
このモデル作成においては、各分割された学習データそれぞれに対して検証映像を用いてモデルの学習を行うように構成してもよい。
これにより作成された各領域のモデルは評価部106へと送られ、作成したモデルが異常を検知できるか再度評価される。
Moreover, it is also possible to verify whether it is misdetected as abnormality, using the learning image | video which is not used for learning by sampling. Further, in the present invention, the method of model re-creation is not limited to the Support Vector Machine, and other methods may be used to create a model. For example, it is also possible to sequentially learn and update the added verification data using an online learning method or the like.
In this model creation, learning of the model may be performed using verification videos for each of the divided learning data.
The model of each area created by this is sent to the
[学習部921の処理フロー]
図12は、モデル作成装置900の処理手順の一例を示すフローチャートである。
なお、図9に示す処理は主として学習部921の処理に関するものであり、CPU200により制御される。
また、図12に示すステップS1001〜S1006の処理、ステップS1008、S1010の処理は、図9に示すステップS801〜S806の処理、ステップS808、S810の処理と同じ処理であるため、その説明を省略する。
以下、ステップS1007、S1009、S1011の処理について説明する。
[Processing flow of learning unit 921]
FIG. 12 is a flowchart illustrating an example of the processing procedure of the
The process shown in FIG. 9 mainly relates to the process of the
Further, the processes of steps S1001 to S1006 shown in FIG. 12 and the processes of steps S1008 and S1010 are the same as the processes of steps S801 to S806 and steps S808 and S810 shown in FIG. .
The processes of steps S1007, S1009, and S1011 will be described below.
CPU200は、評価部106を介して、検証映像を異常と判定できるか否かを検証する(S1007)。
CPU200は、領域再分割部507を介して、学習映像と検証映像に基づいて領域の再分割を行う(S1009)。
CPU200は分割した学習映像と検証映像に基づいてモデルの再作成を行なう(S1011)。
なお、モデルの再作成方法としてはSupport Vector Machineを用いて作成することができる。このモデル再作成処理により、各領域でサポートベクトルとそれぞれに対応する係数と閾値が得られ、それらがモデルとなる。再作成された各領域のモデルは評価部106へと送られる。
The
The
The
The model can be re-created using Support Vector Machine. By this model re-creation process, support vectors and coefficients and threshold values corresponding to the support vectors are obtained in each area, and these become models. The model of each re-created area is sent to the
上記説明した実施形態は、本発明をより具体的に説明するためのものであり、本発明の範囲が、これらの例に限定されるものではない。
また、本発明の実施の形態について図面を参照して詳述したが、具体的な構成はその実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計等も含まれる。また、各実施形態は、上記の各実施形態を組み合せて実施してもよい。
The embodiments described above are for more specifically describing the present invention, and the scope of the present invention is not limited to these examples.
Further, although the embodiments of the present invention have been described in detail with reference to the drawings, the specific configuration is not limited to the embodiments, and includes design and the like within the scope of the present invention. In addition, each embodiment may be implemented by combining the above-described embodiments.
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがコンピュータプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium, and one or more processors in a computer of the system or apparatus read out a computer program. It can also be realized by the process to be executed. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.
100・・・モデル作成装置、101・・・学習データ取得部、102、112・・・特徴量算出部、103・・・データ分割部、104・・・モデル作成部、105・・・検証データ取得部、106・・・評価部、107・・・データ再分割部、11a・・・モデル保存部、111・・・判定データ取得部、113・・・識別部、121・・・学習部、122・・・判定部、130・・・表示装置、200・・・CPU、300・・・メモリ。
100 ... model creation device, 101 ... learning data acquisition unit, 102, 112 ... feature value calculation unit, 103 ... data division unit, 104 ... model creation unit, 105 ... verification
Claims (11)
前記センサの出力データを学習データとして取得する学習データ取得手段と、
前記学習データから特徴量を算出する特徴量算出手段と、
前記算出された特徴量に基づいて前記学習データを分割する分割手段と、
前記分割後の学習データを用いてモデルを作成するモデル作成手段と、
前記センサの出力データを検証データとして取得する検証データ取得手段と、
前記特徴量算出手段により算出された前記検証データの特徴量と前記作成されたモデルに基づいて当該検証データの評価を行なう評価手段と、
前記評価の結果に応じて、前記学習データと前記検証データに基づいて当該学習データを再分割する再分割手段と、を有し、
前記モデル作成手段は、前記再分割手段により前記学習データの再分割が行われたときには当該再分割後の学習データを用いて前記モデルを作成することを特徴とする、
情報処理装置。 An information processing apparatus that creates a model that determines whether or not there is an abnormality in output data of a sensor.
Learning data acquisition means for acquiring output data of the sensor as learning data;
Feature amount calculation means for calculating a feature amount from the learning data;
A dividing unit that divides the learning data based on the calculated feature amount;
Model creation means for creating a model using the learning data after the division;
Verification data acquisition means for acquiring output data of the sensor as verification data;
Evaluation means for evaluating the verification data based on the feature amount of the verification data calculated by the feature amount calculation means and the created model;
And re-dividing means for re-dividing the learning data based on the learning data and the verification data according to the result of the evaluation.
The model creating means creates the model using the learning data after the redivision, when the redivision of the learning data is performed by the redivision means.
Information processing device.
請求項1に記載の情報処理装置。 The re-division means calculates the similarity between the learning data and the verification data, and divides the learning data based on the calculated similarity.
An information processing apparatus according to claim 1.
請求項2に記載の情報処理装置。 The similarity may be calculated based on the distance between feature amounts of the learning data and the verification data.
The information processing apparatus according to claim 2.
請求項2に記載の情報処理装置。 The similarity may be calculated using labels of the learning data and the verification data.
The information processing apparatus according to claim 2.
請求項1乃至4いずれか一項に記載の情報処理装置。 The verification data is data including information indicating that an abnormality has occurred in a device to which the sensor is attached.
The information processing apparatus according to any one of claims 1 to 4.
前記学習データ取得手段は、前記撮像データから学習映像を前記学習データとして取得し、
前記検証データ取得手段は、前記撮像データから検証映像を前記検証データとして取得することを特徴とする、
請求項1に記載の情報処理装置。 The output data of the sensor is imaging data,
The learning data acquisition means acquires a learning video as the learning data from the imaging data,
The verification data acquisition unit acquires a verification image as the verification data from the imaging data.
An information processing apparatus according to claim 1.
請求項1乃至6いずれか一項に記載の情報処理装置。 The model creating means creates a model using both the learning data and the verification data.
The information processing apparatus according to any one of claims 1 to 6.
前記センサの出力データを学習データとして取得する工程と、
前記学習データから特徴量を算出する工程と、
前記算出された特徴量に基づいて前記学習データを分割する工程と、
前記分割後の学習データを用いてモデルを作成する工程と、
前記センサの出力データを検証データとして取得する工程と、
前記検証データから特徴量を算出し、算出した結果と前記作成されたモデルに基づいて当該検証データの評価を行なう工程と、
前記評価の結果に応じて、前記学習データと前記検証データに基づいて当該学習データを再分割した場合、当該再分割後の学習データを用いて前記モデルを作成する工程、とを有することを特徴とする、
情報処理装置の制御方法。 A control method of an information processing apparatus for creating a model for determining whether or not there is an abnormality in output data of a sensor,
Acquiring output data of the sensor as learning data;
Calculating a feature amount from the learning data;
Dividing the learning data based on the calculated feature amount;
Creating a model using the learning data after the division;
Acquiring output data of the sensor as verification data;
Calculating a feature amount from the verification data, and evaluating the verification data based on the calculated result and the created model;
And a step of creating the model using the learning data after the redivision, when the learning data is subdivided based on the learning data and the verification data according to the result of the evaluation. And
Control method of information processing apparatus.
前記センサの出力データを学習データとして取得する学習データ取得手段、
前記学習データから特徴量を算出する特徴量算出手段、
前記算出された特徴量に基づいて前記学習データを分割する分割手段、
前記分割後の学習データを用いてモデルを作成するモデル作成手段、
前記センサの出力データを検証データとして取得する検証データ取得手段、
前記特徴量算出手段により算出された前記検証データの特徴量と前記作成されたモデルに基づいて当該検証データの評価を行なう評価手段、
前記評価の結果に応じて、前記学習データと前記検証データに基づいて当該学習データを再分割する再分割手段、として機能させ、
前記再分割手段により前記学習データの再分割が行われたときには当該再分割後の学習データを用いて前記モデルを作成するように機能させることを特徴とする、
コンピュータプログラム。 A computer program for causing a computer to operate as an information processing apparatus that creates a model that determines whether or not there is an abnormality in output data of a sensor,
Learning data acquisition means for acquiring output data of the sensor as learning data;
Feature amount calculation means for calculating a feature amount from the learning data;
A division unit that divides the learning data based on the calculated feature amount;
Model creation means for creating a model using the learning data after the division;
Verification data acquisition means for acquiring output data of the sensor as verification data,
An evaluation unit that evaluates the verification data based on the feature amount of the verification data calculated by the feature amount calculation unit and the created model;
According to the result of the evaluation, it functions as a re-division unit that re-divides the learning data based on the learning data and the verification data,
When the redivision of the learning data is performed by the redivision unit, the learning data after the redivision is used to create the model.
Computer program.
前記センサの出力データを学習データとして取得する学習データ取得手段と、
前記学習データから特徴量を算出する特徴量算出手段と、
前記算出された特徴量に基づいて前記学習データを分割する分割手段と、
前記分割後の学習データを用いてモデルを作成するモデル作成手段と、
前記センサの出力データを検証データとして取得する検証データ取得手段と、
前記特徴量算出手段により算出された前記検証データの特徴量と前記作成されたモデルに基づいて当該検証データの評価を行なう評価手段と、
前記評価の結果に応じて、前記学習データと前記検証データに基づいて当該学習データを再分割する再分割手段と、を有し、
前記モデル作成手段は、前記再分割手段により前記学習データの再分割が行われたときには当該再分割後の学習データを用いて前記モデルを作成することを特徴とする、
モデル作成装置。 A model creation apparatus for creating a model that determines whether or not there is an abnormality in output data of a sensor,
Learning data acquisition means for acquiring output data of the sensor as learning data;
Feature amount calculation means for calculating a feature amount from the learning data;
A dividing unit that divides the learning data based on the calculated feature amount;
Model creation means for creating a model using the learning data after the division;
Verification data acquisition means for acquiring output data of the sensor as verification data;
Evaluation means for evaluating the verification data based on the feature amount of the verification data calculated by the feature amount calculation means and the created model;
And re-dividing means for re-dividing the learning data based on the learning data and the verification data according to the result of the evaluation.
The model creating means creates the model using the learning data after the redivision, when the redivision of the learning data is performed by the redivision means.
Model creation device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017170046A JP2019046278A (en) | 2017-09-05 | 2017-09-05 | Information processor, control method, computer program, storage medium, and model creation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017170046A JP2019046278A (en) | 2017-09-05 | 2017-09-05 | Information processor, control method, computer program, storage medium, and model creation device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019046278A true JP2019046278A (en) | 2019-03-22 |
Family
ID=65814470
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017170046A Pending JP2019046278A (en) | 2017-09-05 | 2017-09-05 | Information processor, control method, computer program, storage medium, and model creation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019046278A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022014682A (en) * | 2020-07-07 | 2022-01-20 | 株式会社日立製作所 | Malfunction detection support apparatus and method thereof |
WO2023120473A1 (en) * | 2021-12-22 | 2023-06-29 | Jfeスチール株式会社 | Normal vector registration device, equipment-abnormality-monitoring system, and equipment-abnormality-monitoring method |
-
2017
- 2017-09-05 JP JP2017170046A patent/JP2019046278A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022014682A (en) * | 2020-07-07 | 2022-01-20 | 株式会社日立製作所 | Malfunction detection support apparatus and method thereof |
WO2023120473A1 (en) * | 2021-12-22 | 2023-06-29 | Jfeスチール株式会社 | Normal vector registration device, equipment-abnormality-monitoring system, and equipment-abnormality-monitoring method |
JP7343078B1 (en) | 2021-12-22 | 2023-09-12 | Jfeスチール株式会社 | Normal vector registration device, equipment abnormality monitoring system, and equipment abnormality monitoring method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108537112B (en) | Image processing apparatus, image processing system, image processing method, and storage medium | |
CN108292362B (en) | Gesture recognition for cursor control | |
JP7282851B2 (en) | Apparatus, method and program | |
JP2016099941A (en) | System and program for estimating position of object | |
JP6397379B2 (en) | CHANGE AREA DETECTION DEVICE, METHOD, AND PROGRAM | |
JP6919990B2 (en) | Online recognition device, online recognition method, and setting screen used for it | |
JP6590609B2 (en) | Image analysis apparatus and image analysis method | |
JP2016099982A (en) | Behavior recognition device, behaviour learning device, method, and program | |
JP5936561B2 (en) | Object classification based on appearance and context in images | |
JP2018120283A (en) | Information processing device, information processing method and program | |
CN110516707B (en) | Image labeling method and device and storage medium thereof | |
JP2018181273A (en) | Image processing apparatus, method thereof, and program | |
JPWO2018154709A1 (en) | Motion learning device, skill discrimination device and skill discrimination system | |
JP4925120B2 (en) | Object recognition apparatus and object recognition method | |
EP3410396B1 (en) | Moving object tracking apparatus, moving object tracking method, and computer-readable medium | |
JP2016212784A (en) | Image processing apparatus and image processing method | |
JP5746550B2 (en) | Image processing apparatus and image processing method | |
JP7001150B2 (en) | Identification system, model re-learning method and program | |
JP2019046278A (en) | Information processor, control method, computer program, storage medium, and model creation device | |
JP5047658B2 (en) | Camera device | |
CN115767424A (en) | Video positioning method based on RSS and CSI fusion | |
JP2014203133A (en) | Image processing device and image processing method | |
WO2020054058A1 (en) | Identification system, parameter value update method, and program | |
JP6069095B2 (en) | Image identification device, image identification method, and image identification program | |
Malik et al. | A Simplified Skeleton Joints Based Approach For Human Action Recognition |