JP2019046278A - Information processor, control method, computer program, storage medium, and model creation device - Google Patents

Information processor, control method, computer program, storage medium, and model creation device Download PDF

Info

Publication number
JP2019046278A
JP2019046278A JP2017170046A JP2017170046A JP2019046278A JP 2019046278 A JP2019046278 A JP 2019046278A JP 2017170046 A JP2017170046 A JP 2017170046A JP 2017170046 A JP2017170046 A JP 2017170046A JP 2019046278 A JP2019046278 A JP 2019046278A
Authority
JP
Japan
Prior art keywords
data
model
learning data
learning
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017170046A
Other languages
Japanese (ja)
Inventor
健二 塚本
Kenji Tsukamoto
健二 塚本
克彦 森
Katsuhiko Mori
克彦 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017170046A priority Critical patent/JP2019046278A/en
Publication of JP2019046278A publication Critical patent/JP2019046278A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Testing And Monitoring For Control Systems (AREA)

Abstract

To provide an information processor capable of further improving the determination accuracy of a model.SOLUTION: A model creation device 100 includes: a learning data acquisition part 101 for acquiring sensor output data as learning data; a feature amount calculation part 102 for calculating a feature amount from the learning data; a data division part 103 for dividing the learning data based on the calculated feature amount; and a model creation part 104 for creating a model using the learning data after division. Additionally the model creation device includes: a verification data acquisition part 105 for acquiring sensor output data as verification data; an evaluation part 106 for evaluating the verification data based on the feature amount of the verification data and the created model; and a data redivision part 107 for redividing the learning data based on the learning data and the verification data according to the result of the evaluation. The model creation part creates a model using the learning data after redivision when the redivision of learning data is performed.SELECTED DRAWING: Figure 1

Description

本発明は、センサデータや映像データに基づいてモデルを作成する技術に関する。   The present invention relates to a technology for creating a model based on sensor data and video data.

従来、各種センサからセンサデータや映像データを取得して、これらデータに異常があるか否かを判定するモデル作成手法が検討されている。データに異常があるか否かを判定するためのモデル作成の手法の一つに、正常時に収集されたデータからモデルを作成し、判定対象のデータと作成したモデルとを比較して判定するものがある。   2. Description of the Related Art Conventionally, a model creation method has been studied in which sensor data and video data are acquired from various sensors and whether or not there is an abnormality in these data. One of the model creation methods for determining whether there is an abnormality in the data, creating a model from the data collected at normal time, and comparing and determining the data to be determined and the created model There is.

例えば、特許文献1に開示されたモデル作成方法では、センサ信号を介して特徴ベクトルを抽出して蓄積することで学習データを生成する。そして、この学習データの特徴ベクトルをクラスタリングによって分割してモデルを作成する、というものである。
また、非特許文献1では、映像データ中の移動物体を抽出し、抽出された移動物体領域の位置・大きさ・動きを特徴量としてクラスタリングを行う。そして、映像データのフレームの各ピクセルにおける該クラスタの出現確率に基づいて、画像を複数の領域に分割して各領域でモデルを作成する、というものである。
このように、学習データの分布をクラスタリングにより分割してモデルを作成することで、モデルの判別精度を向上させることができる。
For example, in the model creation method disclosed in Patent Document 1, learning data is generated by extracting and storing feature vectors via sensor signals. Then, a feature vector of this learning data is divided by clustering to create a model.
In Non-Patent Document 1, moving objects in video data are extracted, and clustering is performed using the position, size, and motion of the extracted moving object region as a feature amount. Then, based on the appearance probability of the cluster in each pixel of the frame of the video data, the image is divided into a plurality of areas and a model is created in each area.
As described above, the classification accuracy of the model can be improved by dividing the distribution of learning data by clustering to create the model.

特開2014−032657号公報JP, 2014-032657, A

J.Li,S.Gong,T.Xiang,“Scene Segmentation for Behaviour Correlation”,In Proccedings of European Conference on Computer Vision(ECCV),Marseille,France,2008.J. Li, S. Gong, T .; Xiang, "Scene Segmentation for Behavior Correlation", In Proceedings of the European Conference on Computer Vision (ECCV), Marseille, France, 2008.

しかしながら、これらの方法では特定クラスの学習データのみを用いてモデルを作成している。そのため、学習データと類似する特定外クラスデータを判別することは難しい。 このように、特定クラスの学習データのみを用いたモデル作成において特定外クラスデータが得られた場合、そのデータを学習へ活用することができていない、という課題がある。   However, in these methods, a model is created using only a specific class of training data. Therefore, it is difficult to determine non-specific class data similar to learning data. As described above, when non-specific class data is obtained in model creation using only learning data of a specific class, there is a problem that the data can not be utilized for learning.

本発明は、モデルの判定精度をより向上させることができる情報処理装置を提供することを、主たる目的とする。   The main object of the present invention is to provide an information processing apparatus capable of further improving the determination accuracy of a model.

本発明は、センサの出力データに異常があるか否かを判定するモデルを作成する情報処理装置であって、前記センサの出力データを学習データとして取得する学習データ取得手段と、前記学習データから特徴量を算出する特徴量算出手段と、前記算出された特徴量に基づいて前記学習データを分割する分割手段と、前記分割後の学習データを用いてモデルを作成するモデル作成手段と、前記センサの出力データを検証データとして取得する検証データ取得手段と、前記特徴量算出手段により算出された前記検証データの特徴量と前記作成されたモデルに基づいて当該検証データの評価を行なう評価手段と、前記評価の結果に応じて、前記学習データと前記検証データに基づいて当該学習データを再分割する再分割手段と、を有し、前記モデル作成手段は、前記再分割手段により前記学習データの再分割が行われたときには当該再分割後の学習データを用いて前記モデルを作成することを特徴とする。   The present invention is an information processing apparatus for creating a model for determining whether or not there is an abnormality in output data of a sensor, and from learning data acquisition means for acquiring output data of the sensor as learning data, and from the learning data Feature quantity calculation means for calculating feature quantity, division means for dividing the learning data based on the calculated feature quantity, model generation means for preparing a model using the learning data after the division, and the sensor Verification data acquisition means for acquiring the output data of the data as verification data, and evaluation means for evaluating the verification data based on the feature amount of the verification data calculated by the feature amount calculation means and the created model. And re-dividing means for re-dividing the learning data based on the learning data and the verification data according to the result of the evaluation, and the model Forming means is characterized by creating the model by using the learning data after the subdivision when the subdivision of the learning data is performed by the subdivision means.

本発明によれば、モデルの判定精度をより向上させることが可能となる。   According to the present invention, it is possible to further improve the determination accuracy of the model.

第1実施形態に係るモデル作成装置の構成の一例を示す図。BRIEF DESCRIPTION OF THE DRAWINGS The figure which shows an example of a structure of the model production apparatus which concerns on 1st Embodiment. 2つのセンサの出力値を各要素として特徴ベクトルとした場合の特徴量の分布の一例を示す図。The figure which shows an example of distribution of the feature-value at the time of using the output value of two sensors as a feature vector as each element. 図2に示す特徴量の分布に対する再分割後の分布の一例を示す図。FIG. 3 is a view showing an example of a distribution after redivision for the distribution of feature amounts shown in FIG. 2; モデル作成装置の学習部の処理に関する処理手順の一例を示すフローチャート。The flowchart which shows an example of the process sequence regarding the process of the learning part of a model production apparatus. モデル作成装置の判定部の処理に関する処理手順の一例を示すフローチャート。6 is a flowchart illustrating an example of a processing procedure related to processing of a determination unit of the model generation device. 第2実施形態に係るモデル作成装置の構成の一例を示す図。A figure showing an example of composition of a model creation device concerning a 2nd embodiment. 学習映像の一例を示す図。The figure which shows an example of a learning image. 検証映像の一例を示す図。The figure which shows an example of a verification image. モデル作成装置の学習部の処理に関する処理手順の一例を示すフローチャート。The flowchart which shows an example of the process sequence regarding the process of the learning part of a model production apparatus. モデル作成装置の判定部の処理に関する処理手順の一例を示すフローチャート。6 is a flowchart illustrating an example of a processing procedure related to processing of a determination unit of the model generation device. 第3実施形態に係るモデル作成装置の構成の一例を示す図。A figure showing an example of composition of a model creation device concerning a 3rd embodiment. モデル作成装置の学習部の処理に関する処理手順の一例を示すフローチャート。The flowchart which shows an example of the process sequence regarding the process of the learning part of a model production apparatus.

以下、添付図面を参照して、本発明を適用した情報処理装置をモデル作成装置として機能させる場合を例に挙げて、各実施形態について説明する。
以下に説明するモデル作成装置は、特定クラスの学習データを用いて作成したモデルを評価して、その評価結果に基づいてモデルを再作成する。
また、各実施形態の説明においては、特定クラスを正常データ、特定外クラスを異常データとして記述するが、本発明は正常・異常の2クラスの判別に限定するものでなく、他のクラス判別や多クラス判別に用いてもよい。
Hereinafter, each embodiment will be described with reference to the accompanying drawings, taking an information processing apparatus to which the present invention is applied as a model creating apparatus as an example.
The model creating apparatus described below evaluates a model created using learning data of a specific class, and recreates the model based on the evaluation result.
In the description of each embodiment, a specific class is described as normal data, and a non-specific class is described as abnormal data. However, the present invention is not limited to the discrimination of two classes of normal and abnormal, and other class discrimination and You may use for multiclass discrimination.

[第1実施形態]
図1は、本実施形態に係るモデル作成装置100の構成の一例を示す図である。
モデル作成装置100は、主として学習部121、判定部122を含んで構成される。また、モデル保存部11a、表示装置130を有する。モデル作成装置100は、CPU200、メモリ300を有する。なお、CPU200は、メモリ300(例えば、RAM)に記憶されたプログラムなどを読み出してモデル作成装置100の動作を制御する。
また、表示装置130は、情報処理装置(例えば、PC)あるいはモデル作成装置に接続されたディスプレイの他にも、ネットワークを介して接続された遠隔地にあるPCやタブレットのディスプレイなどであってもよい。
First Embodiment
FIG. 1 is a diagram showing an example of the configuration of a model creating apparatus 100 according to the present embodiment.
The model creation device 100 mainly includes a learning unit 121 and a determination unit 122. Further, it has a model storage unit 11 a and a display device 130. The model creation device 100 has a CPU 200 and a memory 300. The CPU 200 reads a program or the like stored in the memory 300 (for example, a RAM) to control the operation of the model creating apparatus 100.
In addition to the display connected to the information processing apparatus (for example, PC) or the model creation apparatus, the display apparatus 130 may be a display of a PC or tablet at a remote place connected via a network. Good.

学習部121は、学習データ取得部101、特徴量算出部102、データ分割部103、モデル作成部104、検証データ取得部105、評価部106、データ再分割部107、を含んで構成される。
判定部122は、判定データ取得部111、特徴量算出部112、識別部113を含んで構成される。
The learning unit 121 includes a learning data acquisition unit 101, a feature quantity calculation unit 102, a data division unit 103, a model generation unit 104, a verification data acquisition unit 105, an evaluation unit 106, and a data redivision unit 107.
The determination unit 122 includes a determination data acquisition unit 111, a feature quantity calculation unit 112, and an identification unit 113.

[学習部121の機能構成]
学習部121が有する学習データ取得部101は、機器に取り付けられたセンサの出力データ(出力値)を学習データとして取得する。ここで、センサは、熱センサ、角度センサ、振動センサなどの各種センサを用いることが可能である。取得された学習データは特徴量算出部102へ出力される。
特徴量算出部102は、学習データ取得部101を介して受け付けたデータから特徴量を算出する。
なお、ここでは特徴量は各センサの出力データ(出力値)をベクトルの各要素とする多次元の特徴ベクトルとする。特徴ベクトルは、大きさが1になるように正規化してもよい。また、その他の特徴量として、各センサの出力を時系列のある区間でまとめて離散ウェーブレット変換等の変換を適用して特徴ベクトルとしてもよい。
以下、特徴ベクトルについて説明する。
[Functional configuration of learning unit 121]
The learning data acquisition unit 101 included in the learning unit 121 acquires output data (output value) of a sensor attached to the device as learning data. Here, as the sensor, various sensors such as a heat sensor, an angle sensor, and a vibration sensor can be used. The acquired learning data is output to the feature amount calculation unit 102.
The feature amount calculation unit 102 calculates a feature amount from the data received via the learning data acquisition unit 101.
Here, the feature amount is a multi-dimensional feature vector in which output data (output value) of each sensor is an element of the vector. The feature vector may be normalized to have a magnitude of one. Further, as other feature quantities, outputs of the respective sensors may be put together in a certain section of the time series and transformation such as discrete wavelet transform may be applied as a feature vector.
The feature vector will be described below.

図2は、2つのセンサの出力データ(出力値)を各要素として特徴ベクトルとした場合の特徴量の分布の一例を示す図である。
図2中において「○」で示す学習データの特徴量201が1個の特徴ベクトルに対応する。また、図2中に示しているクラスタ情報202、クラスタ情報203、「×」で示す検証データの特徴量204については後述する。抽出した特徴量はデータ分割部103、あるいは評価部106へ出力される。
FIG. 2 is a diagram showing an example of the distribution of feature amounts when output data (output values) of two sensors are used as feature vectors.
Feature amounts 201 of learning data indicated by “o” in FIG. 2 correspond to one feature vector. Further, the cluster information 202, the cluster information 203, and the feature amount 204 of verification data indicated by “x” illustrated in FIG. 2 will be described later. The extracted feature amount is output to the data division unit 103 or the evaluation unit 106.

図1の説明に戻り、データ分割部103は、特徴量算出部102を介して算出された特徴量を用いて学習データの分割を行なう。データの分割方法としては、例えば特徴空間上における学習データの分布に対して混合正規分布を当てはめることによりクラスタリングを行ないデータを分割することができる。
また、混合正規分布のクラスタ数は、所定の離散値を設定するか、離散値の候補の中から赤池情報量基準などを用いてデータに合う候補数を選択してもよい。
また、混合正規分布によるクラスタリングの他にk近傍法で所定離散値のクラスタ数Cにデータを分割することも可能であり、またこれら以外の公知の方法を用いて分割を行ってもよい。
データ分割によって、図2に示すように、学習データをクラスタ情報202、203それぞれに属する学習データへと分割することができる。なお、各学習データの特徴量201とクラスタ情報202、203はモデル作成部104へと出力される。
Returning to the description of FIG. 1, the data dividing unit 103 divides learning data using the feature amount calculated via the feature amount calculating unit 102. As a data division method, for example, clustering can be performed by applying a mixed normal distribution to the distribution of learning data on the feature space, and the data can be divided.
Further, the number of clusters in the mixed normal distribution may be set to a predetermined discrete value, or the number of candidate discrete values may be selected from the candidates for the data matching using the Akaike information amount standard or the like.
Also, in addition to clustering by mixed normal distribution, it is also possible to divide data into a cluster number C of a predetermined discrete value by the k-neighbor method, or division may be performed using other known methods.
By data division, as shown in FIG. 2, learning data can be divided into learning data belonging to each of cluster information 202 and 203. The feature amount 201 of each learning data and the cluster information 202 and 203 are output to the model generation unit 104.

モデル作成部104は、学習データの特徴量201をクラスタ情報202、203毎に分けてモデルを作成する。モデルの作成方法としては、例えばデータ分割部103において分割された各学習データに対して、特徴空間上で当てはめた混合正規分布の重心位置と分散共分散を正常の範囲としてモデルの作成を行うことができる。
また、混合正規分布以外には、分割した学習データに「One―Class Support Vector Machine」を適用して、学習データの中からサポートベクトルとそれぞれのサポートベクトルの重みを学習する。この学習したサポートベクトルとそれぞれの係数と閾値を判別モデルとしてもよい。
また、ここで述べている「モデル」とは、特徴空間上における学習データの分布を表すものをモデル化したものであり、該分布内を正常、分布外を異常と判別可能なものであればよい。得られたモデルは評価部106へと出力される。
The model creating unit 104 creates a model by dividing the feature amount 201 of learning data into cluster information 202 and 203. As a method of creating a model, for example, with respect to each learning data divided by the data dividing unit 103, a model is created with the barycentric position and the variance covariance of the mixed normal distribution fitted on the feature space as a normal range. Can.
In addition to the mixed normal distribution, “One-Class Support Vector Machine” is applied to the divided learning data to learn the support vector and the weight of each support vector from the learning data. The learned support vector, the respective coefficients and the threshold may be used as a discriminant model.
Further, the “model” described here is a model that represents the distribution of learning data in the feature space, as long as it can be determined that the distribution is normal and the outside is abnormal. Good. The obtained model is output to the evaluation unit 106.

検証データ取得部105は、学習データ取得部101と同様に、機器に取り付けた各種センサからセンサデータを取得する。そして、取得したデータに対してユーザは、異常が発生している時のデータ(異常データ)を検証データとして選定するものとする。
検証データの選定方法としては、例えば異常が発生した時のセンサデータをプロットしたものを表示画面上に表示して、ユーザが表示画面を介して指定することで選定可能に構成することができる。なお、選定方法はこれ以外の方法を用いてもよい。
選定した検証データは特徴量算出部102へと出力され、特徴量算出部102において、図2中において「×」で示す検証データの特徴量204が算出される。算出された特徴量204は評価部106へと出力される。
Similar to the learning data acquisition unit 101, the verification data acquisition unit 105 acquires sensor data from various sensors attached to the device. Then, for the acquired data, the user selects data (abnormal data) when an abnormality occurs as verification data.
As a method of selecting verification data, for example, it is possible to configure selection by displaying a plot of sensor data when an abnormality occurs on the display screen, and designating it through the display screen by the user. The selection method may use other methods.
The selected verification data is output to the feature amount calculation unit 102, and the feature amount calculation unit 102 calculates the feature amount 204 of the verification data indicated by “x” in FIG. The calculated feature quantity 204 is output to the evaluation unit 106.

評価部106は、検証データの特徴量204とモデル作成部104により作成されたモデルに基づいて、当該モデルが検証データの特徴量204を異常と判定できるか否かを評価する。判定方法としては、作成したモデルが混合正規分布である場合、各混合正規分布の重心位置と分散共分散を用いて、検証データとのマハラノビス距離を以下に示す式1を用いて算出する。   The evaluation unit 106 evaluates, based on the feature amount 204 of the verification data and the model created by the model creation unit 104, whether or not the model can determine the feature amount 204 of the verification data as abnormal. As a determination method, when the created model is a mixture normal distribution, the Mahalanobis distance with the verification data is calculated using Equation 1 shown below, using the barycentric position and the variance covariance of each mixture normal distribution.

Figure 2019046278
Figure 2019046278

ここで、

Figure 2019046278
:検証データの特徴量、μ:正規分布の重心位置、Σ:正規分布の分散共分散行列であるとする。評価部106は、各混合正規分布とのマハラノビス距離が最小となるものを選択し、距離が閾値以下であれば正常と判定し、閾値以上であれば異常と判定する。
また、モデルに「One−Class Support Vector Machine」を用いている場合、学習したサポートベクトルとそれぞれの係数とペナルティ項を用いて以下に示す式2を用いて評価する here,
Figure 2019046278
: Feature amount of verification data, μ: center of gravity of normal distribution, Σ: variance-covariance matrix of normal distribution. The evaluation unit 106 selects one that minimizes the Mahalanobis distance with each mixed normal distribution, determines that it is normal if the distance is equal to or less than a threshold, and determines that it is abnormal if it is equal to or greater than the threshold.
In addition, when “One-Class Support Vector Machine” is used for the model, evaluation is performed using Equation 2 shown below using the learned support vectors, respective coefficients and penalty terms.

Figure 2019046278
Figure 2019046278

ここで、w:学習した係数、

Figure 2019046278
:検証データの特徴量、
Figure 2019046278
:写像関数、
Figure 2019046278
:学習したペナルティ項、sign():符号関数であるとする。この結果f(x)が+1であれば正常と判定され、−1であれば異常と判定される。 Where w: learned coefficient,
Figure 2019046278
: Characteristic amount of verification data,
Figure 2019046278
: Mapping function,
Figure 2019046278
: Learned penalty term, sign (): It is assumed that it is a sign function. As a result, if f (x) is +1, it is judged as normal, and if it is -1, it is judged as abnormal.

評価部106が検証データを「異常」と判定した場合、異常であることが正しく判定できている。そのため、作成したモデルはモデル保存部11aへと出力され保存される。
一方、検証データを異常と判定できなかった場合、学習データと検証データがデータ再分割部107へと出力される。
When the evaluation unit 106 determines that the verification data is "abnormal", it can be correctly determined that the verification data is abnormal. Therefore, the created model is output to the model storage unit 11a and stored.
On the other hand, when the verification data can not be determined to be abnormal, the learning data and the verification data are output to the data redivision unit 107.

データ再分割部107は、まず、学習データと検証データを用いて学習データと検証データとの類似度の算出を行なう。類似度の算出には以下に示す式3を用いることができる。   The data re-division unit 107 first calculates the degree of similarity between the learning data and the verification data using the learning data and the verification data. Equation 3 shown below can be used to calculate the degree of similarity.

Figure 2019046278
Figure 2019046278

ここで、

Figure 2019046278
:学習データの特徴量、
Figure 2019046278
:検証データの特徴量、
Figure 2019046278
:スケールファクター、
Figure 2019046278
:距離関数であるとする。この式3では、選択した2つの学習データの特徴量の距離と比べて相対的により近い距離で検証データ204の特徴量がある場合、2つの学習データの類似度を0とするようになっている。 here,
Figure 2019046278
: Feature amount of learning data,
Figure 2019046278
: Characteristic amount of verification data,
Figure 2019046278
: Scale factor,
Figure 2019046278
: Suppose that it is a distance function. In this formula 3, when there is a feature amount of the verification data 204 at a distance relatively close to the distance between the feature amounts of the two selected learning data, the similarity between the two learning data is set to 0. There is.

次に、算出した類似度を用いて、対角行列

Figure 2019046278
と、正規化類似度行列
Figure 2019046278
を算出し、クラスタ数C(所定の離散値)を設定する。また、クラスタ数Cは赤池情報量基準などを算出することにより決定してもよい。
次に、正規化類似度行列Lの固有値・固有ベクトルを算出し、行列
Figure 2019046278
を作成する。次に、Xの行ベクトルを正規化した行列
Figure 2019046278
を作成する。
次に、
Figure 2019046278
のn本のベクトルに対してk近傍法を適用して、クラスタ番号cを割り当てる。
次に、
Figure 2019046278
の第i行のベクトルに割り当てられたクラスタ番号cを、特徴ベクトル
Figure 2019046278
のクラスタ番号cとする。 Next, using the calculated similarity, the diagonal matrix
Figure 2019046278
And the normalized similarity matrix
Figure 2019046278
Is calculated, and the number of clusters C (predetermined discrete value) is set. Further, the number of clusters C may be determined by calculating the Akaike information amount standard or the like.
Next, the eigenvalues and eigenvectors of the normalized similarity matrix L are calculated.
Figure 2019046278
Create Next, a matrix of normalized row vectors of X
Figure 2019046278
Create
next,
Figure 2019046278
The cluster number c is assigned by applying the k-nearest neighbor method to n vectors of.
next,
Figure 2019046278
The cluster number c assigned to the vector of the i-th row of, the feature vector
Figure 2019046278
Cluster number c.

図3は、図2に示す特徴量の分布に対する再分割後の分布の一例を示す図である。
図3に示すように、データ再分割部107によるデータ再分割により検証データの特徴ベクトル204を含まないように学習データの特徴ベクトル201がクラスタリングされ、学習データはクラスタ情報203、305、306それぞれに再分割されている。クラスタ情報203、305、306それぞれに再分割された学習データ201はモデル作成部104へと出力され、再度モデルの作成が行なわれる。
FIG. 3 is a diagram showing an example of the distribution after redivision for the distribution of the feature shown in FIG.
As shown in FIG. 3, the feature vectors 201 of learning data are clustered so as not to include the feature vector 204 of verification data by data redivision by the data redivision unit 107, and the learning data is divided into cluster information 203, 305 and 306 respectively. It has been subdivided. The learning data 201 re-divided into each of the cluster information 203, 305, and 306 is output to the model creating unit 104, and the model is created again.

また、複数の検証データが得られている場合、学習データと複数の検証データに基づいて、式3を用いて類似度を算出する。そして、既知の局所フィッシャー判別分析(Local Fisher Discriminant Analysis:LFDA)を用いて正常データと検証データを分離することも可能である。
なお、以下に示すように、局所フィッシャー判別分析(式6)では、学習データと検証データを用いて局所クラス内散布行列(式4)と局所クラス間散布行列(式5)を求める。
When a plurality of verification data are obtained, the similarity is calculated using Equation 3 based on the learning data and the plurality of verification data. Then, it is possible to separate normal data and verification data using known Local Fisher Discriminant Analysis (LFDA).
As shown below, in the local Fisher discriminant analysis (equation 6), a local intra-class scatter matrix (equation 4) and a local inter-class scatter matrix (equation 5) are determined using learning data and verification data.

Figure 2019046278
Figure 2019046278

Figure 2019046278
Figure 2019046278

Figure 2019046278
Figure 2019046278

この固有値・固有ベクトルを算出することで、次元削減をしつつ学習データと検証データを分割することができる。また、本発明においては、データ再分割方法は上記の方法に限定するわけではなく、これら以外の方法を用いてデータを分割してもよい。
分割されたデータはモデル作成部104へと出力され、再度分割した学習データを使ってモデルの作成が行なわれる。
By calculating the eigenvalues and eigenvectors, it is possible to divide learning data and verification data while performing dimensional reduction. Further, in the present invention, the data re-division method is not limited to the above method, and data may be divided using methods other than these.
The divided data is output to the model generation unit 104, and the divided learning data is used to generate a model.

[判定部122の機能構成]
判定部122が有する判定データ取得部111は、学習データ取得部101と同様に、機器に取り付けた各種センサの出力値を判定データとして取得する。取得した判定データは特徴量算出部112へと出力される。
[Functional Configuration of Determination Unit 122]
The determination data acquisition unit 111 of the determination unit 122 acquires, as determination data, output values of various sensors attached to the device, as in the learning data acquisition unit 101. The acquired determination data is output to the feature amount calculation unit 112.

特徴量算出部112は、取得した判定データから特徴量を算出する。特徴量算出方法については特徴量算出部102と同様の処理により算出することが可能であるため、ここでの説明は省略する。算出した特徴量は識別部113へと出力される。   The feature amount calculation unit 112 calculates a feature amount from the acquired determination data. The feature amount calculation method can be calculated by the same process as that of the feature amount calculation unit 102, and thus the description thereof is omitted here. The calculated feature amount is output to the identification unit 113.

識別部113は、モデル保存部11aから作成したモデルを取得し、特徴量算出部112から取得した判定データの特徴量を判定する。
判定方法としては、例えばモデルが混合正規分布の場合、判定データの特徴量に対して混合正規分布の重心位置との距離が最も短い混合正規分布を選択し、その混合正規分布とのマハラノビス距離(式1参照)を算出し、距離が閾値以下であれば「正常」と判定する。また、距離が閾値以上であれば「異常」と判定する。
また、作成したモデルが「One−Class Support Vector Machine」の場合、判定データの特徴量に対して先述した数2を適用し、その結果が+1であれば「正常」と判定する。また、結果−1であれば「異常」と判定する。識別部113によって判定された判定結果は、表示装置130に出力される。
The identification unit 113 acquires the model created from the model storage unit 11 a, and determines the feature amount of the determination data acquired from the feature amount calculation unit 112.
As the determination method, for example, when the model is a mixture normal distribution, a mixture normal distribution having the shortest distance to the center of gravity of the mixture normal distribution with respect to the feature amount of the determination data is selected, and the Mahalanobis distance with the mixture normal distribution ( Formula 1) is calculated, and if the distance is equal to or less than the threshold value, it is determined as "normal". If the distance is equal to or greater than the threshold value, it is determined as "abnormal".
When the created model is "One-Class Support Vector Machine", the above-described equation 2 is applied to the feature amount of the determination data, and when the result is +1, it is determined as "normal". If the result is -1, it is determined as "abnormal". The determination result determined by the identification unit 113 is output to the display device 130.

[学習部121の処理フロー]
図4は、モデル作成装置100の処理手順の一例を示すフローチャートである。
なお、図4に示す処理は主として学習部121の処理に関するものであり、CPU200により制御される。
[Processing flow of learning unit 121]
FIG. 4 is a flowchart showing an example of the processing procedure of the model creating apparatus 100.
The process shown in FIG. 4 mainly relates to the process of the learning unit 121, and is controlled by the CPU 200.

CPU200は、学習データ取得部101を介して、学習データを取得する(S401)。
取得方法としては、例えば機器に取り付けられているセンサからデータを取得して学習データとしてもよいし、保存されているHDDなどからセンサデータを取得して学習データとしてもよい。取得した学習データは特徴量算出部102へと送られる。
The CPU 200 acquires learning data via the learning data acquisition unit 101 (S401).
As an acquisition method, for example, data may be acquired from a sensor attached to a device and used as learning data, or sensor data may be acquired as a learning data from a stored HDD or the like. The acquired learning data is sent to the feature amount calculation unit 102.

CPU200は、取得した学習データから当該学習データの特徴量を算出する(S402)。特徴量の算出は、各センサの出力値を要素とした特徴ベクトルに基づいて特徴量を算出してもよい。算出した特徴量201はデータ分割部103へと送られる。   The CPU 200 calculates the feature amount of the learning data from the acquired learning data (S402). The feature amount may be calculated based on a feature vector having the output value of each sensor as an element. The calculated feature amount 201 is sent to the data dividing unit 103.

CPU200は、データ分割部103を介して、学習データの特徴量201に基づいて学習データの分割を行なう(S403)。
学習データの分割には、特徴空間上で特徴量の分布に対して混合正規分布を当てはめて、学習データがどの正規分布に属するかで分割することができる。その他にもクラスタ数C(所定の離散値)としてk近傍法によるクラスタリングを行なうことでデータを分割することができる。
この処理により、学習データはクラスタ情報202内のデータと、クラスタ情報203内のデータへと分割される。分割された学習データに係る情報はモデル作成部104へと送られる。
The CPU 200 divides learning data based on the feature amount 201 of learning data via the data dividing unit 103 (S403).
In dividing the learning data, a mixed normal distribution can be applied to the distribution of the feature amount on the feature space, and the learning data can be divided according to which normal distribution. In addition, data can be divided by performing clustering using the k-neighbor method with the number of clusters C (predetermined discrete value).
By this processing, the learning data is divided into data in the cluster information 202 and data in the cluster information 203. Information related to the divided learning data is sent to the model generation unit 104.

CPU200は、データ分割部103、データ再分割部108を介して分割された学習データに基づいて、各分割データに対するモデルの作成を行なう(S404)。
モデルの作成方法としては、例えばデータ分割部103で求めた混合正規分布の重心位置と分散共分散を用いてモデルとしてもよい。また、混合正規分布の他に、分割したデータ毎に「One−Class Support Vector Machine」を用いてサポートベクトルとそれぞれの係数と閾値を算出し、それらをモデルとしてもよい。
作成したモデルは評価部106へと送られる。
The CPU 200 creates a model for each divided data based on the learning data divided by the data division unit 103 and the data redivision unit 108 (S404).
As a method of creating a model, for example, the barycentric position and variance covariance of the mixed normal distribution determined by the data dividing unit 103 may be used as a model. Further, in addition to the mixed normal distribution, a support vector, respective coefficients and threshold values may be calculated using “One-Class Support Vector Machine” for each divided data, and these may be used as a model.
The created model is sent to the evaluation unit 106.

CPU200は、検証データ取得部105を介して、検証データを取得する(S405)。検証データは、機器に取り付けた各種センサから検知結果を取得し、ユーザが機器に異常が発生した時のデータを選択するようにしてもよい。取得した検証データは特徴量算出部102へと送られる。   The CPU 200 acquires verification data via the verification data acquisition unit 105 (S405). The verification data may acquire detection results from various sensors attached to the device, and the user may select data when an abnormality occurs in the device. The acquired verification data is sent to the feature amount calculation unit 102.

CPU200は、特徴量算出部102を介して、検証データの特徴量204を算出する(S406)。なお、検証データの特徴量算出は、学習データの特徴量を算出する方法と同じ方法を用いて算出することができる。算出した検証データの特徴量204は評価部106へと送られる。   The CPU 200 calculates the feature amount 204 of the verification data via the feature amount calculation unit 102 (S406). Note that the feature amount calculation of verification data can be calculated using the same method as the method of calculating the feature amount of learning data. The feature amount 204 of the calculated verification data is sent to the evaluation unit 106.

CPU200は、評価部106を介して、検証データの特徴量204を異常と判定できるか否かを検証する(S407)。
検証方法としては、混合正規分布(クラスタ情報202および203)を用いて、判定データと各正規分布の重心位置との距離が最も近い正規分布202(クラスタ情報202)を選択する。選択した正規分布202の重心位置と分散共分散を用いて、判定データの特徴量204とのマハラノビス距離を先述した式1を用いて算出する。CPU200は、算出した距離が閾値以内であれば「正常」と判定する。また、閾値以上であれば「異常」と判定する。
The CPU 200 verifies whether the feature quantity 204 of the verification data can be determined to be abnormal through the evaluation unit 106 (S407).
As a verification method, using a mixed normal distribution (cluster information 202 and 203), the normal distribution 202 (cluster information 202) having the closest distance between the determination data and the barycentric position of each normal distribution is selected. The Mahalanobis distance with the feature quantity 204 of the determination data is calculated using the equation 1 described above, using the center of gravity position and the variance covariance of the selected normal distribution 202. The CPU 200 determines “normal” if the calculated distance is within the threshold. If it is equal to or higher than the threshold, it is determined as "abnormal".

CPU200は、ステップS407の処理において検証データの判定結果が「異常」と判定されたか否かを識別する(S408)。
検証データが異常と判定された場合(S408:Yes)、ステップS410の処理に進む。また、そうでない場合(S408:No)、つまり検証データが「異常」であると判定されなかった場合、CPU200は、学習データの特徴量201と検証データの特徴量204をデータ再分割部107へと出力する。そして、ステップS409の処理に進む。
The CPU 200 determines whether or not the determination result of the verification data is determined as “abnormal” in the process of step S407 (S408).
If it is determined that the verification data is abnormal (S408: Yes), the process proceeds to step S410. If not (S408: No), that is, if it is not determined that the verification data is "abnormal", the CPU 200 sends the feature amount 201 of learning data and the feature amount 204 of verification data to the data redivision unit 107. And output. Then, the process proceeds to step S409.

CPU200は、データ再分割部107を介して、学習データの特徴量201と検証データの特徴量204に基づいてデータの再分割を行なう(S409)。
データの再分割処理方法としては、例えば先述した式3を用いてデータ間の類似度を算出する。その際、検証データを類似度算出の条件に用いる。求めた類似度に基づいて固有値・固有ベクトルを算出し、固有値の上位C個を対角要素に並べた行列を生成し、その行ベクトルをk近傍法でクラスタリングする。そして、i番目の行に割り当てられたクラスタリング結果をもとに学習データを分割する。
学習データ201とクラスタリング結果であるクラスタ情報203、305、306(図3参照)は再度モデル作成部104へと送られる。CPU200は、ステップS404へと戻り、再度モデルの作成を行う。
CPU200は、作成されたモデルをモデル保存部11aに保存する(S410)。
The CPU 200 redivides data based on the feature amount 201 of learning data and the feature amount 204 of verification data via the data re-division unit 107 (S409).
As a data repartitioning method, for example, the similarity between data is calculated using the equation 3 described above. At this time, verification data is used as a condition for similarity calculation. Eigenvalues and eigenvectors are calculated based on the determined similarity, a matrix in which the top C of the eigenvalues are arranged in diagonal elements is generated, and the row vectors are clustered by the k-neighbor method. Then, the learning data is divided based on the clustering result assigned to the i-th row.
The learning data 201 and the cluster information 203, 305, 306 (see FIG. 3) which is the clustering result are sent again to the model creating unit 104. The CPU 200 returns to step S404 and creates a model again.
The CPU 200 stores the created model in the model storage unit 11a (S410).

[判定部122の処理フロー]
図5は、モデル作成装置100の処理手順の一例を示すフローチャートである。
なお、図5に示す処理は主として判定部122の処理に関するものであり、CPU200により制御される。
[Processing flow of determination unit 122]
FIG. 5 is a flowchart illustrating an example of the processing procedure of the model creating apparatus 100.
The process shown in FIG. 5 mainly relates to the process of the determination unit 122 and is controlled by the CPU 200.

CPU200は、機器に取り付けた各種センサから判定データを取得する(S421)。取得した判定データは、特徴量算出部112へと出力される。   The CPU 200 acquires determination data from various sensors attached to the device (S421). The acquired determination data is output to the feature amount calculation unit 112.

CPU200は、特徴量算出部112を介して、判定データの特徴量を算出する(S422)。特徴量の算出は、特徴量算出部102の場合と同様の特徴量算出方法を用いて算出することができる。算出した検証データの特徴量は識別部113へと出力される。   The CPU 200 calculates the feature amount of the determination data via the feature amount calculation unit 112 (S422). The feature amount can be calculated using the same feature amount calculation method as that of the feature amount calculation unit 102. The calculated feature amount of the verification data is output to the identification unit 113.

CPU200は、識別部113を介して、モデル保存部11aから作成したモデルを取得し、特徴量算出部112から取得した判定データの特徴量を判定する(S423)。
判定方法としては、例えばモデルが混合正規分布の場合、先述した式1を用いて各正規分布と判定データのマハラノビス距離を算出する。各正規分布とのマハラノビス距離(式1)が最小のものを選択し、その距離が閾値以下であれば「正常」と判定する。また、閾値以上であれば「異常」と判定する。
なお、本発明での識別処理は正規分布に限定するわけではなく、別の方法を用いて判定を行ってもよい
The CPU 200 acquires the model created from the model storage unit 11a via the identification unit 113, and determines the feature amount of the determination data acquired from the feature amount calculation unit 112 (S423).
As a determination method, for example, when the model is a mixed normal distribution, the Mahalanobis distance between each normal distribution and the determination data is calculated using Equation 1 described above. The one with the smallest Mahalanobis distance (Equation 1) with each normal distribution is selected, and if the distance is equal to or less than the threshold value, it is determined as "normal". If it is equal to or higher than the threshold, it is determined as "abnormal".
Note that the identification processing in the present invention is not limited to the normal distribution, and determination may be performed using another method.

CPU200は、識別部113による判定結果を表示装置130の表示画面に表示する(S424)。   The CPU 200 displays the determination result by the identification unit 113 on the display screen of the display device 130 (S424).

このように、本実施形態に係るモデル作成装置100では、検証データを含まないように学習データを分割してモデルを作成することで、検証データを「異常」と判定することができるモデルを作成することができる。そのため、機器の異常を検知することが可能となり、モデルの判定精度をより向上させることができる。
また、本実施形態でモデル作成結果を表示装置に出力してユーザが確認することができる。そのため、ユーザは検証データの選択・追加を行うことで確認しながらモデルを作成することが可能になる。
また、各実施形態において検証データを異常データとして説明を記述しているが、検証データは正常データと異常データのどちらを用いてもよい。この時、評価部106において正常データを異常と評価した場合、データ再分割部107においてデータ再分割が実施される。
また、本実施形態では未検知となった異常データを逐次追加しながらモデルを作成させることができるモデル作成装置を提供することが可能となる。
As described above, the model creating apparatus 100 according to the present embodiment creates a model that can determine the verification data as "abnormal" by dividing the learning data so as not to include the verification data and creating the model. can do. Therefore, it is possible to detect an abnormality of the device, and it is possible to further improve the determination accuracy of the model.
Further, in the present embodiment, the user can confirm that the model creation result is output to the display device. Therefore, the user can create a model while confirming by performing selection and addition of verification data.
Moreover, although verification data are described as abnormal data in each embodiment, either of normal data or abnormal data may be used as verification data. At this time, when the evaluation unit 106 evaluates the normal data as abnormal, the data redivision unit 107 implements data redivision.
Further, in the present embodiment, it is possible to provide a model creation apparatus capable of creating a model while sequentially adding abnormal data that has not been detected.

[第2実施形態]
本実施形態では、映像監視システムにおけるモデル作成装置について説明する。
なお、第1実施形態における各構成と同一の構成については、同一の符号を付してその説明を省略する。
Second Embodiment
In the present embodiment, a model creation device in a video surveillance system will be described.
In addition, about the structure same as each structure in 1st Embodiment, the same code | symbol is attached | subjected and the description is abbreviate | omitted.

図6は、本実施形態に係るモデル作成装置500の構成の一例を示す図である。
なお、本実施形態では、撮像データ(映像データ)を用いて異常検知を行なう場合を想定して屋外の交差点のシーンを例に挙げて説明するが、例えば商業施設などの屋内や、病院、介護施設、駅などの公共施設など様々な場所のシーンにおいても適用することができる。
FIG. 6 is a diagram showing an example of the configuration of a model creating apparatus 500 according to the present embodiment.
In the present embodiment, it is assumed that a scene of an outdoor intersection is taken as an example on the assumption that abnormality detection is performed using imaging data (video data). The present invention can be applied to scenes of various places such as facilities and public facilities such as stations.

モデル作成装置500は、主として学習部521と判定部522を含んで構成される。また、領域・モデル保存部51a、表示装置130を有する。
モデル作成装置500は、CPU200、メモリ300を有する。なお、CPU200は、メモリ300(例えば、RAM)に記憶されたプログラムなどを読み出してモデル作成装置500の動作を制御する。
The model generation device 500 mainly includes a learning unit 521 and a determination unit 522. Further, it has a region / model storage unit 51 a and a display device 130.
The model creating device 500 has a CPU 200 and a memory 300. The CPU 200 reads a program or the like stored in the memory 300 (for example, a RAM) and controls the operation of the model generation device 500.

学習部521は、学習映像取得部501、特徴量算出部502、領域分割部503、モデル作成部104、検証映像取得部505、評価部106を含んで構成される。
判定部522は、判定映像取得部511、特徴量算出部512、識別部113を含んで構成される。
本実施形態では、取得した学習映像に基づいて当該映像を複数の領域に分割し、分割した各領域で正常モデルを作成する方法について説明する。
The learning unit 521 includes a learning video acquisition unit 501, a feature quantity calculation unit 502, a region division unit 503, a model creation unit 104, a verification video acquisition unit 505, and an evaluation unit 106.
The determination unit 522 includes a determination video acquisition unit 511, a feature quantity calculation unit 512, and an identification unit 113.
In the present embodiment, a method of dividing the video into a plurality of regions based on the acquired learning video and creating a normal model in each of the divided regions will be described.

[学習部521の機能構成]
学習部521が有する学習映像取得部501は、学習用の映像データ(以下、学習映像と称す)を取得する。
図7は、学習映像の一例を示す図である。図7に示す学習映像601は、撮影シーンにおける各撮影対象(以下、対象と称す)602〜605が移動している映像である。なお、図7中に示す対象602〜605については後述する。
なお、学習映像601は、モデル作成装置500に接続された監視カメラから取得するように構成してもよい。また、監視カメラで撮影・録画した映像をHDD(ハードディスクドライブ)、デジタルビデオレコーダーから取得するように構成してもよい。得られた学習映像601は特徴量算出部502へと出力される。
[Functional configuration of learning unit 521]
The learning video acquisition unit 501 of the learning unit 521 acquires video data for learning (hereinafter, referred to as a learning video).
FIG. 7 is a diagram showing an example of a learning image. A learning image 601 shown in FIG. 7 is an image in which each shooting target (hereinafter referred to as a target) 602 to 605 in a shooting scene is moving. The objects 602 to 605 shown in FIG. 7 will be described later.
Note that the learning video 601 may be configured to be acquired from a monitoring camera connected to the model creating apparatus 500. In addition, the video taken and recorded by the surveillance camera may be acquired from an HDD (hard disk drive) or a digital video recorder. The obtained learning image 601 is output to the feature amount calculation unit 502.

図6の説明に戻り、特徴量算出部502は、取得した学習映像601に対して対象を検出して特徴量を算出する。対象の検出には、あらかじめ用意したテンプレートを用いてテンプレートマッチングで映像内の対象を検出することができる。
なお、対象は撮影シーンに併せて抽出する対象をユーザが設定してもよい。その他に、あらかじめ用意した背景画像を使って背景差分法などで背景を除去することで、前景領域を対象として抽出する事ができる。また、検出方法は上記の方法に限定するものではなく、他の公知の技術を用いて行なってもよい。
Returning to the description of FIG. 6, the feature amount calculation unit 502 detects a target for the acquired learning image 601 and calculates a feature amount. For detection of an object, an object in the image can be detected by template matching using a template prepared in advance.
The user may set an object to be extracted along with the shooting scene. In addition, it is possible to extract the foreground region as a target by removing the background by the background subtraction method etc. using the background image prepared in advance. Also, the detection method is not limited to the above method, and other known techniques may be used.

これにより、例えば図7に示す撮影シーンにおける各対象602〜605の位置・範囲等が情報として検出され、画像から検出された対象602〜605に対して位置・範囲の画像データを用いて特徴量を算出することができる。
なお、特徴量の算出は、既知の勾配方向ヒストグラムやテクスチャ特徴量を用いることができる。また、映像データから動きベクトルを抽出して動きベクトルを方向別に分けて強度を足し合わせてヒストグラムにしたMHOF(Multi Histogram of Optical Flow)特徴量を抽出することもできる。また、特徴量については上記に限定するものではなく、それ以外の特徴量を用いるように構成してもよい。
算出した特徴量は領域分割部503、あるいは評価部106へ出力される。
Thus, for example, the positions, ranges, and the like of the objects 602 to 605 in the shooting scene shown in FIG. 7 are detected as information, and image data of the positions and ranges for the objects 602 to 605 detected from the image are used as feature amounts. Can be calculated.
In addition, the gradient direction histogram and texture feature amount which are known can be used for calculation of a feature amount. Further, it is also possible to extract a multi histogram of optical flow (MHOF) feature value in which a motion vector is extracted from video data, the motion vector is divided into directions, and intensities are added to form a histogram. Also, the feature amount is not limited to the above, and other feature amounts may be used.
The calculated feature amount is output to the region division unit 503 or the evaluation unit 106.

領域分割部503は、特徴量算出部502を介して取得された位置情報や特徴量に基づいて領域の分割を行なう。領域分割方法としては、例えば以下に示す式7を用いて類似度を算出して行うことができる。   The area division unit 503 divides the area based on the position information and the feature amount acquired via the feature amount calculation unit 502. As the region division method, for example, the similarity can be calculated using Equation 7 shown below.

Figure 2019046278
Figure 2019046278

ここで、

Figure 2019046278
:対象の特徴量、
Figure 2019046278
:画像上での対象の位置、
Figure 2019046278
:スケールファクター(クラスタ重心位置とデータ位置の距離)、
Figure 2019046278
:距離閾値、である。この類似度を使って、スペクトラルクラスタリングの手法を用いてクラスタリングを行ない、画像の各ピクセルでのクラスタの出現確率を算出し、その出現確率を基準に複数の領域へと分割する。分割された領域、及び、学習映像から抽出した特徴量はモデル作成部104へと送られる。 here,
Figure 2019046278
: Target feature amount,
Figure 2019046278
: The position of the object on the image,
Figure 2019046278
: Scale factor (distance between cluster center position and data position),
Figure 2019046278
: Distance threshold. Using this similarity, clustering is performed using a spectral clustering method, the appearance probability of the cluster at each pixel of the image is calculated, and the image is divided into a plurality of regions based on the appearance probability. The divided area and the feature quantity extracted from the learning video are sent to the model creating unit 104.

検証映像取得部505は、検証用の映像データ(以下、検証映像と称す)を取得する。
図8は、検証映像の一例を示す図である。
図8に示す検証映像707は、人物708が転倒している映像の一例である。この検証映像707には、対象である人物708が転倒しているフレームでの位置・範囲が入力されている。なお、位置・範囲は、例えばユーザがGUIを介して映像のフレームを選択し、画像上の位置・範囲を指定することで入力される。このように、例えば人物が転倒するなどの異常行動が発生したフレームを検証映像とし、異常の発生位置と範囲の情報を入力する。
取得した映像707は特徴量算出部502へと出力され、人物708の特徴量が算出される。
The verification video acquisition unit 505 acquires video data for verification (hereinafter, referred to as verification video).
FIG. 8 is a diagram showing an example of a verification video.
The verification image 707 illustrated in FIG. 8 is an example of an image in which the person 708 is falling. In this verification image 707, the position and range in the frame in which the person 708 which is the object is falling are input. The position and range are input, for example, by the user selecting a frame of video via the GUI and specifying the position and range on the image. Thus, for example, a frame in which an abnormal action has occurred, such as a person falling, is used as a verification video, and information on the occurrence position and range of the abnormality is input.
The acquired image 707 is output to the feature amount calculation unit 502, and the feature amount of the person 708 is calculated.

領域再分割部507では、学習映像601における対象602〜605の特徴量と、検証映像における対象708の位置情報と特徴量に基づいて領域の再分割を行なう。
なお、領域の再分割方法としては、先述した式3を用いて類似度を算出する他に、以下に示す式8を用いて類似度を算出することができる。
The region redivision unit 507 performs region redivision on the basis of the feature amounts of the objects 602 to 605 in the learning video 601 and the position information and feature amounts of the object 708 in the verification image.
In addition to calculating the degree of similarity using Equation 3 described above, the degree of similarity can be calculated using Equation 8 shown below as the region re-division method.

Figure 2019046278
Figure 2019046278

ここで、α:任意の値であり、L:データのラベル(学習データ=+1、検証データ=0)である。こうすることで、学習データと検証データの類似度が0になるように算出することができる。類似度を算出した後、固有値を算出してk近傍法によりクラスタリングする。これにより、特徴量をクラスタリングすることができる。
映像において、各ピクセルにおけるクラスタリングした各クラスタの出現確率を算出し、出現確率に基づいて領域を分割する。再分割された領域はモデル作成部104へと出力され、再度モデルの作成が行なわれる。
Here, α is an arbitrary value, and L is a label of data (learning data = + 1, verification data = 0). By doing this, it is possible to calculate so that the degree of similarity between the learning data and the verification data becomes zero. After the similarity is calculated, the eigenvalues are calculated and clustering is performed by the k-neighbor method. Thereby, feature quantities can be clustered.
In the image, the appearance probability of each clustered cluster in each pixel is calculated, and the area is divided based on the appearance probability. The re-divided area is output to the model creating unit 104, and the model is created again.

[判定部522の機能構成]
判定部522が有する判定映像取得部511は、例えば監視カメラから映像データを判定データとして取得する。取得した判定データは特徴量算出部512へと出力される。
[Functional Configuration of Determination Unit 522]
The determination video acquisition unit 511 of the determination unit 522 acquires, for example, video data from the monitoring camera as determination data. The acquired determination data is output to the feature amount calculation unit 512.

特徴量算出部512は、判定映像から対象である人物を検出して特徴量を算出する。
なお、人物の検出及び特徴量算出は特徴量算出部502と同様の処理により行なうことができるため説明は省略する。算出した特徴量は識別部113へと出力される。
The feature amount calculation unit 512 detects a person as an object from the determination video and calculates a feature amount.
Note that the person detection and the feature amount calculation can be performed by the same process as the feature amount calculation unit 502, so the description will be omitted. The calculated feature amount is output to the identification unit 113.

[学習部521の処理フロー]
図9は、モデル作成装置500の処理手順の一例を示すフローチャートである。
なお、図9に示す処理は主として学習部521の処理に関するものであり、CPU200により制御される。
[Processing flow of learning unit 521]
FIG. 9 is a flowchart showing an example of the processing procedure of the model creating device 500.
The process shown in FIG. 9 mainly relates to the process of the learning unit 521, and is controlled by the CPU 200.

CPU200は、学習映像601を取得する(S801)。取得した学習映像601は特徴量算出部502へと送られる。
CPU200は、特徴量算出部502を介して、取得した学習映像601から当該学習映像601の特徴量を算出する(S802)。特徴量の算出は、例えば予め用意した背景画像を用いて背景差分を行ない映像内の前景領域を抽出するように構成してもよい。また、テンプレートマッチングで検出して対称(人物)の位置・領域を取得してもよい。
具体的には、対象602〜605に対してHOG特徴量やHOF特徴量などの特徴量を算出する。算出した対象の位置情報、特徴量は学習データとして領域分割部503へと送られる。
The CPU 200 acquires a learning video 601 (S801). The acquired learning image 601 is sent to the feature amount calculation unit 502.
The CPU 200 calculates the feature amount of the learning image 601 from the acquired learning image 601 through the feature amount calculating unit 502 (S802). The feature amount may be calculated by, for example, performing background subtraction using a background image prepared in advance and extracting a foreground area in the video. In addition, it is possible to detect the position (region) of the symmetrical (person) by detecting by template matching.
Specifically, feature amounts such as HOG feature amounts and HOF feature amounts are calculated for the objects 602 to 605. The calculated position information of the target and the feature amount are sent to the area dividing unit 503 as learning data.

CPU200は、領域分割部503を介して、学習映像601に基づく学習データを用いて領域の分割を行なう(S803)。
領域分割は、算出した位置情報、特徴量に基づいて先述した式8を用いて類似度を算出し、スペクトラルクラスタリングによる方法を用いて領域を分割することができる。
具体的には、類似度の固有値・固有ベクトルを算出して、k近傍法によりクラスタリングすることで学習データにクラスタ番号の割り当てを行う。そして、映像の各ピクセルに対してクラスタの出現確率を算出して、各ピクセルに割り当てられたクラスタの出現確率に基づいて領域に分割する。
分割された領域、学習データの位置・特徴量に係る情報はモデル作成部104へと送られる。
The CPU 200 divides the area using learning data based on the learning video 601 through the area dividing unit 503 (S 803).
In the area division, the similarity can be calculated using Equation 8 described above based on the calculated position information and feature amount, and the area can be divided using a method using spectral clustering.
Specifically, cluster numbers are assigned to learning data by calculating eigenvalues and eigenvectors of the degree of similarity and performing clustering using the k-nearest neighbor method. Then, the appearance probability of clusters is calculated for each pixel of the image, and divided into regions based on the appearance probability of clusters allocated to each pixel.
Information on the divided area and the position / feature amount of learning data is sent to the model creating unit 104.

CPU200は、領域分割部503、あるいは領域再分割部507を介して分割された領域に係る情報に基づいて、各領域に対するモデルの作成を行なう(S804)。   The CPU 200 creates a model for each area based on the information related to the area divided by the area dividing unit 503 or the area re-dividing unit 507 (S804).

CPU200は、検証映像取得部505を介して、検証映像707を取得する(S805)。検証映像は、例えば予め監視カメラで撮影された映像を録画しておいて、ユーザがその映像の中から異常な行動をしているシーンを選択するようにしてもよい。取得した検証映像707は、特徴量算出部502へと送られる。   The CPU 200 acquires the verification video 707 via the verification video acquisition unit 505 (S805). As the verification video, for example, a video captured in advance by a monitoring camera may be recorded, and a scene in which the user is performing an abnormal action may be selected from the video. The acquired verification image 707 is sent to the feature amount calculation unit 502.

CPU200は、特徴量算出部502を介して、検証映像707の特徴量を算出する(S806)。なお、検証映像707の特徴量の算出は、学習映像601の特徴量を算出する方法と同じ方法を用いて行うことができる。算出した検証映像707の特徴量は検証データとして評価部106へと送られる。   The CPU 200 calculates the feature of the verification video 707 via the feature calculation unit 502 (S806). Note that the feature amount of the verification image 707 can be calculated using the same method as the method of calculating the feature amount of the learning image 601. The calculated feature amount of the verification video 707 is sent to the evaluation unit 106 as verification data.

CPU200は、評価部106を介して、検証データを異常と判定できるか否かを検証する(S807)。なお、この検証は、ステップS407(図4参照)と同様の処理により行うことができる。
CPU200は、ステップS807の処理において検証データの判定結果が「異常」と判定されたか否かを識別する(S808)。
検証データが異常と判定された場合(S808:Yes)、ステップS810の処理に進む。また、そうでない場合(S808:No)、つまり検証データが「異常」であると判定されなかった場合、CPU200は、学習データと検証データを領域再分割部507へと出力する。そして、ステップS809の処理に進む。
The CPU 200 verifies via the evaluation unit 106 whether or not the verification data can be determined as abnormal (S807). This verification can be performed by the same process as step S407 (see FIG. 4).
The CPU 200 identifies whether or not the determination result of the verification data is determined to be "abnormal" in the process of step S807 (S808).
If it is determined that the verification data is abnormal (S808: Yes), the process proceeds to step S810. If not (S808: No), that is, if it is not determined that the verification data is "abnormal", the CPU 200 outputs the learning data and the verification data to the area redivision unit 507. Then, the process proceeds to step S809.

CPU200は、領域再分割部507を介して、学習データと検証データに基づいて領域の再分割を行う(S809)。
領域の再分割は、例えば取得した学習データと検証データの特徴量と画像上での位置を用いて類似度を先述した式8により算出する。そして、算出した学習・検証データの類似度に基づいて、スペクトラルクラスタリングを用いてデータをクラスタリングし、類似する特徴量が発生する対象の位置に基づいて領域を分割することができる。
領域分割結果はモデル作成部104へと送られる。CPU200は、ステップS804へと戻り、再度モデルの作成を行う。
CPU200は、分割した領域と各領域のモデルを領域・モデル保存部51aに保存する(S810)。
The CPU 200 re-divides the area based on the learning data and the verification data via the area re-division unit 507 (S809).
For re-division of the region, for example, the degree of similarity is calculated using the feature amount of the acquired learning data and verification data and the position on the image according to Equation 8 described above. Then, based on the calculated degree of similarity of the learning / verification data, the data can be clustered using spectral clustering, and the area can be divided based on the position of the target at which the similar feature quantity occurs.
The area division result is sent to the model generation unit 104. The CPU 200 returns to step S804 and creates a model again.
The CPU 200 stores the divided area and the model of each area in the area / model storage unit 51a (S810).

[判定部522の処理フロー]
図10は、モデル作成装置500の処理手順の一例を示すフローチャートである。
なお、図10に示す処理は主として判定部522の処理に関するものであり、CPU200により制御される。
[Processing flow of determination unit 522]
FIG. 10 is a flow chart showing an example of the processing procedure of the model creating device 500.
The process shown in FIG. 10 mainly relates to the process of the determination unit 522, and is controlled by the CPU 200.

CPU200は、判定映像取得部511を介して、検証映像707を取得する(S821)。取得した検証映像707は判定データとして特徴量算出部512へと送られる。   The CPU 200 acquires the verification video 707 via the determination video acquisition unit 511 (S821). The acquired verification image 707 is sent to the feature amount calculation unit 512 as determination data.

CPU200は、特徴量算出部512を介して、判定データの特徴量を算出する(S822)。特徴量の算出は、特徴量算出部502の場合と同様の特徴量算出方法を用いて算出することができる。算出した判定データの特徴量(判定映像の特徴量)は識別部113へと送られる。   The CPU 200 calculates the feature amount of the determination data via the feature amount calculation unit 512 (S822). The feature amount can be calculated using a feature amount calculation method similar to that of the feature amount calculation unit 502. The calculated feature amount of the determination data (the feature amount of the determination image) is sent to the identification unit 113.

CPU200は、識別部113を介して、モデル保存部11aから作成したモデルを読み込み、特徴量算出部112から取得した判定データの特徴量を判定する(S823)。
CPU200は、識別部113による判定結果を表示装置130の表示画面に表示する(S824)。
The CPU 200 reads the model created from the model storage unit 11a via the identification unit 113, and determines the feature amount of the determination data acquired from the feature amount calculation unit 112 (S823).
The CPU 200 displays the determination result by the identification unit 113 on the display screen of the display device 130 (S824).

本実施形態に係るモデル作成装置500のように、本発明を設備機器の監視システムや、映像による監視システム分野におけるモデル作成装置として構成することもできる。
また、本発明はユーザが逐次、検証データを追加することでモデルを再作成していくことが可能となる。
As in the model creating apparatus 500 according to the present embodiment, the present invention can be configured as a monitoring system of equipment and a model creating apparatus in the field of a monitoring system using video.
Also, according to the present invention, it is possible for the user to re-create a model by sequentially adding verification data.

[第3実施形態]
図11は、本実施形態に係るモデル作成装置900の構成の一例を示す図である。
なお、図6に示すモデル作成装置500との違いは、モデル作成装置900では学習部921がモデル再作成部908を有している点である。また、第1、第2実施形態における各構成と同一の構成については、同一の符号を付してその説明を省略する。
Third Embodiment
FIG. 11 is a diagram showing an example of the configuration of a model creating apparatus 900 according to the present embodiment.
A difference from the model creating apparatus 500 shown in FIG. 6 is that in the model creating apparatus 900, the learning unit 921 includes a model recreating unit 908. The same reference numerals are given to the same components as the components in the first and second embodiments, and the description thereof will be omitted.

学習部921のモデル再作成部908は、領域再分割部507において分割された学習映像と検証映像の両方を用いてモデルを作成する。
モデル作成方法としては、学習映像内の人物602〜605の特徴量を領域再分割部507によって分割したものと検証映像内に入力されている異常発生時の人物708の特徴量に基づいて、「Support Vector Machine」(SVM)などを用いて行うことができる。
The model re-creation unit 908 of the learning unit 921 creates a model using both the learning image and the verification image divided by the region re-division unit 507.
As a model creation method, based on the feature amount of the person 708 at the time of occurrence of abnormality being input in the verification video and the feature amount of the persons 602 to 605 in the learning video being divided by the region redivision unit 507, This can be done using Support Vector Machine (SVM) or the like.

このとき、学習映像のラベルを+1とし、検証映像のラベルを−1とすることでSVMの学習をすることができる。なお、検証映像のデータ数が極端に少ない場合、検証映像に重みを付けて学習してもよいし、学習映像をアンダーサンプリングして学習映像と検証映像のデータ数のバランスを取ってモデルの作成を行なってもよい。モデル作成によって、サポートベクトルとそれぞれの係数と閾値が得られる。   At this time, SVM can be learned by setting the label of the learning image to +1 and the label of the verification image to -1. If the number of verification video data is extremely small, the verification video may be weighted and learned, or the learning video may be undersampled to balance the number of data of the learning video and the verification video to create a model. You may Model creation provides support vectors and their respective coefficients and thresholds.

また、サンプリングにより学習に用いていない学習映像を用いて、異常と誤検知しないか検証を行うことも可能である。また、本発明では、モデル再作成方法についてはSupport Vector Machineに限定するわけではなく、他の方法を用いてモデルを作成してもよい。例えば、オンライン学習方法などを用いて、追加された検証データを逐次学習・更新することも可能である。
このモデル作成においては、各分割された学習データそれぞれに対して検証映像を用いてモデルの学習を行うように構成してもよい。
これにより作成された各領域のモデルは評価部106へと送られ、作成したモデルが異常を検知できるか再度評価される。
Moreover, it is also possible to verify whether it is misdetected as abnormality, using the learning image | video which is not used for learning by sampling. Further, in the present invention, the method of model re-creation is not limited to the Support Vector Machine, and other methods may be used to create a model. For example, it is also possible to sequentially learn and update the added verification data using an online learning method or the like.
In this model creation, learning of the model may be performed using verification videos for each of the divided learning data.
The model of each area created by this is sent to the evaluation unit 106, and it is evaluated again whether the created model can detect an abnormality.

[学習部921の処理フロー]
図12は、モデル作成装置900の処理手順の一例を示すフローチャートである。
なお、図9に示す処理は主として学習部921の処理に関するものであり、CPU200により制御される。
また、図12に示すステップS1001〜S1006の処理、ステップS1008、S1010の処理は、図9に示すステップS801〜S806の処理、ステップS808、S810の処理と同じ処理であるため、その説明を省略する。
以下、ステップS1007、S1009、S1011の処理について説明する。
[Processing flow of learning unit 921]
FIG. 12 is a flowchart illustrating an example of the processing procedure of the model generation device 900.
The process shown in FIG. 9 mainly relates to the process of the learning unit 921 and is controlled by the CPU 200.
Further, the processes of steps S1001 to S1006 shown in FIG. 12 and the processes of steps S1008 and S1010 are the same as the processes of steps S801 to S806 and steps S808 and S810 shown in FIG. .
The processes of steps S1007, S1009, and S1011 will be described below.

CPU200は、評価部106を介して、検証映像を異常と判定できるか否かを検証する(S1007)。
CPU200は、領域再分割部507を介して、学習映像と検証映像に基づいて領域の再分割を行う(S1009)。
CPU200は分割した学習映像と検証映像に基づいてモデルの再作成を行なう(S1011)。
なお、モデルの再作成方法としてはSupport Vector Machineを用いて作成することができる。このモデル再作成処理により、各領域でサポートベクトルとそれぞれに対応する係数と閾値が得られ、それらがモデルとなる。再作成された各領域のモデルは評価部106へと送られる。
The CPU 200 verifies via the evaluation unit 106 whether or not the verification video can be determined as abnormal (S1007).
The CPU 200 re-divides the area based on the learning video and the verification video through the area re-dividing unit 507 (S1009).
The CPU 200 re-creates a model based on the divided learning video and verification video (S1011).
The model can be re-created using Support Vector Machine. By this model re-creation process, support vectors and coefficients and threshold values corresponding to the support vectors are obtained in each area, and these become models. The model of each re-created area is sent to the evaluation unit 106.

上記説明した実施形態は、本発明をより具体的に説明するためのものであり、本発明の範囲が、これらの例に限定されるものではない。
また、本発明の実施の形態について図面を参照して詳述したが、具体的な構成はその実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計等も含まれる。また、各実施形態は、上記の各実施形態を組み合せて実施してもよい。
The embodiments described above are for more specifically describing the present invention, and the scope of the present invention is not limited to these examples.
Further, although the embodiments of the present invention have been described in detail with reference to the drawings, the specific configuration is not limited to the embodiments, and includes design and the like within the scope of the present invention. In addition, each embodiment may be implemented by combining the above-described embodiments.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがコンピュータプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium, and one or more processors in a computer of the system or apparatus read out a computer program. It can also be realized by the process to be executed. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.

100・・・モデル作成装置、101・・・学習データ取得部、102、112・・・特徴量算出部、103・・・データ分割部、104・・・モデル作成部、105・・・検証データ取得部、106・・・評価部、107・・・データ再分割部、11a・・・モデル保存部、111・・・判定データ取得部、113・・・識別部、121・・・学習部、122・・・判定部、130・・・表示装置、200・・・CPU、300・・・メモリ。   100 ... model creation device, 101 ... learning data acquisition unit, 102, 112 ... feature value calculation unit, 103 ... data division unit, 104 ... model creation unit, 105 ... verification data Acquisition unit 106 Evaluation unit 107 Data redivision unit 11a Model storage unit 111 Determination data acquisition unit 113 Identification unit 121 Learning unit 122: Judgment unit, 130: Display device, 200: CPU, 300: Memory.

Claims (11)

センサの出力データに異常があるか否かを判定するモデルを作成する情報処理装置であって、
前記センサの出力データを学習データとして取得する学習データ取得手段と、
前記学習データから特徴量を算出する特徴量算出手段と、
前記算出された特徴量に基づいて前記学習データを分割する分割手段と、
前記分割後の学習データを用いてモデルを作成するモデル作成手段と、
前記センサの出力データを検証データとして取得する検証データ取得手段と、
前記特徴量算出手段により算出された前記検証データの特徴量と前記作成されたモデルに基づいて当該検証データの評価を行なう評価手段と、
前記評価の結果に応じて、前記学習データと前記検証データに基づいて当該学習データを再分割する再分割手段と、を有し、
前記モデル作成手段は、前記再分割手段により前記学習データの再分割が行われたときには当該再分割後の学習データを用いて前記モデルを作成することを特徴とする、
情報処理装置。
An information processing apparatus that creates a model that determines whether or not there is an abnormality in output data of a sensor.
Learning data acquisition means for acquiring output data of the sensor as learning data;
Feature amount calculation means for calculating a feature amount from the learning data;
A dividing unit that divides the learning data based on the calculated feature amount;
Model creation means for creating a model using the learning data after the division;
Verification data acquisition means for acquiring output data of the sensor as verification data;
Evaluation means for evaluating the verification data based on the feature amount of the verification data calculated by the feature amount calculation means and the created model;
And re-dividing means for re-dividing the learning data based on the learning data and the verification data according to the result of the evaluation.
The model creating means creates the model using the learning data after the redivision, when the redivision of the learning data is performed by the redivision means.
Information processing device.
前記再分割手段は、前記学習データと前記検証データの類似度を算出し、算出した類似度に基づいて前記学習データを分割することを特徴とする、
請求項1に記載の情報処理装置。
The re-division means calculates the similarity between the learning data and the verification data, and divides the learning data based on the calculated similarity.
An information processing apparatus according to claim 1.
前記類似度は、前記学習データと前記検証データそれぞれの特徴量の距離を条件として算出されることを特徴とする、
請求項2に記載の情報処理装置。
The similarity may be calculated based on the distance between feature amounts of the learning data and the verification data.
The information processing apparatus according to claim 2.
前記類似度は、前記学習データと前記検証データそれぞれのラベルを用いて算出されることを特徴とする、
請求項2に記載の情報処理装置。
The similarity may be calculated using labels of the learning data and the verification data.
The information processing apparatus according to claim 2.
前記検証データは、前記センサが取り付けられている機器に異常が発生していることを表す情報を含むデータであることを特徴とする、
請求項1乃至4いずれか一項に記載の情報処理装置。
The verification data is data including information indicating that an abnormality has occurred in a device to which the sensor is attached.
The information processing apparatus according to any one of claims 1 to 4.
前記センサの出力データが撮像データであり、
前記学習データ取得手段は、前記撮像データから学習映像を前記学習データとして取得し、
前記検証データ取得手段は、前記撮像データから検証映像を前記検証データとして取得することを特徴とする、
請求項1に記載の情報処理装置。
The output data of the sensor is imaging data,
The learning data acquisition means acquires a learning video as the learning data from the imaging data,
The verification data acquisition unit acquires a verification image as the verification data from the imaging data.
An information processing apparatus according to claim 1.
前記モデル作成手段は、前記学習データと前記検証データの両方を用いてモデルを作成することを特徴とする、
請求項1乃至6いずれか一項に記載の情報処理装置。
The model creating means creates a model using both the learning data and the verification data.
The information processing apparatus according to any one of claims 1 to 6.
センサの出力データに異常があるか否かを判定するモデルを作成する情報処理装置の制御方法であって、
前記センサの出力データを学習データとして取得する工程と、
前記学習データから特徴量を算出する工程と、
前記算出された特徴量に基づいて前記学習データを分割する工程と、
前記分割後の学習データを用いてモデルを作成する工程と、
前記センサの出力データを検証データとして取得する工程と、
前記検証データから特徴量を算出し、算出した結果と前記作成されたモデルに基づいて当該検証データの評価を行なう工程と、
前記評価の結果に応じて、前記学習データと前記検証データに基づいて当該学習データを再分割した場合、当該再分割後の学習データを用いて前記モデルを作成する工程、とを有することを特徴とする、
情報処理装置の制御方法。
A control method of an information processing apparatus for creating a model for determining whether or not there is an abnormality in output data of a sensor,
Acquiring output data of the sensor as learning data;
Calculating a feature amount from the learning data;
Dividing the learning data based on the calculated feature amount;
Creating a model using the learning data after the division;
Acquiring output data of the sensor as verification data;
Calculating a feature amount from the verification data, and evaluating the verification data based on the calculated result and the created model;
And a step of creating the model using the learning data after the redivision, when the learning data is subdivided based on the learning data and the verification data according to the result of the evaluation. And
Control method of information processing apparatus.
コンピュータを、センサの出力データに異常があるか否かを判定するモデルを作成する情報処理装置として動作させるためのコンピュータプログラムであって、
前記センサの出力データを学習データとして取得する学習データ取得手段、
前記学習データから特徴量を算出する特徴量算出手段、
前記算出された特徴量に基づいて前記学習データを分割する分割手段、
前記分割後の学習データを用いてモデルを作成するモデル作成手段、
前記センサの出力データを検証データとして取得する検証データ取得手段、
前記特徴量算出手段により算出された前記検証データの特徴量と前記作成されたモデルに基づいて当該検証データの評価を行なう評価手段、
前記評価の結果に応じて、前記学習データと前記検証データに基づいて当該学習データを再分割する再分割手段、として機能させ、
前記再分割手段により前記学習データの再分割が行われたときには当該再分割後の学習データを用いて前記モデルを作成するように機能させることを特徴とする、
コンピュータプログラム。
A computer program for causing a computer to operate as an information processing apparatus that creates a model that determines whether or not there is an abnormality in output data of a sensor,
Learning data acquisition means for acquiring output data of the sensor as learning data;
Feature amount calculation means for calculating a feature amount from the learning data;
A division unit that divides the learning data based on the calculated feature amount;
Model creation means for creating a model using the learning data after the division;
Verification data acquisition means for acquiring output data of the sensor as verification data,
An evaluation unit that evaluates the verification data based on the feature amount of the verification data calculated by the feature amount calculation unit and the created model;
According to the result of the evaluation, it functions as a re-division unit that re-divides the learning data based on the learning data and the verification data,
When the redivision of the learning data is performed by the redivision unit, the learning data after the redivision is used to create the model.
Computer program.
請求項9に記載のコンピュータプログラムを記憶した記憶媒体。   A storage medium storing the computer program according to claim 9. センサの出力データに異常があるか否かを判定するモデルを作成するモデル作成装置であって、
前記センサの出力データを学習データとして取得する学習データ取得手段と、
前記学習データから特徴量を算出する特徴量算出手段と、
前記算出された特徴量に基づいて前記学習データを分割する分割手段と、
前記分割後の学習データを用いてモデルを作成するモデル作成手段と、
前記センサの出力データを検証データとして取得する検証データ取得手段と、
前記特徴量算出手段により算出された前記検証データの特徴量と前記作成されたモデルに基づいて当該検証データの評価を行なう評価手段と、
前記評価の結果に応じて、前記学習データと前記検証データに基づいて当該学習データを再分割する再分割手段と、を有し、
前記モデル作成手段は、前記再分割手段により前記学習データの再分割が行われたときには当該再分割後の学習データを用いて前記モデルを作成することを特徴とする、
モデル作成装置。
A model creation apparatus for creating a model that determines whether or not there is an abnormality in output data of a sensor,
Learning data acquisition means for acquiring output data of the sensor as learning data;
Feature amount calculation means for calculating a feature amount from the learning data;
A dividing unit that divides the learning data based on the calculated feature amount;
Model creation means for creating a model using the learning data after the division;
Verification data acquisition means for acquiring output data of the sensor as verification data;
Evaluation means for evaluating the verification data based on the feature amount of the verification data calculated by the feature amount calculation means and the created model;
And re-dividing means for re-dividing the learning data based on the learning data and the verification data according to the result of the evaluation.
The model creating means creates the model using the learning data after the redivision, when the redivision of the learning data is performed by the redivision means.
Model creation device.
JP2017170046A 2017-09-05 2017-09-05 Information processor, control method, computer program, storage medium, and model creation device Pending JP2019046278A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017170046A JP2019046278A (en) 2017-09-05 2017-09-05 Information processor, control method, computer program, storage medium, and model creation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017170046A JP2019046278A (en) 2017-09-05 2017-09-05 Information processor, control method, computer program, storage medium, and model creation device

Publications (1)

Publication Number Publication Date
JP2019046278A true JP2019046278A (en) 2019-03-22

Family

ID=65814470

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017170046A Pending JP2019046278A (en) 2017-09-05 2017-09-05 Information processor, control method, computer program, storage medium, and model creation device

Country Status (1)

Country Link
JP (1) JP2019046278A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022014682A (en) * 2020-07-07 2022-01-20 株式会社日立製作所 Malfunction detection support apparatus and method thereof
WO2023120473A1 (en) * 2021-12-22 2023-06-29 Jfeスチール株式会社 Normal vector registration device, equipment-abnormality-monitoring system, and equipment-abnormality-monitoring method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022014682A (en) * 2020-07-07 2022-01-20 株式会社日立製作所 Malfunction detection support apparatus and method thereof
WO2023120473A1 (en) * 2021-12-22 2023-06-29 Jfeスチール株式会社 Normal vector registration device, equipment-abnormality-monitoring system, and equipment-abnormality-monitoring method
JP7343078B1 (en) 2021-12-22 2023-09-12 Jfeスチール株式会社 Normal vector registration device, equipment abnormality monitoring system, and equipment abnormality monitoring method

Similar Documents

Publication Publication Date Title
CN108537112B (en) Image processing apparatus, image processing system, image processing method, and storage medium
CN108292362B (en) Gesture recognition for cursor control
JP7282851B2 (en) Apparatus, method and program
JP2016099941A (en) System and program for estimating position of object
JP6397379B2 (en) CHANGE AREA DETECTION DEVICE, METHOD, AND PROGRAM
JP6919990B2 (en) Online recognition device, online recognition method, and setting screen used for it
JP6590609B2 (en) Image analysis apparatus and image analysis method
JP2016099982A (en) Behavior recognition device, behaviour learning device, method, and program
JP5936561B2 (en) Object classification based on appearance and context in images
JP2018120283A (en) Information processing device, information processing method and program
CN110516707B (en) Image labeling method and device and storage medium thereof
JP2018181273A (en) Image processing apparatus, method thereof, and program
JPWO2018154709A1 (en) Motion learning device, skill discrimination device and skill discrimination system
JP4925120B2 (en) Object recognition apparatus and object recognition method
EP3410396B1 (en) Moving object tracking apparatus, moving object tracking method, and computer-readable medium
JP2016212784A (en) Image processing apparatus and image processing method
JP5746550B2 (en) Image processing apparatus and image processing method
JP7001150B2 (en) Identification system, model re-learning method and program
JP2019046278A (en) Information processor, control method, computer program, storage medium, and model creation device
JP5047658B2 (en) Camera device
CN115767424A (en) Video positioning method based on RSS and CSI fusion
JP2014203133A (en) Image processing device and image processing method
WO2020054058A1 (en) Identification system, parameter value update method, and program
JP6069095B2 (en) Image identification device, image identification method, and image identification program
Malik et al. A Simplified Skeleton Joints Based Approach For Human Action Recognition