JP7371696B2 - Deterioration detection method, deterioration detection program, and information processing device - Google Patents
Deterioration detection method, deterioration detection program, and information processing device Download PDFInfo
- Publication number
- JP7371696B2 JP7371696B2 JP2021553247A JP2021553247A JP7371696B2 JP 7371696 B2 JP7371696 B2 JP 7371696B2 JP 2021553247 A JP2021553247 A JP 2021553247A JP 2021553247 A JP2021553247 A JP 2021553247A JP 7371696 B2 JP7371696 B2 JP 7371696B2
- Authority
- JP
- Japan
- Prior art keywords
- model
- data
- class
- training data
- inspector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000006866 deterioration Effects 0.000 title claims description 142
- 238000001514 detection method Methods 0.000 title claims description 107
- 230000010365 information processing Effects 0.000 title claims description 6
- 238000012549 training Methods 0.000 claims description 108
- 238000000034 method Methods 0.000 claims description 36
- 230000008859 change Effects 0.000 claims description 22
- 230000008569 process Effects 0.000 claims description 18
- 230000002123 temporal effect Effects 0.000 claims 1
- 238000010801 machine learning Methods 0.000 description 106
- 238000010586 diagram Methods 0.000 description 50
- 238000010200 validation analysis Methods 0.000 description 30
- 238000012544 monitoring process Methods 0.000 description 25
- 230000007423 decrease Effects 0.000 description 16
- 238000012545 processing Methods 0.000 description 16
- 230000002159 abnormal effect Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 238000012795 verification Methods 0.000 description 7
- 241000282326 Felis catus Species 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000015556 catabolic process Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000006731 degradation reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000000513 principal component analysis Methods 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 241000251468 Actinopterygii Species 0.000 description 1
- 210000003423 ankle Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000033772 system development Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Testing And Monitoring For Control Systems (AREA)
Description
本発明は、劣化検出方法、劣化検出プログラムおよび情報処理装置に関する。 The present invention relates to a deterioration detection method, a deterioration detection program, and an information processing device.
企業等で利用されている情報システムに対して、データの判定や分類機能などへの機械学習モデル(以下では、単に「モデル」と記載する場合がある)の導入が進んでいる。機械学習モデルは、システム開発時に学習させた教師データの通りに判定や分類を行うので、システム運用中に入力データの傾向(データ分布)が変化すると、機械学習モデルの精度が劣化する。 Machine learning models (hereinafter sometimes simply referred to as "models") are increasingly being introduced into information systems used by companies, etc. for data judgment and classification functions. Machine learning models perform judgment and classification according to the training data trained during system development, so if the trend of input data (data distribution) changes during system operation, the accuracy of the machine learning model will deteriorate.
一般的に、システム運用中のモデル精度劣化検知は、定期的に手動で、モデルの出力結果の正誤を人間が確認することで正解率を算出し、正解率の低下から精度劣化を検知する手法が利用される。 In general, the method of detecting model accuracy deterioration during system operation is to calculate the accuracy rate by periodically manually checking whether the model output results are correct or incorrect, and detect accuracy deterioration from the decrease in the accuracy rate. is used.
近年では、システム運用中の機械学習モデルの精度劣化を自動で検出する技術として、T2統計量(Hotelling’s T-squre)が知られている。例えば、入力データと正常データ(訓練データ)群を主成分分析し、標準化した各主成分の原点からの距離の二乗の合計である、入力データのT2統計量を算出する。そして、入力データ群のT2統計量の分布に基づき、異常値データの割合の変化を検出して、モデルの精度劣化を自動で検知する。In recent years, T2 statistics (Hotelling's T-square) have become known as a technique for automatically detecting deterioration in accuracy of machine learning models during system operation. For example, input data and a group of normal data (training data) are subjected to principal component analysis, and the T2 statistic of the input data, which is the sum of the squares of the distances from the origin of each standardized principal component, is calculated. Then, based on the distribution of T2 statistics of the input data group, changes in the ratio of abnormal value data are detected, and deterioration in model accuracy is automatically detected.
しかしながら、上記技術では、精度劣化の検出対象とする機械学習モデルに制限が多く、汎用的に使用することが難しい。 However, with the above technology, there are many restrictions on the machine learning model used to detect accuracy deterioration, making it difficult to use it for general purposes.
例えば、元々の情報量が非常に大きい数千から数万次元の高次元データを処理対象とするモデルに適用した場合、主成分分析により数次元まで次元削減すると、ほとんどの情報が失われてしまう。このため、分類や判定に重要な情報である特徴量まで失われてしまい、異常データを上手く検知することができず、モデルの精度劣化検知を実現できない。 For example, when applied to a model that processes high-dimensional data of thousands to tens of thousands of dimensions, which originally has a very large amount of information, most of the information will be lost when the dimensions are reduced to a few dimensions using principal component analysis. . As a result, feature quantities that are important information for classification and determination are also lost, making it impossible to effectively detect abnormal data and detecting deterioration in model accuracy.
また、T2統計量では、訓練データ群との主成分の距離を測定に利用しているので、訓練データ内に複数のカテゴリ(多クラス)のデータ群が混ざっている場合、正常データと判定される範囲が広くなってしまう。このため、異常データを検知することができず、モデルの精度劣化検知を実現できない。In addition, the T2 statistic uses the distance of the principal component from the training data group for measurement, so if the training data contains data groups of multiple categories (multiclasses), it will be judged as normal data. The scope of what is being done becomes wider. For this reason, abnormal data cannot be detected and detection of model accuracy degradation cannot be realized.
一つの側面では、高次元データの分類や多クラス分類を実行する機械学習モデルに対しても精度の劣化を検出することができる劣化検出方法、劣化検出プログラムおよび情報処理装置を提供することを目的とする。 One aspect of the present invention is to provide a deterioration detection method, a deterioration detection program, and an information processing device that can detect deterioration in accuracy even for machine learning models that perform high-dimensional data classification or multi-class classification. shall be.
第1の案では、劣化検出方法は、コンピュータが、学習済みモデルに対してデータを入力したときの第一の出力結果を取得する処理を実行する。劣化検出方法は、コンピュータが、前記学習済みモデルのモデル適用領域を狭めた検出モデルに対してデータを入力したときの第二の出力結果を取得する処理を実行する。劣化検出方法は、コンピュータが、前記第一の出力結果および前記第二の出力結果に基づいて、データの傾向の時間変化に起因する学習済みモデルの精度劣化を検出する処理を実行する。 In the first proposal, in the deterioration detection method, a computer performs a process of acquiring a first output result when data is input to a trained model. In the deterioration detection method, a computer performs a process of acquiring a second output result when data is input to a detection model with a narrowed model application area of the learned model. In the deterioration detection method, a computer performs a process of detecting deterioration in accuracy of a trained model due to a change in data trend over time, based on the first output result and the second output result.
一実施形態によれば、高次元データの分類や多クラス分類を実行する機械学習モデルに対しても精度の劣化を検出することができる。 According to one embodiment, deterioration in accuracy can also be detected for machine learning models that perform high-dimensional data classification or multi-class classification.
以下に、本発明にかかる劣化検出方法、劣化検出プログラムおよび情報処理装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。また、各実施例は、矛盾のない範囲内で適宜組み合わせることができる。 Embodiments of a deterioration detection method, a deterioration detection program, and an information processing device according to the present invention will be described in detail below with reference to the drawings. Note that the present invention is not limited to this example. Moreover, each embodiment can be combined as appropriate within a consistent range.
[精度劣化検出装置の説明]
図1は、実施例1にかかる精度劣化検出装置10を説明する図である。図1に示す精度劣化検出装置10は、学習済みの機械学習モデル(以下では、単に「モデル」と記載する場合がある)を用いて入力データの判定(分類)を実行する一方で、機械学習モデルの精度を監視して精度劣化を検出するコンピュータ装置の一例である。[Description of accuracy deterioration detection device]
FIG. 1 is a diagram illustrating an accuracy deterioration detection device 10 according to a first embodiment. The accuracy deterioration detection device 10 shown in FIG. This is an example of a computer device that monitors the accuracy of a model and detects deterioration in accuracy.
例えば、機械学習モデルは、学習時には、説明変数を画像データ、目的変数を衣料名とする教師データを用いて学習され、運用時には、入力データとして画像データが入力されると、「シャツ」などの判定結果を出力する画像分類器である。つまり、機械学習モデルは、高次元データの分類や多クラス分類を実行する画像分類器の一例である。 For example, during training, a machine learning model is trained using image data as an explanatory variable and training data that uses clothing names as an objective variable. During operation, when image data is input as input data, it is trained using training data such as "shirt". This is an image classifier that outputs judgment results. In other words, a machine learning model is an example of an image classifier that performs classification of high-dimensional data or multi-class classification.
ここで、機械学習や深層学習などで学習された機械学習モデルは、訓練データとラベル付けの組み合わせた教師データを元に学習されるので、教師データが含む範囲でのみ機能する。一方、機械学習モデルは、運用後に、学習時と同種のデータが入力されることが想定されているが、現実には入力されるデータの状態が変化して、機械学習モデルが適切に機能しなくなることがある。すなわち、「モデルの精度劣化」が発生する。 Here, machine learning models learned by machine learning, deep learning, etc. are trained based on teacher data that is a combination of training data and labeling, so they function only within the range included in the teacher data. On the other hand, machine learning models are assumed to be input with the same type of data as during training after operation, but in reality, the state of the input data changes and the machine learning model does not function properly. It may disappear. In other words, "model accuracy deterioration" occurs.
図2は、精度劣化を説明する図である。図2では、入力データの余計なデータを除いて整理した情報であり、機械学習モデルが入力された入力データを分類する、特徴量空間を示している。図2では、クラス0、クラス1、クラス2に分類する特徴量空間を図示している。
FIG. 2 is a diagram illustrating accuracy deterioration. FIG. 2 shows information that has been organized by removing unnecessary data from the input data, and shows a feature space in which the machine learning model classifies the input data. FIG. 2 illustrates a feature space classified into
図2に示すように、システム運用初期(学習完了時)は、全ての入力データが正常な位置であり、各クラスの決定境界の内側に分類される。その後の時間経過が進むと、クラス0の入力データの分布が変化する。つまり、学習されたクラス0の特徴量では、クラス0と分類することが難しい入力データが入力されはじめる。さらにその後、クラス0の入力データが決定境界を跨ぎ、機械学習モデルの正解率が低下する。つまり、クラス0と分類すべき入力データの特徴量が変化する。
As shown in FIG. 2, at the initial stage of system operation (when learning is completed), all input data are in normal positions and are classified inside the decision boundaries of each class. As time progresses thereafter, the distribution of input data of
このように、システム運用開始後に、入力データの分布が学習時から変化すると、結果として、機械学習モデルの正解率が低下し、機械学習モデルの精度劣化が発生する。 In this way, if the distribution of input data changes from the time of learning after the system starts operating, the accuracy rate of the machine learning model decreases, resulting in deterioration of the accuracy of the machine learning model.
そこで、図1に示すように、実施例1にかかる精度劣化検出装置10は、監視対象の機械学習モデルと同様の問題を解く、DNN(Deep Neural Network)を用いて生成された少なくとも1つのインスペクターモデル(監視器、以下では単に「インスペクター」と記載する場合がある)を用いる。具体的には、精度劣化検出装置10は、機械学習モデルの出力と各インスペクターモデルの出力との合致率を、機械学習モデルの出力クラスごとに集計することで、合致率の分布変化、すなわち入力データ分布の変化を検出する。 Therefore, as shown in FIG. 1, the accuracy deterioration detection device 10 according to the first embodiment uses at least one inspector generated using a DNN (Deep Neural Network) that solves the same problem as the machine learning model to be monitored. A model (monitor, sometimes simply referred to as "inspector" below) is used. Specifically, the accuracy deterioration detection device 10 aggregates the match rate between the output of the machine learning model and the output of each inspector model for each output class of the machine learning model, thereby detecting a change in the distribution of the match rate, that is, the input Detect changes in data distribution.
ここで、インスペクターモデルについて説明する。図3は、実施例1にかかるインスペクターモデルを説明する図である。インスペクターモデルは、機械学習モデルとは異なる条件(異なるモデル適用領域(Applicability Domain))で生成される検出モデルの一例である。つまり、インスペクターモデルがクラス0、クラス1、クラス2と判定する各領域(各特徴量)は、機械学習モデルがクラス0、クラス1、クラス2と判定する各領域よりも狭い範囲となるように、インスペクターモデルが生成される。
Here, the inspector model will be explained. FIG. 3 is a diagram illustrating an inspector model according to the first embodiment. The inspector model is an example of a detection model that is generated under different conditions (different model applicability domain) than the machine learning model. In other words, each region (each feature amount) that the inspector model determines as
これは、モデル適用領域が狭いほど、入力データの小さな変化で出力が敏感に変化するためである。そのため、監視対象の機械学習モデルよりもインスペクターモデルのモデル適用領域の狭くすることで、入力データの小さな変化でインスペクターモデルの出力値が変動し、機械学習モデルの出力値との合致率でデータの傾向の変化を測定することができる。 This is because the narrower the model application area, the more sensitive the output changes to small changes in input data. Therefore, by making the model application area of the inspector model narrower than that of the machine learning model to be monitored, the output value of the inspector model will fluctuate due to small changes in the input data, and the matching rate with the output value of the machine learning model will change the data. Changes in trends can be measured.
具体的には、図3に示すように、入力データがインスペクターモデルのモデル適用領域の範囲内である場合、当該入力データに対して、機械学習モデルはクラス0と判定し、インスペクターモデルもクラス0と判定する。つまり、両方ともクラス0のモデル適用領域内となり、出力値は必ず合致するので、合致率は低下しない。
Specifically, as shown in Figure 3, if the input data is within the model application area of the inspector model, the machine learning model determines that the input data is
一方、入力データがインスペクターモデルのモデル適用領域の範囲外である場合、当該入力データに対して、機械学習モデルはクラス0と判定するが、インスペクターモデルは各クラスのモデル適用範囲外の領域であることから、必ずしもクラス0と判定するとは限らない。つまり、出力値は必ずしも合致しないので、合致率が低下する。
On the other hand, if the input data is outside the model application range of the inspector model, the machine learning model will judge the input data to be
このように、実施例1にかかる精度劣化検出装置10は、機械学習モデルによるクラス判定に並行して、機械学習モデルのモデル適用領域より狭いモデル適用領域を有するように学習されたインスペクターモデルによるクラス判定を実行し、両クラス判定の合致率を計算する。そして、精度劣化検出装置10は、合致率の変化により、入力データの分布変化を検出するので、高次元データの分類や多クラス分類を実行する機械学習モデルの精度劣化を検出することができる。 In this way, the accuracy deterioration detection device 10 according to the first embodiment performs class determination using the inspector model, which has been trained to have a model application area narrower than the model application area of the machine learning model, in parallel with class determination using the machine learning model. Execute the judgment and calculate the match rate of both class judgments. Since the accuracy deterioration detection device 10 detects a change in the distribution of input data based on a change in the matching rate, it is possible to detect deterioration in the accuracy of a machine learning model that performs classification of high-dimensional data or multi-class classification.
[精度劣化検出装置の機能構成]
図4は、実施例1にかかる精度劣化検出装置10の機能構成を示す機能ブロック図である。図4に示すように、精度劣化検出装置10は、通信部11、記憶部12、制御部209を有する。[Functional configuration of accuracy deterioration detection device]
FIG. 4 is a functional block diagram showing the functional configuration of the accuracy deterioration detection device 10 according to the first embodiment. As shown in FIG. 4, the accuracy deterioration detection device 10 includes a
通信部11は、他の装置との間の通信を制御する処理部であり、例えば通信インタフェースなどである。例えば、通信部11は、管理者端末などから各種指示を受信する。また、通信部11は、各種端末から、判定対象の入力データを受信する。
The
記憶部12は、データや制御部20が実行するプログラムなどを記憶する記憶装置の一例であり、例えばメモリやハードディスクなどである。この記憶部12は、教師データDB13、入力データDB14、機械学習モデル15、インスペクターモデルDB16を記憶する。
The storage unit 12 is an example of a storage device that stores data, programs executed by the control unit 20, and the like, and is, for example, a memory or a hard disk. This storage unit 12 stores a
教師データDB13は、機械学習モデルの学習に利用された教師データであって、インスペクターモデルの学習にも利用される教師データを記憶するデータベースである。図5は、教師データDB13に記憶される情報の例を示す図である。図5に示すように、教師データDB13は、データIDと教師データとを対応付けて記憶する。
The
ここで記憶されるデータIDは、教師データを識別する識別子である。教師データは、学習に利用される訓練データまたは学習時の検証に利用される検証データである。図5の例では、データIDが「A1」である訓練データXと、データIDが「B1」である検証データYを図示している。なお、訓練データや検証データは、説明変数である画像データと、目的変数である正解情報(ラベル)とが対応付けられたデータである。 The data ID stored here is an identifier that identifies the teacher data. The teacher data is training data used for learning or verification data used for verification during learning. In the example of FIG. 5, training data X whose data ID is "A1" and verification data Y whose data ID is "B1" are illustrated. Note that the training data and verification data are data in which image data, which is an explanatory variable, and correct answer information (label), which is a target variable, are associated with each other.
入力データDB14は、判定対象の入力データを記憶するデータベースである。具体的には、入力データDB14は、機械学習モデルへ入力される画像データであって、画像分類を行う対象の画像データを記憶する。図6は、入力データDB14に記憶される情報の例を示す図である。図6に示すように、入力データDB14は、データIDと入力データとを対応付けて記憶する。 The input data DB 14 is a database that stores input data to be determined. Specifically, the input data DB 14 stores image data that is input to a machine learning model and is a target for image classification. FIG. 6 is a diagram showing an example of information stored in the input data DB 14. As shown in FIG. 6, the input data DB 14 stores data IDs and input data in association with each other.
ここで記憶されるデータIDは、入力データを識別する識別子である。入力データは、分類対象の画像データである。図6の例では、データIDが「01」である入力データ1を図示している。入力データは、予め記憶する必要はなく、他の端末からデータストリームとして送信されてもよい。
The data ID stored here is an identifier that identifies input data. The input data is image data to be classified. In the example of FIG. 6,
機械学習モデル15は、学習された機械学習モデルであり、精度劣化検出装置10による監視対象となるモデルである。なお、学習済みのパラメータが設定されたニューラルネットワークやサポートベクタマシンなどの機械学習モデル15を記憶することもでき、学習済みの機械学習モデル15が構築可能な学習済みのパラメータなどを記憶していてもよい。
The
インスペクターモデルDB16は、精度劣化検出に利用する少なくとも1つのインスペクターモデルに関する情報を記憶するデータベースである。例えば、インスペクターモデルDB16は、5つのインスペクターモデルそれぞれを構築するためのパラメータであって、後述する制御部20によって機械学習によって生成(最適化)されたDNNの各種パラメータを記憶する。なお、インスペクターモデルDB16は、学習済みのパラメータを記憶することもでき、学習済みのパラメータが設定されたインスペクターモデルそのもの(DNN)を記憶することもできる。 The inspector model DB 16 is a database that stores information regarding at least one inspector model used for accuracy deterioration detection. For example, the inspector model DB 16 stores various parameters of the DNN, which are parameters for constructing each of the five inspector models, and are generated (optimized) by machine learning by the control unit 20, which will be described later. Note that the inspector model DB 16 can also store learned parameters, and can also store the inspector model itself (DNN) in which the learned parameters are set.
制御部20は、精度劣化検出装置10全体を司る処理部であり、例えばプロセッサなどである。この制御部20は、インスペクターモデル生成部21、閾値設定部22、劣化検出部23を有する。なお、インスペクターモデル生成部21、閾値設定部22、劣化検出部23は、プロセッサが有する電子回路の一例やプロセッサが実行するプロセスの一例などである。
The control unit 20 is a processing unit that controls the entire precision deterioration detection device 10, and is, for example, a processor. The control section 20 includes an inspector
インスペクターモデル生成部21は、機械学習モデル15の精度劣化を検出する監視器や検出モデルの一例であるインスペクターモデルを生成する処理部である。具体的には、インスペクターモデル生成部21は、機械学習モデル15の学習に利用された教師データを用いた深層学習により、モデル適用範囲の異なる複数のインスペクターモデルを生成する。そして、インスペクターモデル生成部21は、深層学習によって得られた、モデル適用範囲が異なる各インスペクターモデル(各DNN)を構築するための各種パラメータをインスペクターモデルDB16に格納する。
The inspector
例えば、インスペクターモデル生成部21は、訓練データの数を制御することで、適用範囲の異なる複数のインスペクターモデルを生成する。図7は、訓練データ数と適用範囲との関係を示す図である。図7では、クラス0、クラス1、クラス2の3クラス分類の特徴量空間を図示している。
For example, the inspector
図7に示すように、一般的には、訓練データの数が多いほど、多くの特徴量を多く学習することになるので、より網羅的な学習が実行され、モデル適用範囲が広いモデルが生成される。一方で、訓練データの数が少ないほど、学習する教師データの特徴量が少ないので、網羅できる範囲(特徴量)が限定的になり、モデル適用範囲が狭いモデルが生成される。 As shown in Figure 7, in general, the larger the number of training data, the more features will be learned, so more comprehensive learning will be performed, and a model with a wider range of model application will be generated. be done. On the other hand, the smaller the number of training data, the fewer the features of the training data to be learned, so the range (features) that can be covered becomes limited, and a model with a narrow model application range is generated.
そこで、インスペクターモデル生成部21は、訓練回数は同じにして、訓練データの数を変更することで、複数のインスペクターモデルを生成する。例えば、機械学習モデル15が訓練回数(100エポック)、訓練データ数(1000個/1クラス)で学習された状態で、5つのインスペクターモデルを生成する場合を考える。この場合、インスペクターモデル生成部21は、インスペクターモデル1の訓練データ数を「500個/1クラス」、インスペクターモデル2の訓練データ数を「400個/1クラス」、インスペクターモデル3の訓練データ数を「300個/1クラス」、インスペクターモデル4の訓練データ数を「200個/1クラス」、インスペクターモデル5の訓練データ数を「100個/1クラス」と決定し、教師データDB13から教師データを無作為に選択して、それぞれを100エポックで学習する。
Therefore, the inspector
その後、インスペクターモデル生成部21は、学習されたインスペクターモデル1、2、3、4、5それぞれの各種パラメータをインスペクターモデルDB16に格納する。このようにして、インスペクターモデル生成部21は、機械学習モデル15の適用範囲よりも狭いモデル適用範囲を有するとともに、それぞれのモデル適用範囲が異なる5つのインスペクターモデルを生成することができる。
Thereafter, the inspector
なお、インスペクターモデル生成部21は、誤差逆伝搬などの手法を用いて、各インスペクターモデルを学習することができ、他の手法を採用することもできる。例えば、インスペクターモデル生成部は、訓練データをインスペクターモデルに入力して得られる出力結果と、入力された訓練データのラベルとの誤差が小さくなるように、DNNのパラメータを更新することで、インスペクターモデル(DNN)の学習を実行する。
Note that the inspector
図4に戻り、閾値設定部22は、機械学習モデル15の精度劣化を判定する閾値であって、合致率の判定に利用する閾値を設定する。例えば、閾値設定部22は、記憶部12から機械学習モデル15を読み出すとともに、インスペクターモデルDB16から各種パラメータを読み出して学習済みの5つのインスペクターモデルを構築する。そして、閾値設定部22は、教師データDB13に記憶される各検証データを読み出して、機械学習モデル15と各インスペクターモデルに入力して、それぞれの出力結果(分類結果)に基づくモデル適用領域への分布結果を取得する。
Returning to FIG. 4, the threshold
その後、閾値設定部22は、検証データに対する機械学習モデル15とインスペクターモデル1と間の各クラスの合致率、機械学習モデル15とインスペクターモデル2と間の各クラスの合致率、機械学習モデル15とインスペクターモデル3と間の各クラスの合致率、機械学習モデル15とインスペクターモデル4と間の各クラスの合致率、機械学習モデル15とインスペクターモデル5と間の各クラスの合致率を算出する。
Thereafter, the
そして、閾値設定部22は、各合致率を用いて閾値を設定する。例えば、閾値設定部22は、各合致率をディスプレイ等に表示して、ユーザから閾値の設定を受け付ける。また、閾値設定部22は、各合致率の平均値、各合致率の最大値、各合致率の最小値など、ユーザが検出を要求する劣化状態に応じて、任意に選択して設定することができる。
Then, the threshold
図4に戻り、劣化検出部23は、分類部24、監視部25、報知部26を有し、入力データに対する機械学習モデル15の出力結果と各インスペクターモデルの出力結果とを比較し、機械学習モデル15の精度の劣化を検出する処理部である。
Returning to FIG. 4, the
分類部24は、入力データを機械学習モデル15と各インスペクターモデルとのそれぞれに入力して、それぞれの出力結果(分類結果)を取得する処理部である。例えば、分類部24は、各インスペクターモデルの学習が完了すると、各インスペクターモデルのパラメータをインスペクターモデルDB16から取得して各インスペクターモデルを構築するとともに、機械学習モデル15を実行する。
The classification unit 24 is a processing unit that inputs input data to the
そして、分類部24は、入力データを機械学習モデル15に入力してその出力結果を取得するとともに、当該入力データをインスペクターモデル1(DNN1)からインスペクターモデル5(DNN5)の5つのインスペクターモデルそれぞれに入力して各出力結果を取得する。その後、分類部24は、入力データと各出力結果とを対応付けて記憶部12に格納するとともに、監視部25に出力する。
Then, the classification unit 24 inputs the input data to the
監視部25は、各インスペクターモデルの出力結果を用いて、機械学習モデル15の精度劣化を監視する処理部である。具体的には、監視部25は、クラスごとに機械学習モデル15の出力と、インスペクターモデルの出力との合致率の分布変化を測定する。例えば、監視部25は、各入力データに対する機械学習モデル15の出力結果と各インスペクターモデルの出力結果との合致率を算出し、合致率が低下した場合に、機械学習モデル15の精度劣化を検出する。なお、監視部25は、検出結果を報知部26に出力する。
The monitoring unit 25 is a processing unit that monitors accuracy deterioration of the
図8は、精度劣化の検出を説明する図である。図8では、入力データに対する監視対象の機械学習モデル15の出力結果とインスペクターモデルの出力結果とを図示している。ここでは、説明を分かりやすくするため、1つのインスペクターモデルを例に、特徴量空間におけるモデル適用領域へのデータ分布を用いて、監視対象の機械学習モデル15の出力に対してインスペクターモデルの出力が合致する確率を説明する。
FIG. 8 is a diagram illustrating detection of accuracy deterioration. FIG. 8 illustrates the output results of the
図8に示すように、監視部25は、運用開始時、監視対象の機械学習モデル15から、クラス0のモデル適用領域には6つの入力データが属し、クラス1のモデル適用領域には6つの入力データが属し、クラス2のモデル適用領域には8つの入力データが属することを取得する。一方、監視部25は、インスペクターモデルから、クラス0のモデル適用領域には6つの入力データが属し、クラス1のモデル適用領域には6つの入力データが属し、クラス2のモデル適用領域には8つの入力データが属することを取得する。
As shown in FIG. 8, at the start of operation, the monitoring unit 25 determines that six input data belong to the model application area of
つまり、監視部25は、機械学習モデル15とインスペクターモデルとの各クラスの合致率が一致することから合致率を100%と算出する。このタイミングでは、それぞれの分類結果が一致する。
In other words, the monitoring unit 25 calculates the matching rate as 100% since the matching rate of each class between the
時間経過が進むと、監視部25は、監視対象の機械学習モデル15から、クラス0のモデル適用領域には6つの入力データが属し、クラス1のモデル適用領域には6つの入力データが属し、クラス2のモデル適用領域には8つの入力データが属することを取得する。一方、監視部25は、インスペクターモデルから、クラス0のモデル適用領域には3つの入力データが属し、クラス1のモデル適用領域には6つの入力データが属し、クラス2のモデル適用領域には8つの入力データが属することを取得する。
As time progresses, the monitoring unit 25 determines from the
つまり、監視部25は、クラス0については合致率を50%((3/6)×100)と算出し、クラス1とクラス2については合致率を100%と算出する。すなわち、クラス0のデータ分布の変化が検出される。このタイミングでは、インスペクターモデルは、クラス0に分類されなかった3つの入力データに対して、クラス0に分類するとは限らない状態である。
That is, the monitoring unit 25 calculates the match rate for
さらに時間経過が進むと、監視部25は、監視対象の機械学習モデル15から、クラス0のモデル適用領域には3つの入力データが属し、クラス1のモデル適用領域には6つの入力データが属し、クラス2のモデル適用領域には8つの入力データが属することを取得する。一方、監視部25は、インスペクターモデルから、クラス0のモデル適用領域には1つの入力データが属し、クラス1のモデル適用領域には6つの入力データが属し、クラス2のモデル適用領域には8つの入力データが属することを取得する。
As time progresses further, the monitoring unit 25 determines that three input data belong to the model application area of
つまり、監視部25は、クラス0については合致率を33%((1/3)×100)と算出し、クラス1とクラス2については合致率を100%と算出する。すなわち、クラス0のデータ分布が変化したと判定される。このタイミングでは、機械学習モデル15では、クラス0と分類されるべき入力データがクラス0と分類されず、インスペクターモデルでは、クラス0に分類されなかった5つの入力データに対しては、クラス0に分類されるとは限らない状態である。
That is, the monitoring unit 25 calculates the match rate for
ここで、合致率の分布の変化を説明する。図9は、合致率の分布変化を説明する図である。図9では、横軸が各インスペクターモデル、縦軸が合致率(合致した割合)であり、あるクラスに対する5つのインスペクターモデルそれぞれと機械学習モデル15との合致率の変化を示している。
Here, changes in the matching rate distribution will be explained. FIG. 9 is a diagram illustrating changes in the distribution of matching rates. In FIG. 9, the horizontal axis is each inspector model, and the vertical axis is the match rate (matching rate), and shows changes in the match rate between each of the five inspector models and the
インスペクターモデル1、2、3、4、5のモデル適用領域の大きさをインスペクターモデル1が最も広く、インスペクターモデル5が最も狭いとする。この場合、運用開始の初期段階から時間経過が進むと、モデル適用領域が狭いインスペクターモデルほどデータの分布に敏感に反応するので、インスペクターモデル5や4の合致率が低下する。監視部25は、インスペクターモデル5や4の合致率が閾値を下回ったことを検出することで、精度劣化発生を検出することができる。また、監視部25は、ほとんどのインスペクターモデルの合致率が閾値を下回ったことを検出することで、入力データの傾向変化を検出することができる。
Assume that the size of the model application area of
図4に戻り、報知部26は、機械学習モデル15の精度劣化が検出された場合に、アラート等を所定装置に報知する処理部である。例えば、報知部26は、合致率が閾値を下回るインスペクターモデルが検出された場合、または、合致率が閾値を下回るインスペクターモデルが所定数以上検出された場合、アラートを報知する。
Returning to FIG. 4, the notification unit 26 is a processing unit that notifies a predetermined device of an alert or the like when deterioration in accuracy of the
また、報知部26は、クラスごとにアラートを報知することもできる。例えば、報知部26は、あるクラスについて、合致率が閾値を下回るインスペクターモデルの数が所定数以上検出された場合に、アラートを報知する。なお、監視項目は、クラスごとやインスペクターモデルごとなど任意に設定することができる。また、各インスペクターモデルについて、クラスごとの合致率の平均を各インスペクターモデルの合致率とすることもできる。 Further, the notification unit 26 can also notify an alert for each class. For example, the notification unit 26 notifies an alert when a predetermined number or more of inspector models whose matching rate is below a threshold is detected for a certain class. Note that monitoring items can be arbitrarily set for each class, each inspector model, etc. Furthermore, for each inspector model, the average of the match rates for each class can be taken as the match rate for each inspector model.
[処理の流れ]
図10は、処理の流れを示すフローチャートである。図10に示すように、処理が開始されると(S101:Yes)、インスペクターモデル生成部21は、各インスペクターモデル用の教師データを生成し(S102)、生成した教師データ内の訓練データを用いて、各インスペクターモデル用の訓練を実行して、各インスペクターモデルを生成する(S103)。[Processing flow]
FIG. 10 is a flowchart showing the flow of processing. As shown in FIG. 10, when the process is started (S101: Yes), the inspector
続いて、閾値設定部22は、教師データ内の検証データを機械学習モデル15と各インスペクターモデルに入力して得られる出力結果の合致率を算出し(S104)、合致率に基づき閾値を設定する(S105)。
Next, the
その後、劣化検出部23は、入力データを機械学習モデル15に入力して出力結果を取得し(S106)、入力データを各インスペクターモデルに入力して出力結果を取得する(S107)。
After that, the
そして、劣化検出部23は、出力結果の比較、すなわち特徴量空間におけるモデル適用領域の分布を蓄積し(S108)、蓄積数が規定数に到達するまで(S109:No)、S106以降を繰り返す。
Then, the
その後、劣化検出部23は、蓄積数が規定数に到達すると(S109:Yes)、クラスごとに各インスペクターモデルと機械学習モデル15との合致率を算出する(S110)。
Thereafter, when the accumulated number reaches the specified number (S109: Yes), the
ここで、合致率が検出条件を満たなさない場合(S111:No)、S106以降が繰り返され、合致率が検出条件を満たす場合(S111:Yes)、劣化検出部23は、アラートを報知する(S112)。
Here, if the matching rate does not satisfy the detection condition (S111: No), the steps from S106 onwards are repeated, and if the matching rate satisfies the detection condition (S111: Yes), the
[効果]
上述したように、精度劣化検出装置10は、モデル適用領域の範囲を監視対象の機械学習モデルより狭めた少なくとも1つ以上のインスペクターモデルを生成する。そして、精度劣化検出装置10は、クラスごとに機械学習モデルの出力と各インスペクターモデルの出力との合致率の分布変化を測定する。この結果、精度劣化検出装置10は、高次元データの多クラス分類問題に対しても、モデル精度劣化を検出することができ、機械学習モデル15出力の正誤情報を用いずに、入力データの傾向の時間変化に起因する学習済みモデルの機能劣化を検出することができる。[effect]
As described above, the accuracy deterioration detection device 10 generates at least one inspector model whose model application area is narrower than that of the machine learning model to be monitored. Then, the accuracy deterioration detection device 10 measures a change in the distribution of the match rate between the output of the machine learning model and the output of each inspector model for each class. As a result, the accuracy deterioration detection device 10 can detect model accuracy deterioration even in multi-class classification problems of high-dimensional data, and can detect trends in input data without using correctness information of the output of the
図11は、高次元データの精度劣化検出の比較結果を説明する図である。図11では、背景に緑色が多く利用される猫の画像データを訓練データに用いて機械学習モデル15を学習し、T2統計量などの一般技術による精度劣化検出と、実施例1による手法(インスペクターモデルの利用)で精度劣化検出とを比較する。なお、図11の各グラフの横軸、縦軸も特徴量を示している。FIG. 11 is a diagram illustrating a comparison result of accuracy deterioration detection of high-dimensional data. In FIG. 11, the
図11に示すように、機械学習モデル15は、訓練データに緑の成分と白の成分とが多いことを特徴量として学習する。したがって、主成分分析を行う上記一般技術では、緑成分の多い犬の画像データが入力された場合でも、猫クラスと判定してしまう。さらに、白が異常に多い画像データの場合には、それが猫の画像であっても、白の特徴量が多すぎることから、猫クラスと検出できない。
As shown in FIG. 11, the
一方、実施例1によるインスペクターモデルは、機械学習モデル15よりもモデル適用領域が狭い。このため、インスペクターモデルは、緑成分の多い犬の画像データが入力された場合でも、猫クラスではない判定することができ、さらに、白が異常に多い猫の画像データであっても、猫の特徴量を正確に学習できているので、猫クラスと検出することができる。
On the other hand, the inspector model according to the first embodiment has a narrower model application area than the
このように、精度劣化検出装置10のインスペクターモデルは、一般技術として比較して、学習データとは特徴量が異なる入力データを高精度に検出することができる。したがって、精度劣化検出装置10は、機械学習モデル15とインスペクターモデルとの合致率により、入力データの分布変化に追従することができ、機械学習モデル15の精度低下を検出することができる。
In this way, the inspector model of the accuracy deterioration detection device 10 can detect input data with different feature amounts from learning data with high accuracy compared to general techniques. Therefore, the accuracy deterioration detection device 10 can follow changes in the distribution of input data based on the match rate between the
図12は、多クラス分類の精度劣化検出の比較結果を説明する図である。図12では、図11と同様、T2統計量などの一般技術による精度劣化検出と、実施例1による手法(インスペクターモデルの利用)で精度劣化検出とを比較する。FIG. 12 is a diagram illustrating a comparison result of detection of accuracy deterioration in multi-class classification. In FIG. 12, similarly to FIG. 11, accuracy deterioration detection using a general technique such as the T2 statistic is compared with accuracy deterioration detection using the method according to the first embodiment (using the inspector model).
図12に示す一般技術では、訓練データ群との主成分の距離を測定に利用しているため、訓練データ内に多クラスのデータ群が混ざっていると、正常データと判定される範囲が広くなってしまい、異常データを検知することができない。つまり、クラス0、クラス1、クラス2それぞれの正常データの範囲が決定されると、ほとんどデータがその範囲内に属してしまい、いずれにも属さないはずの異常値データを異常と判定することが難しい。このため、入力データが図12に示す異常値データに変化したことを検出することができないので、モデルの精度劣化検知を実現できない。
In the general technique shown in Figure 12, the distance of the principal component from the training data group is used for measurement, so if the training data contains data from multiple classes, the range of normal data will be wide. As a result, abnormal data cannot be detected. In other words, once the range of normal data for
一方、実施例1によるインスペクターモデルは、機械学習モデル15よりもモデル適用領域が狭い。このため、クラス0のモデル適用領域、クラス1のモデル適用領域、クラス2のモデル適用領域を区別することができる。したがって、モデル適用領域以外に属するデータは、異常と正確に検出することができる。このため、入力データが図12に示す異常値データに変化したことを検出することができるので、モデルの精度劣化検知を実現することができる。
On the other hand, the inspector model according to the first embodiment has a narrower model application area than the
[具体例]
次に、機械学習モデル15として画像分類器を用いて、インスペクターモデルによる精度劣化を検出する具体例を説明する。画像分類器とは、入力した画像をクラス(カテゴリ)ごとに分類する機械学習モデルである。例えば、アパレルの通信販売サイトや個人間で衣料品を売買するオークションサイト等では、衣料品の画像をサイトにアップロードし、その衣料品のカテゴリをサイト上に登録する。サイトにアップロードした画像のカテゴリの自動登録を行うために、機械学習モデルを用いて、画像から衣料品のカテゴリの予測を行っている。システム運用中に、アップロードする衣料品の画像の傾向(データ分布)が変化すると、機械学習モデルの精度が劣化していく。一般技術では、手動で予測結果の正誤を確認し、正解率を算出して、モデル精度劣化を検知していた。そこで、実施例1による手法を適用することで、予測結果の正誤情報を用いることなく、モデル精度劣化を検知する。[Concrete example]
Next, a specific example will be described in which an image classifier is used as the
図13は、画像分類器を用いた具体例を説明する図である。図13に示すように、具体例で示すシステムは、入力データを画像分類器、インスペクターモデル1、インスペクターモデル2のそれぞれに入力し、画像分類器と各インスペクターモデルとのモデル適用領域のデータ分布の合致率を用いて、画像分類器の精度劣化を検出して、アラートを出力するシステムである。
FIG. 13 is a diagram illustrating a specific example using an image classifier. As shown in FIG. 13, the system shown in the specific example inputs input data to each of the image classifier,
次に、教師データを説明する。図14は、教師データの具体例を説明する図である。図14に示すように、図13に示した具体例の教師データは、ラベルがクラス0であるT-シャツ、ラベルがクラス1であるズボン、ラベルがクラス2であるプロオーバー、ラベルがクラス3ではドレス、ラベルがクラス4であるコートの各画像データを用いる。また、ラベルがクラス5であるサンダル、ラベルがクラス6であるシャツ、ラベルがクラス7であるスニーカー、ラベルがクラス8ではバッグ、ラベルがクラス9であるアンクルブーツの各画像データを用いる。
Next, the teaching data will be explained. FIG. 14 is a diagram illustrating a specific example of teacher data. As shown in FIG. 14, the training data for the specific example shown in FIG. 13 includes a T-shirt with a label of
ここで、画像分類器は、10クラス分類を行うDNNを用いた分類器であり、教師データを1000個/1クラス、訓練回数を100エポックとして訓練されている。また、インスペクターモデル1は、10クラス分類を行うDNNを用いた検出器であり、教師データを200個/1クラス、訓練回数を100エポックとして訓練されている。インスペクターモデル2は、10クラス分類を行うDNNを用いた検出器であり、教師データを100個/1クラス、訓練回数を100エポックとして訓練されている。
Here, the image classifier is a classifier using DNN that performs 10-class classification, and is trained using 1000 pieces of teacher data/class and 100 epochs of training. The
つまり、モデル適用領域は、画像分類器、インスペクターモデル1、インスペクターモデル2の順に狭くなっている。なお、教師データは、画像分類器の教師データの中から無作為に選択した。また、各クラスの合致率の閾値は、インスペクターモデル1、インスペクターモデル2のいずれも0.7とする。
In other words, the model application area becomes narrower in the order of image classifier,
このような状態において、図13に示すシステムの入力データは、教師データ同様、衣料品(10クラスのいずれか)の画像(グレースケール)を利用する。なお、入力画像はカラーでも良い。監視対象の画像分類器(機械学習モデル15)に合わせた入力データを用いる。 In such a state, the input data of the system shown in FIG. 13 uses an image (grayscale) of clothing (any of the 10 classes), similar to the teacher data. Note that the input image may be in color. Input data suitable for the image classifier (machine learning model 15) to be monitored is used.
このような状態において、精度劣化検出装置10は、監視対象の画像分類器に入力したデータを、各インスペクターモデルに入力して、出力の比較を実行し、画像分類器の出力クラスごとに、比較結果(合致または非合致)を蓄積する。そして、精度劣化検出装置10は、蓄積している比較結果(例えば、直近100個/クラス)から、各クラスの合致率を算出し、合致率が閾値未満か判定する。そして、精度劣化検出装置10は、閾値未満の場合、精度劣化検知のアラートを出力する。 In such a state, the accuracy deterioration detection device 10 inputs the data input to the image classifier to be monitored to each inspector model, compares the outputs, and performs the comparison for each output class of the image classifier. Accumulate the results (match or non-match). Then, the accuracy deterioration detection device 10 calculates the match rate for each class from the accumulated comparison results (for example, the most recent 100 results/class), and determines whether the match rate is less than a threshold value. Then, the accuracy deterioration detection device 10 outputs an alert for detecting accuracy deterioration when the value is less than the threshold value.
図15は、精度劣化検出の実行結果を説明する図である。図15には、入力データのうち、クラス0(T-シャツ)の画像のみ、徐々に画像が回転していき、傾向が変化したケースの実行結果を示している。精度劣化検出装置10は、クラス0のデータが10度回転した時点で、インスペクターモデル2の合致率(0.69)が閾値(例えば0.7)を下回り、アラートを通知した。なお、クラス0のデータが15度回転した時点で、インスペクターモデル2だけではなくインスペクターモデル1の合致率も低下している。つまり、精度劣化検出装置10は、画像分類器の正解率がわずかに下がった段階で、モデルの精度劣化を検出できた。
FIG. 15 is a diagram illustrating the execution results of precision deterioration detection. FIG. 15 shows the execution results of a case in which only the image of class 0 (T-shirt) among the input data is gradually rotated and the tendency changes. The precision deterioration detection device 10 notifies an alert when the match rate (0.69) of the
ところで、実施例1では、モデル適用領域を拡大するために訓練データを増やす方法であるデータ拡張の反対である訓練データの削減を行うことによりモデル適用領域を縮小させた各インスペクターモデルを生成する例を説明した。しかし、訓練データ数を削減しても、必ずしもモデル適用領域が狭くならない場合がある。 By the way, in Example 1, each inspector model is generated in which the model application area is reduced by reducing training data, which is the opposite of data expansion, which is a method of increasing training data in order to expand the model application area. explained. However, even if the number of training data is reduced, the model application area may not necessarily become narrower.
図16は、モデル適用領域の制御例を説明する図である。図16の上図に示すように、実施例1では、インスペクターモデルの訓練データをランダムに削減し、インスペクターモデルごとに削減する訓練データ数を変更することで、モデル適用領域を縮小させた複数のインスペクターモデルを生成した。ところが、どの訓練データを削減すればモデル適用領域がどの程度狭くなるか未知であることから、モデルの適用領域を意図的に任意の広さに調整することが必ずしも成功するとか限らない。そのため、図16の下図に示すように、訓練データを削減して生成したインスペクターモデルのモデル適用領域が狭くならないケースがある。このように、モデル適用領域が狭くならなかった場合、作り直しの工数がかかる。 FIG. 16 is a diagram illustrating an example of controlling the model application area. As shown in the upper diagram of FIG. 16, in Example 1, the training data of the inspector model is randomly reduced, and the number of training data to be reduced is changed for each inspector model, thereby reducing the model application area. Generated inspector model. However, since it is unknown how much the model application area will be narrowed by reducing which training data, intentionally adjusting the model application area to an arbitrary width is not necessarily successful. Therefore, as shown in the lower diagram of FIG. 16, there are cases where the model application area of the inspector model generated by reducing the training data is not narrowed. In this way, if the model application area is not narrowed, it will take a lot of man-hours to re-create it.
そこで、実施例2では、監視対象の機械学習モデルと同じ訓練データを用いて過学習させることで、モデル適用領域を確実に狭める。このとき、validation accuracy(検証データに対する正解率)の値でモデル適用領域の広さを任意に調整する。 Therefore, in the second embodiment, the model application area is reliably narrowed by performing overfitting using the same training data as the machine learning model to be monitored. At this time, the width of the model application area is arbitrarily adjusted using the value of validation accuracy (accuracy rate for validation data).
図17は、実施例2によるインスペクターモデルの生成例を説明する図である。図17に示すように、実施例2では、訓練データを用いてインスペクターモデルの学習を30エポック実行したタイミングで、検証データを用いて、そのときのvalidation accuracyを算出して保持する。さらに、訓練データを用いてインスペクターモデルの学習を70エポック実行したタイミングで、検証データを用いてそのときのvalidation accuracyを算出して保持し、インスペクターモデルの学習を100エポック実行したタイミングで、そのときのvalidation accuracyを算出して保持する。そして、各validation accuracyのときのインスペクターモデルの状態(例えばDNNの特徴量)を保持する。 FIG. 17 is a diagram illustrating an example of generating an inspector model according to the second embodiment. As shown in FIG. 17, in the second embodiment, at the timing when learning of the inspector model is executed for 30 epochs using the training data, the validation accuracy at that time is calculated and retained using the validation data. Furthermore, at the timing when the inspector model learning has been executed for 70 epochs using the training data, the validation accuracy at that time is calculated and retained using the validation data, and at the timing when the inspector model learning has been executed for 100 epochs. Calculate and maintain the validation accuracy of. Then, the state of the inspector model (for example, DNN feature amount) at each validation accuracy is held.
このように、訓練データによる学習を実行する過程で、学習途中のインスペクターモデルのvalidation accuracyを監視し、任意のvalidation accuracyの値に低下するまで、意図的に過学習させることで、学習させすぎて汎化性能が低下する状態を発生させる。つまり、任意のvalidation accuracyの値のインスペクターモデルの状態を保持することで、モデル適用領域の広さを任意に調整したインスペクターモデルを生成する。 In this way, in the process of performing learning using training data, we monitor the validation accuracy of the inspector model that is in the middle of learning, and intentionally overfit it until the validation accuracy drops to a desired value. Generates a condition that degrades generalization performance. In other words, by maintaining the state of the inspector model with an arbitrary validation accuracy value, an inspector model with the width of the model application area arbitrarily adjusted is generated.
図18は、validation accuracyの変化を説明する図である。図18では、訓練回数と学習時の学習曲線の関係を示している。実施例2にかかる精度劣化検出装置10のインスペクターモデル生成部21は、監視対象の機械学習モデルと同じ訓練データを用いて過学習させることで、モデル適用領域を確実に狭める。一般的に、インスペクターモデルに用いるDNNは、過学習させるほど、訓練データに最適化し、モデル適用領域が縮小する。
FIG. 18 is a diagram illustrating changes in validation accuracy. FIG. 18 shows the relationship between the number of training sessions and the learning curve during learning. The inspector
図18に示すように、正解率が0.9までは訓練回数を増やすほど、徐々に正解率が上がっていく。しかし、正解率が0.9となった訓練回数からさらに訓練回数を増やしていくと、training accuracy(訓練データに対する正解率)は徐々に上昇するが、過学習が進むので、validation accuracyは低下する。つまり、過学習するほどモデル適用領域が狭まり、入力データの小さな変化で正解率が下がる。これは、過学習により汎化性能が失われ、訓練データ以外のデータに対する正解率が低下するためである。このvalidation accuracyの値の低下によって、モデル適用領域が狭まっていることを確認できるので、validation accuracyの値を監視することで、モデル適用領域が異なる複数のインスペクターモデルを生成することができる。 As shown in FIG. 18, the correct answer rate gradually increases as the number of training increases until the correct answer rate reaches 0.9. However, if the number of trainings is further increased from the number of training sessions where the accuracy rate reaches 0.9, the training accuracy (accuracy rate for the training data) will gradually increase, but the validation accuracy will decrease as overfitting progresses. . In other words, the more the model is overfitted, the narrower the model's application area becomes, and the accuracy rate decreases with small changes in input data. This is because generalization performance is lost due to overfitting, and the accuracy rate for data other than training data decreases. It can be confirmed that the model application area is narrowed by this decrease in the validation accuracy value, so by monitoring the validation accuracy value, it is possible to generate multiple inspector models with different model application areas.
図19は、validation accuracyを用いたインスペクターモデルの生成を説明する図である。図19では、訓練回数と学習時の学習曲線の関係を示している。上述したように、インスペクターモデルのモデル適用領域の大小は、validation accuracyの値の高低で測定できる。validation accuracyの値が異なるインスペクターモデルを複数作成することで、各インスペクターモデルのモデル適用領域が異なることを保証できる。 FIG. 19 is a diagram illustrating generation of an inspector model using validation accuracy. FIG. 19 shows the relationship between the number of training sessions and the learning curve during learning. As described above, the size of the model application area of the inspector model can be measured by the level of the validation accuracy value. By creating multiple inspector models with different validation accuracy values, it is possible to guarantee that each inspector model has a different model application area.
図19に示すように、インスペクターモデル生成部21は、訓練データを用いて、インスペクターモデル(DNN)を学習していき、validation accuracyの値が0.9となった時点のDNN1の各種パラメータを取得して保持する。インスペクターモデル生成部21は、さらに訓練を続け、validation accuracyの値が0.8となった時点のDNN2の各種パラメータ、validation accuracyの値が0.6となった時点のDNN3の各種パラメータ、validation accuracyの値が0.4となった時点のDNN4の各種パラメータ、validation accuracyの値が0.2となった時点のDNN5の各種パラメータを取得して保持する。
As shown in FIG. 19, the inspector
この結果、インスペクターモデル生成部21は、モデル適用領域が確実に異なるDNN1、DNN2、DNN3、DNN4、DNN5を生成することができる。入力データが、学習データと同じ分布の場合、「合致率≒(validation accuracy)×監視対象のモデルの正解率」となる。つまり、合致率の分布は、図19の下図のグラフのように、インスペクターモデルのvalidation accuracyに比例した形になる。
As a result, the inspector
実施例2にかかる精度劣化検出装置10は、インスペクターモデルのモデル適用領域を必ず狭めることができるので、モデル適用領域が狭まらなかった場合に必要なインスペクターモデルの作り直しなどの工数を削減できる。また、精度劣化検出装置10は、モデル適用領域の大小を、validation accuracyの値の高低で測定できるので、validation accuracyの値を変えることで、必ず異なるモデル適用領域のインスペクターモデルを作成できるため、モデル精度劣化検知で求められる要件「異なるモデル適用領域の複数のインスペクターモデル」を必ず満たすことができる。 Since the accuracy deterioration detection device 10 according to the second embodiment can definitely narrow the model application area of the inspector model, it is possible to reduce the number of man-hours such as rebuilding the inspector model that would be required if the model application area was not narrowed. In addition, the accuracy deterioration detection device 10 can measure the size of the model application area by the value of validation accuracy, so by changing the value of validation accuracy, it is possible to create an inspector model with a different model application area. It can definitely meet the requirement of "multiple inspector models in different model application areas" required for accuracy degradation detection.
また、実施例2にかかる精度劣化検出装置10は、上述した手法により生成した複数のインスペクターモデルを用いて、機械学習モデル15の精度劣化を検出することで、実施例1と比べて、より精度の高い検出を実現することができる。
In addition, the accuracy deterioration detection device 10 according to the second embodiment detects accuracy deterioration of the
ところで、実施例2では、過学習によりモデル適用領域を狭くする例を説明したが、モデル適用領域が狭くなっても、各クラスの決定境界の位置が変わらず、入力データの傾向の変化を検知できない事象が発生する可能性がある。 By the way, in Example 2, we explained an example of narrowing the model application area due to overfitting, but even if the model application area becomes narrower, the position of the decision boundary for each class does not change, and changes in the trends of input data can be detected. There is a possibility that something that cannot be done may occur.
例えば、各クラスの特徴がはっきり分かれている訓練データの場合、訓練データ数を減らして訓練しても、各クラスの決定境界の位置が変わらない場合がある。決定境界の位置が変わらない場合、つまり、モデル適用領域外でもインスペクターモデルの出力が監視対象の機械学習モデルの出力と全く同じになり全て合致してしまう状態の場合、入力データの傾向の変化を検出できない。 For example, in the case of training data in which the characteristics of each class are clearly separated, the position of the decision boundary of each class may not change even if the number of training data is reduced and training is performed. If the position of the decision boundary does not change, that is, if the output of the inspector model is exactly the same as the output of the machine learning model to be monitored even outside the model application area, and all of them match, it is difficult to detect changes in the trend of the input data. Undetectable.
図20は、機械学習モデルとインスペクターモデルの境界位置が変わらない例を説明する図である。図20のOK例の場合、訓練データ数を削減して訓練すると、決定境界の位置が変わることから、合致率の変化でモデル精度劣化を検出できる。一方、図20のNG例の場合、決定境界の位置が変わらないことから、全入力データの出力が合致してしまい、モデル精度劣化を検出できない。 FIG. 20 is a diagram illustrating an example in which the boundary position between the machine learning model and the inspector model does not change. In the case of the OK example in FIG. 20, if the number of training data is reduced and training is performed, the position of the decision boundary changes, so deterioration in model accuracy can be detected from a change in the matching rate. On the other hand, in the case of the NG example shown in FIG. 20, since the position of the decision boundary does not change, the outputs of all input data match, and deterioration in model accuracy cannot be detected.
そこで、実施例3では、インスペクターモデルの分類クラスに「その他(unknown)クラス」を新設する。そして、監視対象の機械学習モデルと同じ訓練データセットに、その他クラスの訓練データを追加した教師データを用いて、インスペクターモデルを訓練する。その他クラスの訓練データは、元々の訓練データセットとは無関係なデータを利用する。具体的には、同形式であるが無関係なデータセットからランダムに抽出したデータ、あるいは、各項目にランダムな値を設定して自動生成したデータなどを採用する。インスペクターモデルの出力がその他クラスだった場合は、その入力データはモデル適用領域外と判定する。 Therefore, in the third embodiment, an "other (unknown) class" is newly added to the classification classes of the inspector model. Then, the inspector model is trained using the same training data set as the machine learning model to be monitored, plus training data for other classes. Training data for other classes uses data unrelated to the original training dataset. Specifically, data that has the same format but is randomly extracted from unrelated data sets, or data that is automatically generated by setting random values for each item, etc. is used. If the output of the inspector model is any other class, the input data is determined to be outside the model application area.
図21は、実施例3のインスペクターモデルを説明する図である。図21に示すように、実施例1や実施例2で説明した通常のインスペクターモデルは、特徴量空間を、クラス0のモデル適用領域、クラス1のモデル適用領域、クラス2のモデル適用領域に分類したものである。このため、通常のインスペクターモデルは、これらのモデル適用領域に該当するデータについては、分類先のクラスを保証することができるが、これらのモデル適用領域に該当しないデータについては、どのクラスに分類するかを保証できない。例えば、クラス0に分類すべき入力データが、機械学習モデル15ではクラス1と分類され、インスペクターモデルにおいてもクラス1と分類されると、クラス1の分類結果として合致してしまい、合致率が低下しない。
FIG. 21 is a diagram illustrating the inspector model of the third embodiment. As shown in FIG. 21, the normal inspector model explained in Examples 1 and 2 classifies the feature space into a
これに対して、実施例3のインスペクターモデルは、特徴量空間を、クラス0のモデル適用領域、クラス1のモデル適用領域、クラス2のモデル適用領域に分類するとともに、いずれのクラスにも属さない領域をクラス10のモデル適用領域(その他クラス)と分類する。このため、実施例3のインスペクターモデルは、各クラスのモデル適用領域に該当するデータについて、分類先のクラスを保証することができるとともに、各クラスのモデル適用領域に該当しないデータについて、クラス10に分類することを保証できる。
In contrast, the inspector model of Example 3 classifies the feature space into a model application area of
上述したように、実施例3にかかる精度劣化検出装置10は、各インスペクターモデルに対して、監視対象である機械学習モデル15の出力クラスの他に、モデル適用領域外のデータを表すその他クラス(例えばクラス10)を新設する。実施例3にかかる精度劣化検出装置10は、その他クラスと判定された入力データを、モデル精度劣化検出の仕組みでは「非合致」と扱う。
As described above, the accuracy deterioration detection device 10 according to the third embodiment provides, for each inspector model, in addition to the output class of the
図22は、実施例3の劣化検出を説明する図である。図22に示すように、劣化検出部23は、運用開始初期では、監視対象の機械学習モデル15とインスペクターモデルとのそれぞれについて、各入力データが各クラスのモデル適用範囲に属するので、合致率は高いままである。
FIG. 22 is a diagram illustrating deterioration detection according to the third embodiment. As shown in FIG. 22, in the initial stage of operation, the
その後、時間が経過すると、入力データの分布が変化し始める。この場合、劣化検出部23は、監視対象の機械学習モデル15については、各入力データが各クラスのモデル適用範囲に属するが、インスペクターモデルについては、クラス10(その他クラス)に分類される入力データが出現する。ここで、クラス10に分類される入力データは、機械学習モデル15では分類されないクラスなので、合致することはない。つまり、合致率が徐々に低下する。
Then, as time passes, the distribution of input data begins to change. In this case, for the
その後、さらに時間が経過すると、入力データの分布がさらに変化し始める。この場合、劣化検出部23は、監視対象の機械学習モデル15については、各入力データが各クラスのモデル適用範囲に属するが、インスペクターモデルについては、クラス10(その他クラス)に分類される入力データが多発する。したがって、劣化検出部23は、合致率が閾値を下回り、精度劣化と検出することができる。
After that, as more time passes, the distribution of input data begins to change further. In this case, for the
ここで、図14で説明した具体例を用いて、実施例3にかかるインスペクターモデルの生成例を説明する。図23は、その他クラス(クラス10)の教師データの例を説明する図である。図23に示すように、インスペクターモデル生成部21は、インスペクターモデルの教師データとして、図14で説明した画像データ以外にも図23に示した画像データを用いることで、クラス10のモデル適用領域をインスペクターモデルに学習させる。つまり、インスペクターモデル生成部21は、機械学習モデル15で利用された第一の訓練データとは異なる特徴をランダムに設定するとともに、機械学習モデル15で学習されていないデータを判定することを示すラベルを有する第二の訓練データを用いて、インスペクターモデルを学習により生成する。
Here, an example of generating an inspector model according to the third embodiment will be described using the specific example described in FIG. 14. FIG. 23 is a diagram illustrating an example of teacher data for the other class (class 10). As shown in FIG. 23, the inspector
具体的には、クラス10用の教師データとして、インターネット上に公開されている1000種類のカテゴリの画像から、無作為に抽出した1000枚の画像を利用する。例えば、リンゴの画像、赤ちゃんの画像、熊の画像、ベッドの画像、自転車の画像、魚の画像のように、図14に示した衣料品とは異なるカテゴリの画像データ、言い換えると衣料品には含まれないラベルが設定される画像データを用いることで、クラス10のモデル適用領域をインスペクターモデルに学習させる。 Specifically, as teacher data for class 10, 1000 images randomly extracted from images of 1000 categories published on the Internet are used. For example, image data in a category different from the clothing shown in Figure 14, such as an apple image, a baby image, a bear image, a bed image, a bicycle image, and a fish image; in other words, it is not included in the clothing item. The inspector model is made to learn the model application area of class 10 by using image data for which a label that is not specified is set.
実施例3では、画像分類器は、10クラス分類を行うDNNを用いた分類器であり、教師データを1000個/1クラス、訓練回数を100エポックとして訓練する。また、インスペクターモデルは、11クラス分類を行うDNNを用いた検出器であり、教師データを1000個/1クラスとその他クラス1000個、訓練回数を100エポックとして訓練する。なお、教師データは、画像分類器の教師データの中から無作為に選択した。 In Example 3, the image classifier is a classifier using DNN that performs 10 class classification, and is trained with 1000 pieces of teacher data/class and the number of training times as 100 epochs. Further, the inspector model is a detector using DNN that performs 11 class classification, and is trained with 1000 pieces of teacher data/one class and 1000 other classes, and the number of training times is 100 epochs. Note that the training data was randomly selected from the training data of the image classifier.
このような状態において、精度劣化検出装置10は、監視対象の画像分類器に入力したデータをインスペクターモデルに入力して、出力の比較を実行し、画像分類器の出力クラスごとに、比較結果(合致または非合致)を蓄積する。そして、精度劣化検出装置10は、蓄積している比較結果(例えば、直近100個/クラス)から、各クラスの合致率を算出し、合致率が閾値未満か判定する。そして、精度劣化検出装置10は、閾値未満の場合、精度劣化検知のアラートを出力する。 In such a state, the accuracy deterioration detection device 10 inputs the data input to the image classifier to be monitored into the inspector model, compares the outputs, and compares the comparison results ( matches or non-matches). Then, the accuracy deterioration detection device 10 calculates the match rate for each class from the accumulated comparison results (for example, the most recent 100 results/class), and determines whether the match rate is less than a threshold value. Then, the accuracy deterioration detection device 10 outputs an alert for detecting accuracy deterioration when the value is less than the threshold value.
図24は、実施例3による効果を説明する図である。図24には、入力データのうち、クラス0(T-シャツ)の画像のみ、徐々に画像が回転していき、傾向が変化したケースの実行結果を示している。精度劣化検出装置10は、クラス0のデータが5度回転した時点で、インスペクターモデルの合致率(0.68)が閾値(例えば0.7)を下回り、アラートを通知した。つまり、画像分類器の正解率がわずかに下がった段階で、モデルの精度劣化を検出できた。
FIG. 24 is a diagram illustrating the effects of the third embodiment. FIG. 24 shows the execution results of a case in which only the image of class 0 (T-shirt) among the input data is gradually rotated and the tendency changes. The accuracy deterioration detection device 10 notifies an alert when the match rate (0.68) of the inspector model falls below a threshold (for example, 0.7) when the
上述したように、実施例3にかかる精度劣化検出装置10は、各クラスの特徴がはっきり分かれている訓練データの場合でも、つまり決定境界が変わらない場合でも、精度劣化を検出可能な高精度なインスペクターモデルを生成することができる。また、実施例3にかかる精度劣化検出装置10は、その他クラスを検出可能なインスペクターモデルを用いることで、入力データの分布変化を鋭敏に検出することができる。なお、実施例3にかかる精度劣化検出装置10は、各クラスの合致率により精度劣化を検出することもでき、その他クラスの出現数が閾値を越えた場合に、精度劣化と検出することもできる。 As described above, the accuracy deterioration detection device 10 according to the third embodiment is a highly accurate system that can detect accuracy deterioration even in the case of training data in which the characteristics of each class are clearly separated, that is, even when the decision boundary does not change. Inspector models can be generated. Further, the accuracy deterioration detection device 10 according to the third embodiment can sensitively detect changes in the distribution of input data by using an inspector model that can detect other classes. Note that the accuracy deterioration detection device 10 according to the third embodiment can also detect accuracy deterioration based on the matching rate of each class, and can also detect accuracy deterioration when the number of occurrences of other classes exceeds a threshold value. .
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。 Now, the embodiments of the present invention have been described so far, but the present invention may be implemented in various different forms in addition to the embodiments described above.
[数値等]
また、上記実施例で用いたデータ例、数値、各閾値、特徴量空間、ラベル数、インスペクターモデル数、具体例等は、あくまで一例であり、任意に変更することができる。また、入力データや学習方法などもあくまで一例であり、任意に変更することができる。また、学習モデルには、ニューラルネットワークなど様々な手法を採用することができる。[Numeric values, etc.]
Furthermore, the data examples, numerical values, threshold values, feature space, number of labels, number of inspector models, specific examples, etc. used in the above embodiments are just examples, and can be changed as desired. Furthermore, the input data, learning method, etc. are just examples, and can be changed arbitrarily. Furthermore, various methods such as neural networks can be adopted as the learning model.
[モデル適用範囲等]
実施例1では、教師データの数を削減することで、モデル適用範囲の異なる複数のインスペクターモデルを生成する例を説明したが、これに限定されるものではなく、例えば訓練回数(エポック数)を削減することで、モデル適用範囲の異なる複数のインスペクターモデルを生成することもできる。また、教師データの数ではなく、教師データに含まれる訓練データの数を削減することで、モデル適用範囲の異なる複数のインスペクターモデルを生成することもできる。[Model application range, etc.]
In Example 1, an example was explained in which multiple inspector models with different model application ranges are generated by reducing the number of training data, but the invention is not limited to this. By reducing it, it is also possible to generate multiple inspector models with different model application ranges. Furthermore, by reducing the number of training data included in the teacher data rather than the number of teacher data, it is also possible to generate a plurality of inspector models with different model application ranges.
[合致率]
例えば、上記実施例では、各クラスのモデル適用領域に属する入力データの合致率を求める例を説明したが、これに限定されるものではない。例えば、機械学習モデル15の出力結果とインスペクターモデルの出力結果との合致率により精度劣化を検出することもできる。[Match rate]
For example, in the above embodiment, an example was explained in which the matching rate of input data belonging to the model application area of each class is calculated, but the present invention is not limited to this. For example, deterioration in accuracy can be detected based on the match rate between the output results of the
また、図8の例では、クラス0に着目して合致率を算出したが、各クラスに着目することもできる。例えば、図8の例では、時間経過後、監視部25は、監視対象の機械学習モデル15から、クラス0のモデル適用領域には6つの入力データが属し、クラス1のモデル適用領域には6つの入力データが属し、クラス2のモデル適用領域には8つの入力データが属することを取得する。一方、監視部25は、インスペクターモデルから、クラス0のモデル適用領域には3つの入力データが属し、クラス1のモデル適用領域には9つの入力データが属し、クラス2のモデル適用領域には8つの入力データが属することを取得する。この場合、監視部25は、クラス0とクラス1のそれぞれについて、合致率の低下を検出することができる。
Furthermore, in the example of FIG. 8, the matching rate was calculated focusing on
[その他クラス]
実施例3では、その他クラスの訓練データには、元々の訓練データセットと同形式であるが無関係なデータセットからランダムに抽出した画像データを用いる具体例を説明したが、これに限定されるものではない。例えば、表などのデータの場合には、各項目にランダムな値を設定した、その他クラスの教師データを生成することもできる。[Other classes]
In Example 3, a specific example was explained in which the training data for the other classes uses image data that has the same format as the original training dataset but is randomly extracted from an unrelated dataset; however, the present invention is not limited to this. isn't it. For example, in the case of data such as tables, it is also possible to generate teacher data for other classes in which random values are set for each item.
[再学習]
また、精度劣化検出装置10は、精度劣化が検出された場合に、インスペクターモデルの判定結果を正解情報として、機械学習モデル15を再学習することもできる。例えば、精度劣化検出装置10は、各入力データを説明変数、各入力データに対するインスペクターモデルの判定結果を目的変数とした再学習データを生成して、機械学習モデル15を再学習することもできる。なお、インスペクターモデルが複数ある場合は、機械学習モデル15との合致率が低いインスペクターモデルを採用することができる。[Re-learning]
Further, when accuracy deterioration is detected, the accuracy deterioration detection device 10 can also re-learn the
[システム]
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。[system]
Information including processing procedures, control procedures, specific names, and various data and parameters shown in the above documents and drawings can be changed arbitrarily unless otherwise specified.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散や統合の具体的形態は図示のものに限られない。つまり、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、機械学習モデル15を実行して入力データを分類する装置と、精度劣化を検出する装置とを別々の筐体で実現することもできる。
Furthermore, each component of each device shown in the drawings is functionally conceptual, and does not necessarily need to be physically configured as shown in the drawings. That is, the specific form of distributing and integrating each device is not limited to what is shown in the drawings. In other words, all or part of them can be functionally or physically distributed and integrated into arbitrary units depending on various loads and usage conditions. For example, a device that executes the
さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。 Furthermore, all or any part of each processing function performed by each device can be realized by a CPU and a program that is analyzed and executed by the CPU, or can be realized as hardware using wired logic.
[ハードウェア]
図25は、ハードウェア構成例を説明する図である。図25に示すように、精度劣化検出装置10は、通信装置10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ10dを有する。また、図25に示した各部は、バス等で相互に接続される。[hardware]
FIG. 25 is a diagram illustrating an example of a hardware configuration. As shown in FIG. 25, the accuracy deterioration detection device 10 includes a communication device 10a, an HDD (Hard Disk Drive) 10b, a memory 10c, and a processor 10d. Furthermore, the parts shown in FIG. 25 are interconnected by a bus or the like.
通信装置10aは、ネットワークインタフェースカードなどであり、他の装置との通信を行う。HDD10bは、図4に示した機能を動作させるプログラムやDBを記憶する。 The communication device 10a is a network interface card or the like, and communicates with other devices. The HDD 10b stores programs and DB that operate the functions shown in FIG.
プロセッサ10dは、図4に示した各処理部と同様の処理を実行するプログラムをHDD10b等から読み出してメモリ10cに展開することで、図4等で説明した各機能を実行するプロセスを動作させる。例えば、このプロセスは、精度劣化検出装置10が有する各処理部と同様の機能を実行する。具体的には、プロセッサ10dは、インスペクターモデル生成部21、閾値設定部22、劣化検出部23等と同様の機能を有するプログラムをHDD10b等から読み出す。そして、プロセッサ10dは、インスペクターモデル生成部21、閾値設定部22、劣化検出部23等と同様の処理を実行するプロセスを実行する。
The processor 10d reads a program that executes the same processing as each processing unit shown in FIG. 4 from the HDD 10b, etc., and deploys it in the memory 10c, thereby operating a process that executes each function described in FIG. 4, etc. For example, this process executes the same functions as each processing unit included in the accuracy deterioration detection device 10. Specifically, the processor 10d reads a program having the same functions as the inspector
このように、精度劣化検出装置10は、プログラムを読み出して実行することで精度劣化検出定方法を実行する情報処理装置として動作する。また、精度劣化検出装置10は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、精度劣化検出装置10によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。 In this way, the accuracy deterioration detection device 10 operates as an information processing device that executes the accuracy deterioration detection method by reading and executing the program. Furthermore, the accuracy deterioration detection device 10 can also realize the same functions as in the above-described embodiments by reading the program from a recording medium using a medium reading device and executing the read program. Note that the programs in other embodiments are not limited to being executed by the precision deterioration detection device 10. For example, the present invention can be similarly applied when another computer or server executes the program, or when these computers or servers cooperate to execute the program.
10 精度劣化検出装置
11 通信部
12 記憶部
13 教師データDB
14 入力データDB
15 機械学習モデル
16 インスペクターモデルDB
20 制御部
21 インスペクターモデル生成部
22 閾値設定部
23 劣化検出部
24 分類部
25 監視部
26 報知部10 Accuracy
14 Input data DB
15 Machine learning model 16 Inspector model DB
20
Claims (7)
訓練データを用いて訓練された学習済みモデルに対して入力データを入力したときの第一の出力結果を取得し、
前記訓練データから訓練データの数よりも少ない数の訓練データを抽出し、抽出した訓練データを用いて訓練された検出モデルに対して、前記入力データを入力したときの第二の出力結果を取得し、
前記第一の出力結果と前記第二の出力結果との合致率に基づいて、データの傾向の時間変化に起因する前記学習済みモデルの精度劣化を検出する
処理を実行することを特徴とする劣化検出方法。 The computer is
Obtain the first output result when inputting the input data to the learned model trained using the training data ,
Extract a smaller number of training data than the number of training data from the training data, and obtain a second output result when inputting the input data to a detection model trained using the extracted training data. death,
Deterioration characterized by executing a process of detecting accuracy deterioration of the trained model due to time change in data trend based on a match rate between the first output result and the second output result. Detection method.
前記検出する処理は、前記第一の出力結果と前記各第二の出力結果との各合致率に基づいて、前記学習済みモデルの精度劣化を検出することを特徴とする請求項1に記載の劣化検出方法。 The acquiring process is performed for each of a plurality of detection models trained using training data that is smaller than the number of training data used for the learned model and that has a different number of training data. Get each second output result when entering the input data,
2. The detecting process detects deterioration in accuracy of the trained model based on each matching rate between the first output result and each of the second output results. Deterioration detection method.
前記検出する処理は、前記複数の検出モデルそれぞれの出力クラスごとに、前記第一の出力結果と前記第二の出力結果との合致率を算出し、閾値未満の合致率が発生した場合に、前記学習済みモデルの精度劣化を検出することを特徴とする請求項3に記載の劣化検出方法。 The acquiring process acquires each second output result when inputting the input data for each of the plurality of detection models,
The detecting process calculates a match rate between the first output result and the second output result for each output class of each of the plurality of detection models, and when a match rate less than a threshold occurs, 4. The deterioration detection method according to claim 3, further comprising detecting deterioration in accuracy of the trained model.
前記再学習データを用いて、前記学習済みモデルの再学習を実行する処理を前記コンピュータが実行することを特徴とする請求項1に記載の劣化検出方法。 When deterioration in accuracy of the learned model is detected, generating relearning data using the second output result as correct answer information,
2. The deterioration detection method according to claim 1, wherein the computer executes a process of relearning the trained model using the relearning data.
訓練データを用いて訓練された学習済みモデルに対して入力データを入力したときの第一の出力結果を取得し、
前記訓練データから訓練データの数よりも少ない数の訓練データを抽出し、抽出した訓練データを用いて訓練された検出モデルに対して、前記入力データを入力したときの第二の出力結果を取得し、
前記第一の出力結果と前記第二の出力結果との合致率に基づいて、データの傾向の時間変化に起因する前記学習済みモデルの精度劣化を検出する
処理を実行させることを特徴とする劣化検出プログラム。 to the computer,
Obtain the first output result when inputting the input data to the learned model trained using the training data ,
Extract a smaller number of training data than the number of training data from the training data, and obtain a second output result when inputting the input data to a detection model trained using the extracted training data. death,
Deterioration characterized by executing a process of detecting accuracy deterioration of the trained model due to time change in data trend based on a match rate between the first output result and the second output result. detection program.
前記訓練データから訓練データの数よりも少ない数の訓練データを抽出し、抽出した訓練データを用いて訓練された検出モデルに対して、前記入力データを入力したときの第二の出力結果を取得する第二取得部と、
前記第一の出力結果と前記第二の出力結果との合致率に基づいて、データの傾向の時間変化に起因する前記学習済みモデルの精度劣化を検出する検出部と
を有することを特徴とする情報処理装置。 a first acquisition unit that acquires a first output result when input data is input to the learned model trained using the training data ;
Extract a smaller number of training data than the number of training data from the training data, and obtain a second output result when inputting the input data to a detection model trained using the extracted training data. a second acquisition section,
and a detection unit that detects deterioration in accuracy of the learned model due to temporal changes in data trends based on a match rate between the first output result and the second output result. Information processing device.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/041803 WO2021079481A1 (en) | 2019-10-24 | 2019-10-24 | Degradation detection method, degradation detection program, and information processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2021079481A1 JPWO2021079481A1 (en) | 2021-04-29 |
JP7371696B2 true JP7371696B2 (en) | 2023-10-31 |
Family
ID=75619757
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021553247A Active JP7371696B2 (en) | 2019-10-24 | 2019-10-24 | Deterioration detection method, deterioration detection program, and information processing device |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220215272A1 (en) |
JP (1) | JP7371696B2 (en) |
WO (1) | WO2021079481A1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016152053A1 (en) | 2015-03-23 | 2016-09-29 | 日本電気株式会社 | Accuracy-estimating-model generating system and accuracy estimating system |
-
2019
- 2019-10-24 JP JP2021553247A patent/JP7371696B2/en active Active
- 2019-10-24 WO PCT/JP2019/041803 patent/WO2021079481A1/en active Application Filing
-
2022
- 2022-03-27 US US17/705,342 patent/US20220215272A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016152053A1 (en) | 2015-03-23 | 2016-09-29 | 日本電気株式会社 | Accuracy-estimating-model generating system and accuracy estimating system |
Non-Patent Citations (1)
Title |
---|
坂本悠輔 ほか,教師なし学習における非データ分布依存型コンセプトドリフト検出手法の検証,情報処理学会研究報告[online],日本,一般社団法人情報処理学会,2015年02月24日,Vol.2015-MPS-102, No6,pp.1-6,[retrieved on 2019.12.20], Retrieved from the Internet: <URL: http://id.nii.ac.jp/1001/00113254> |
Also Published As
Publication number | Publication date |
---|---|
US20220215272A1 (en) | 2022-07-07 |
WO2021079481A1 (en) | 2021-04-29 |
JPWO2021079481A1 (en) | 2021-04-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10896574B2 (en) | System and method for outlier detection in gaming | |
US20220222545A1 (en) | Generation method, non-transitory computer-readable storage medium, and information processing device | |
US11132790B2 (en) | Wafer map identification method and computer-readable recording medium | |
US20220230027A1 (en) | Detection method, storage medium, and information processing apparatus | |
CN114662602A (en) | Outlier detection method and device, electronic equipment and storage medium | |
US20220230028A1 (en) | Determination method, non-transitory computer-readable storage medium, and information processing device | |
JP7371696B2 (en) | Deterioration detection method, deterioration detection program, and information processing device | |
JP7371694B2 (en) | Deterioration detection method, deterioration detection program, and information processing device | |
JP7363910B2 (en) | Display method, display program and information processing device | |
JP7283563B2 (en) | Generation method, generation program and information processing device | |
JP7207566B2 (en) | Generating method, generating program and information processing device | |
JP7207565B2 (en) | Generating method, generating program and information processing device | |
US20230385690A1 (en) | Computer-readable recording medium storing determination program, determination apparatus, and method of determining | |
JP7371695B2 (en) | Deterioration detection method, deterioration detection program, and information processing device | |
US20220207307A1 (en) | Computer-implemented detection method, non-transitory computer-readable recording medium, and computing system | |
CN115907954A (en) | Account identification method and device, computer equipment and storage medium | |
JP7424507B2 (en) | Detection program, detection method and detection device | |
JP7363912B2 (en) | Display method, display program and information processing device | |
JP2022147502A (en) | Machine learning program, machine learning method, and information processor | |
WO2021079446A1 (en) | Display method, display program, and information processing device | |
JP7287093B2 (en) | Learning program, learning method and learning device | |
Almog et al. | Diagnosis for post concept drift decision trees repair | |
TWI832403B (en) | Methods, apparatus and non-transitory computer-readable medium for multidimensional dynamic part average testing | |
JP2023112250A (en) | Data processing device, data processing system, and data processing method | |
TW202424907A (en) | Tire size identification method, tire size identification system and computer-readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230404 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230602 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230919 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231002 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7371696 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |