JP2020021301A - Training data evaluation device, training data evaluation method, and program - Google Patents
Training data evaluation device, training data evaluation method, and program Download PDFInfo
- Publication number
- JP2020021301A JP2020021301A JP2018144881A JP2018144881A JP2020021301A JP 2020021301 A JP2020021301 A JP 2020021301A JP 2018144881 A JP2018144881 A JP 2018144881A JP 2018144881 A JP2018144881 A JP 2018144881A JP 2020021301 A JP2020021301 A JP 2020021301A
- Authority
- JP
- Japan
- Prior art keywords
- data
- training
- model
- batch
- batch data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、機械学習において用いられる訓練データの訓練データ評価装置、訓練データ評価方法、およびプログラムに関する。 The present invention relates to a training data evaluation device, a training data evaluation method, and a program for training data used in machine learning.
近年、機械学習システムの研究が盛んに行われている。機械学習システムは非常に高性能化しており、例えば、セキュリティや自動運転車等へのアプリケーションが検討されている。 In recent years, research on machine learning systems has been actively conducted. Machine learning systems have become extremely sophisticated, and applications to security and self-driving cars, for example, are being studied.
特許文献1は、学習モデルの予測性能を高めるために、対象のデータに対して適切な機械学習のアルゴリズムを選択する機械学習管理の発明を開示している。この発明では、同じデータに対して機械学習アルゴリズムを変えながら何度もモデルの作成と評価を繰り返すモデル探索を行う。このモデル探索を繰り返すときに、過去に実施したモデル探索の過程で生成し、キャッシュに格納されたデータを再利用する。
機械学習システムにおいては、推論の対象を特定する要件(例えば、自動運転でいえば、道路を走行する車両の検出等)を定め、予め多数の訓練データを用いて、当該推論を行うためのモデルを学習する(非特許文献1)。 In a machine learning system, a requirement for specifying an object of inference (for example, detection of a vehicle running on a road in the case of automatic driving) is determined, and a model for performing the inference using a large amount of training data in advance. Is learned (Non-Patent Document 1).
機械学習システムにおいて、要件に紐づく訓練データのデータセットは、機械学習に用いた全ての訓練データであった。すなわち、全ての訓練データを用いて訓練を行った結果が、要件に合っているかどうか、という観点でモデルの評価が行われることが一般的であった。 In the machine learning system, the training data set associated with the requirements was all training data used for machine learning. That is, the model is generally evaluated from the viewpoint of whether or not the result of training using all the training data meets the requirements.
ところで、新規にモデルを作成する際に、過去のモデル開発に使った訓練データを再利用することがある。この場合、新規のモデルにおいても過去の要件項目を引き継ぐ場合には、過去のモデル開発の訓練データを再利用するだけでなく、どの訓練データが過去のモデル生成に有効であったかが分かると、新規のモデル開発を効率良く行うことができる。 By the way, when a new model is created, training data used in past model development may be reused. In this case, when inheriting the past requirement items even in the new model, not only reuse the training data of the past model development but also know which training data was effective for the past model generation. Model development can be performed efficiently.
本発明は、上記背景に鑑み、推論対象を特定する要件に対する訓練データの寄与を評価する訓練データ評価装置を提供することを目的とする。 In view of the above background, an object of the present invention is to provide a training data evaluation device that evaluates the contribution of training data to a requirement for specifying an inference target.
本発明は上記課題を解決するために以下の技術的手段を採用する。特許請求の範囲及びこの項に記載した括弧内の符号は、ひとつの態様として後述する実施の形態に記載の具体的手段との対応関係を示す一例であって、本発明の技術的範囲を限定するものではない。 The present invention employs the following technical means to solve the above problems. The reference numerals in the claims and the parentheses described in this section are examples showing the correspondence with specific means described in the embodiment described below as one aspect, and limit the technical scope of the present invention. It does not do.
本発明の訓練データ評価装置(1)は、訓練データを複数のバッチデータに分けるバッチデータ生成部(10)と、複数のバッチデータを順次用いてモデルの訓練を行う訓練処理部(11)と、前記バッチデータを順次適用した訓練によって変化していく過程のモデルと、それぞれのモデルを生成したバッチデータの情報とを記憶した訓練経過記憶部(22)と、前記訓練経過記憶部(22)に記憶された複数のモデルにテストデータを適用して、前記各モデルを評価し、各モデルの評価結果に基づいてバッチデータを選定する追跡処理部(12)と、前記バッチデータの選定結果を出力する出力部(13)とを備える。 A training data evaluation device (1) according to the present invention includes a batch data generation unit (10) for dividing training data into a plurality of batch data, and a training processing unit (11) for training a model by sequentially using the plurality of batch data. A training progress storage unit (22) storing a model of a process of being changed by the training in which the batch data is sequentially applied, and information of the batch data for generating each model; and a training progress storage unit (22). A tracking processing unit (12) for applying the test data to the plurality of models stored in the storage unit, evaluating each of the models, and selecting batch data based on the evaluation result of each model; An output unit (13) for outputting.
訓練データを複数のバッチデータに分け、それぞれのバッチデータを用いて訓練を行ったモデルをテストすることにより、どのバッチデータが要件を満たすモデルの生成につながっているかを評価することができる。 By dividing the training data into a plurality of batch data and testing the trained model using each batch data, it is possible to evaluate which batch data has led to the generation of a model satisfying the requirements.
本発明の別の態様の訓練データ評価装置(5)は、訓練データの中から選定された選定データを評価する訓練データ評価装置(5)であって、前記選定データを除いた前記訓練データに基づいてモデルを生成し、生成されたモデルにテストデータを適用してモデルを評価することによって、前記選定データの検証を行う検証部(13)を備える。ここで、選定データは、所定の精度で要件に適合する推論を行えるモデルを生成できるとして選定されたものであり、選定の方法は問わない。 A training data evaluation device (5) according to another aspect of the present invention is a training data evaluation device (5) for evaluating selected data selected from training data. A verification unit configured to generate a model based on the selected model and to apply the test data to the generated model to evaluate the model, thereby verifying the selected data; Here, the selection data is selected as a model capable of generating a model capable of performing inference that meets requirements with predetermined accuracy, and the selection method is not limited.
このように選定データを除く訓練データを用いて生成したモデルを評価することにより選定データを検証できる。すなわち、選定データを除く訓練データによって生成したモデルの評価が低い場合には、選定データの評価が高いことが確認される。逆に、選定データを除く訓練データによって生成したモデルの評価が高い場合には、訓練データ全体の評価が高いと考えられ、選定データだけが殊更に評価が高いというわけではないことが分かる。 Thus, the selection data can be verified by evaluating the model generated using the training data excluding the selection data. That is, when the evaluation of the model generated by the training data excluding the selection data is low, it is confirmed that the evaluation of the selection data is high. Conversely, when the evaluation of the model generated by the training data excluding the selection data is high, it is considered that the evaluation of the entire training data is high, and it can be seen that only the selection data is not particularly high.
本発明の訓練データ評価方法は、訓練データを複数のバッチデータに分けるステップ(S10)と、複数のバッチデータを順次用いてモデルの訓練を行うステップ(S12)と、前記バッチデータを順次適用した訓練によって変化していく過程のモデルと、それぞれのモデルを生成したバッチデータの情報とを訓練経過記憶部(22)に記憶するステップ(S13)と、前記訓練経過記憶部(22)に記憶された複数のモデルにテストデータを適用して、前記各モデルを評価し、各モデルの評価結果に基づいてバッチデータを選定するステップ(S17)と、前記バッチデータの選定結果を出力するステップ(S18)とを備える。 In the training data evaluation method of the present invention, the step of dividing the training data into a plurality of batch data (S10), the step of training a model by sequentially using the plurality of batch data (S12), and the batch data are sequentially applied. A step (S13) of storing in the training progress storage unit (22) a model in the process of being changed by the training and information of the batch data for generating each model; and storing the training progress storage unit (22) in the training progress storage unit (22). Applying the test data to the plurality of models, evaluating each of the models, selecting batch data based on the evaluation results of each model (S17), and outputting the batch data selection results (S18). ).
本発明のプログラムは、訓練データを評価するためのプログラムであって、コンピュータに、訓練データを複数のバッチデータに分けるステップと、複数のバッチデータを順次用いてモデルの訓練を行うステップと、前記バッチデータを順次適用した訓練によって変化していく過程のモデルと、それぞれのモデルを生成したバッチデータの情報とを訓練経過記憶部に記憶したステップと、前記訓練経過記憶部に記憶された複数のモデルにテストデータを適用して、前記各モデルを評価し、各モデルの評価結果に基づいてバッチデータを選定するステップと、前記バッチデータの選定結果を出力するステップとを実行させる。 The program of the present invention is a program for evaluating training data, a computer, a step of dividing the training data into a plurality of batch data, a step of training the model using a plurality of batch data sequentially, and A step of storing in the training progress storage unit the model of the process of changing by the training in which the batch data is sequentially applied, and the information of the batch data that generated each model; and a plurality of steps stored in the training progress storage unit. A step of applying the test data to the model to evaluate each of the models, selecting batch data based on an evaluation result of each model, and outputting the batch data selection result is executed.
本発明によれば、訓練データのうちのどの訓練データがモデルの評価につながっているかを評価することができる。 According to the present invention, it is possible to evaluate which training data of the training data leads to the evaluation of the model.
以下、本発明の実施の形態の訓練データ評価装置について図面を参照して説明する。以下で説明する実施の形態では、ニューラルネットワークモデルを例として説明するが、本発明は、別のモデルを訓練する訓練データの評価にも用いることができる。 Hereinafter, a training data evaluation device according to an embodiment of the present invention will be described with reference to the drawings. In the embodiment described below, a neural network model will be described as an example, but the present invention can also be used for evaluating training data for training another model.
(第1の実施の形態)
図1は、第1の実施の形態の訓練データ評価装置1の構成を示す図である。訓練データ評価装置1は、評価の対象となる訓練データを記憶した訓練データ記憶部20を有している。訓練データによって生成するモデルの要件は、例えば、「自車線上の自動車を認識すること」であり、このための訓練データは、フロントガラスから撮影した画像に自動車を示す境界ボックスを付した大量の画像である。
(First Embodiment)
FIG. 1 is a diagram illustrating a configuration of a training
本実施の形態の訓練データ評価装置1は、大量の訓練データを評価して、「自車線上の自動車を認識すること」という要件を満たすモデルを生成するのに適した訓練データを選定するものである。モデルとしては、N層畳み込みニューラルネットワークのモデルを用いる。
The training
訓練データ評価装置1は、バッチデータ生成部10と、訓練処理部11と、追跡処理部12と、出力部13とを有している。バッチデータ生成部10は、訓練データ記憶部20に記憶された大量の訓練データをバッチデータに分ける機能を有する。
The training
図2(a)は、訓練データ記憶部20に記憶された大量の訓練データを示す模式図である。図2(a)に示す一つ一つの四角は、フロントガラスから撮影した画像に自動車を示す境界ボックスを付した画像を模したものである。バッチデータ生成部10は、図2(b)に示すように、訓練データをバッチデータに分ける。図2(b)では、9つのデータを一つのバッチとしているが、これは例であって、一つのバッチに含める訓練データの数はいくつでもよい。なお、バッチデータは、1つの訓練データで構成されていてもよい。
FIG. 2A is a schematic diagram illustrating a large amount of training data stored in the training
バッチデータ生成部10は、生成したバッチデータをバッチデータ記憶部21に記憶する。なお、バッチデータ記憶部21にはバッチに含まれる訓練データ自体を記憶してもよいし、訓練データ自体を記憶しないでバッチに含まれる訓練データのIDを記憶してもよい。後者の構成の場合には、実際に訓練を行う際には、訓練データ記憶部20から訓練データを読み出すことになる。
The batch
訓練処理部11は、訓練データを用いてモデルの訓練を行い、モデルを生成する処理を行う。訓練処理部11は、バッチデータを順次用いてモデルの訓練を行う。訓練処理部11は、例えば、図2(b)に示すバッチ100の訓練データを用いてモデルを訓練してモデルM100を生成し、次に、モデルM100に対してバッチ101の訓練データを用いて訓練してモデルM101を生成する。このように、バッチデータを順次適用してモデルを更新していく。訓練処理部11は、更新されていくモデルのデータとそのモデルを生成するのに用いたバッチデータを特定するデータを訓練経過記憶部22に記憶する。
The
追跡処理部12は、訓練経過記憶部22に記憶されたモデルに対して、テストデータを適用して追跡評価を行う。テストデータは、訓練データとは異なるデータであり、テストデータ記憶部23に記憶されている。訓練経過記憶部22に、モデルM100→モデルM101→・・・というモデルの訓練経過が記憶されているとき、追跡処理部12は、モデルM100、モデルM101、・・・のそれぞれに対して、テストデータを適用してモデルの評価を行う。追跡処理部12は、各モデルに対してテストデータを適用して評価した評価結果を追跡結果記憶部24に記憶する。
The
図3は、追跡結果記憶部24に記憶されたデータの例を示す図である。横軸は訓練進捗を示し、縦軸は要件を満たす度合いを示している。一番左にプロットされた「バッチ101」は、バッチ101によって訓練したモデルM100に対してテストデータを適用して得られた評価結果を示す。左から二番目にプロットされた「バッチ102」は、バッチ101で訓練されたモデルM100に対してさらにバッチ102で訓練して得られたモデルM102の評価結果を示す図である。このように図3に示すプロットは、右に進むにしたがって多くの訓練データが用いられているので、評価結果が安定していく。
FIG. 3 is a diagram illustrating an example of data stored in the tracking
追跡処理部12は、追跡結果記憶部24に記憶されたデータに基づいて、要件に適したモデルの生成に寄与したバッチデータを選定する。追跡処理部12は、選定したバッチデータを選定データ記憶部25に記憶する。なお、追跡結果に基づいて、バッチデータを選定する手法はいろいろと考えられる。
The
例えば、評価結果が最良のモデルに対応するバッチデータを選定することができる。または、評価結果が良い方から所定個数のモデルに対応するバッチデータを選定してもよい。あるいは、ニューラルネットワークから出力される判定の確信度(SOFTMAXの出力値等)が最も高いモデル又は高い方から所定個数のモデルに対応するバッチデータを選定してもよい。 For example, batch data corresponding to a model having the best evaluation result can be selected. Alternatively, batch data corresponding to a predetermined number of models may be selected from the one with the better evaluation result. Alternatively, batch data corresponding to a model with the highest degree of certainty (e.g., an output value of SOFTMAX) of the judgment output from the neural network or a predetermined number of models from the higher model may be selected.
また、評価結果の変化に着目してバッチデータを選定してもよい。例えば、モデルの評価結果を最後に良い方向へと変化させたバッチデータを選定してもよいし、モデルの評価結果を所定の閾値より大きく良い方向へ変化させたバッチデータを選定してもよい。 Further, the batch data may be selected by focusing on a change in the evaluation result. For example, batch data in which the evaluation result of the model is finally changed to a better direction may be selected, or batch data in which the evaluation result of the model has been changed to a better direction than a predetermined threshold may be selected. .
出力部13は、追跡処理部12にて選定したバッチデータを示すデータを出力する。この際、追跡結果記憶部24に記憶されたデータ(図3参照)を合わせて出力してもよい。これにより、バッチデータの選定理由を理解することができる。
The
図4は、第1の実施の形態の訓練データ評価装置1の動作を示す図である。訓練データ評価装置1は、訓練データ記憶部20に記憶されている大量の訓練データを分けてバッチデータを生成する(S10)。続いて、訓練データ評価装置1は、どの順序でバッチデータを用いて訓練を行うのか、訓練順序を決定する(S11)。
FIG. 4 is a diagram illustrating an operation of the training
続いて、訓練データ評価装置1は、バッチデータを使って訓練を行い(S12)、訓練によって生成されたモデルとその訓練に用いたバッチデータを特定するデータを訓練経過記憶部22に記憶する(S13)。訓練データ評価装置1は、全バッチデータの処理を終了したか否かを判定する(S14)。全バッチデータについて処理を終了していない場合には(S14でNO)、次のバッチデータを用いて、モデルをさらに訓練する(S12)。
Subsequently, the training
全バッチデータについて訓練を終了した場合は(S14でYES)、訓練データ評価装置1は、訓練経過記憶部22から訓練過程のモデルを読み出し(S15)、テストデータを用いて訓練経過のモデルのテストを行い、訓練経過のモデルの評価をする(S16)。続いて、訓練データ評価装置1は、訓練経過のモデルの評価結果に基づいて、要件に適したモデルを生成したバッチデータを選定し(S17)、選定結果を出力する(S18)。
When the training has been completed for all the batch data (YES in S14), the training
以上、本実施の形態の訓練データ評価装置1の構成について説明したが、上記した訓練データ評価装置1のハードウェアの例は、CPU、RAM、ROM、ハードディスク、ディスプレイ、キーボード、マウス、通信インターフェース等を備えたコンピュータである。上記した各機能を実現するモジュールを有するプログラムをRAMまたはROMに格納しておき、CPUによって当該プログラムを実行することによって、上記した訓練データ評価装置1が実現される。このようなプログラムも本発明の範囲に含まれる。
The configuration of the training
第1の実施の形態の訓練データ評価装置1は、訓練データを複数のバッチデータに分け、それぞれのバッチデータを用いて訓練を行ったモデルをテストすることにより、どのバッチデータが要件を満たすモデルの生成につながっているかを評価することができる。
The training
(第2の実施の形態)
図5は、第2の実施の形態の訓練データ評価装置2の構成を示す図である。第2の実施の形態の訓練データ評価装置2の基本的な構成は、第1の実施の形態の訓練データ評価装置1と同じであるが、第2の実施の形態の訓練データ評価装置2は、訓練過程のモデルを記憶する訓練経過記憶部22を備えていない。第2の実施の形態の訓練データ評価装置2は、モデルの訓練を行いながら、モデルの評価を行う点が異なる。
(Second embodiment)
FIG. 5 is a diagram illustrating a configuration of the training
図6は、第2の実施の形態の訓練データ評価装置2の動作を示す図である。訓練データ評価装置2は、訓練データ記憶部20に記憶されている大量の訓練データを分けてバッチデータを生成する(S20)。続いて、訓練データ評価装置2は、どの順序でバッチデータを用いて訓練を行うのか、訓練順序を決定する(S21)。
FIG. 6 is a diagram illustrating an operation of the training
続いて、訓練データ評価装置2は、バッチデータを使って訓練を行い(S22)、訓練によって生成されたモデルのテストを行い、訓練経過のモデルの評価をする(S23)。訓練データ評価装置2は、訓練経過のモデルの評価とそのモデルの生成に得られたバッチデータを特定するデータを追跡結果記憶部24に記憶する(S24)。訓練データ評価装置2は、全てのバッチデータを用いたか否かに基づいて、訓練を終了するか否かを判定する(S25)。全バッチデータの処理を終了していない場合には(S25でNO)、次のバッチデータを用いて、モデルの訓練および評価を行う(S22〜S24)。全バッチデータの処理を終了した場合は(S25でYES)、訓練データ評価装置2は、訓練経過のモデルの評価結果に基づいて、要件に適したモデルを生成したバッチデータを選定し(S26)、選定結果を出力する(S27)。
Subsequently, the training
第2の実施の形態の訓練データ評価装置2は、第1の実施の形態の訓練データ評価装置1と同様に、どのバッチデータが要件を満たすモデルの生成につながっているかを評価することができることに加え、バッチデータを用いたモデルの訓練を行いつつ、訓練過程で得られたモデルのテストを行うので、訓練過程で得られたモデルを残しておく必要がない。
Like the training
(第3の実施の形態)
図7は、第3の実施の形態の訓練データ評価装置3の構成を示す図である。第3の実施の形態の訓練データ評価装置3は、上記した第1の実施の形態の訓練データ評価装置1と同様にバッチデータの評価を行うが、バッチを組み替えてバッチデータの評価を繰り返し行う。そして、異なる試行で選定されたバッチに共通して含まれる訓練データを選定する。すなわち、第1の実施の形態では、バッチを単位として、評価の高い訓練データを選定していたのに対し、第3の実施の形態では各訓練データの単位で評価の高い訓練データを選定する。
(Third embodiment)
FIG. 7 is a diagram illustrating a configuration of the training
第3の実施の形態の訓練データ評価装置3は、繰返処理部30を有している。繰返処理部30は、バッチデータ生成部10、訓練処理部11および追跡処理部12を有している。バッチデータ生成部10は、訓練データからバッチデータを生成するが、繰り返しのたびに異なるバッチデータを生成する。訓練処理部11および追跡処理部12は、バッチデータ生成部10にて生成されたバッチデータに対して、第1の実施の形態の訓練データ評価装置1と同様に、モデルの生成とそのモデルの評価を行い、評価結果に基づいてバッチデータを選定する。追跡処理部12は、選定したバッチデータを選定バッチデータ記憶部25に記憶する。続いて、訓練データ選定部14は、選定されたバッチデータに共通に含まれる訓練データを選定する。
The training
図8は、訓練データ選定部14による訓練データの選定について説明するための図である。図8には、繰り返し処理のM回目の試行において良い結果を得たバッチデータと、N回目の試行において良い結果を得たバッチデータの例を示している。訓練データ選定部14は、異なる試行において得られたバッチデータに共通して含まれる訓練データを選定する。図8に示す例では、網掛けをしたデータAとデータBが両方のバッチデータに共に含まれているので、訓練データ選定部14は、データAとデータBを選定する。
FIG. 8 is a diagram for describing selection of training data by the training
図8では、2回の選定結果に共通して含まれるデータを選定する例を挙げたが、訓練データ選定部14は、K回(例えば、3回等)の結果に共通して含まれるデータを選定することとしてもよいし、すべての結果に共通して含まれるデータを選定することとしてもよい。
FIG. 8 shows an example of selecting data that is commonly included in the results of the two selections. However, the training
図9は、第3の実施の形態の訓練データ評価装置3の動作を示すフローチャートである。訓練データ評価装置3は、訓練データ記憶部20に記憶されている大量の訓練データを分けてバッチデータを生成する(S30)。続いて、訓練データ評価装置3は、どの順序でバッチデータを用いて訓練を行うのか、訓練順序を決定する(S31)。続いて、訓練データ評価装置3は、バッチデータを使って訓練を行い(S32)、訓練によって生成されたモデルとその訓練に用いたバッチデータを特定するデータを訓練経過記憶部22に記憶する(S33)。訓練データ評価装置3は、全バッチデータの処理を終了したか否かを判定する(S34)。全バッチデータの処理を終了していない場合には(S34でNO)、次のバッチデータを用いて、モデルをさらに訓練する(S32)。
FIG. 9 is a flowchart illustrating the operation of the training
全バッチデータの処理を終了した場合は(S34でYES)、訓練データ評価装置3は、訓練経過記憶部22から訓練過程のモデルを読み出し(S35)、テストデータを用いて訓練経過のモデルのテストを行い、訓練経過のモデルの評価をする(S36)。続いて、訓練データ評価装置3は、訓練経過のモデルの評価結果に基づいて、要件に適したモデルの生成に寄与したバッチデータを選定する(S37)。
When the processing of all the batch data is completed (YES in S34), the training
次に、訓練データ評価装置3は、訓練を終了するか否かを判定する(S38)。訓練を終了しないと判定された場合(S38でNO)、訓練データ評価装置3は、バッチデータを生成し直し(S30)、新たなバッチデータを用いて上記した処理を繰り返す(S31〜S37)。訓練を終了すると判定された場合(S38でYES)、訓練データ評価装置3は、選定されたバッチデータに共通して含む訓練データを抽出し(S39)、抽出結果を出力する(S40)。
Next, the training
第3の実施の形態の訓練データ評価装置3は、バッチデータを組み直してバッチデータの評価を行い、選定されたバッチデータに共通に含まれる訓練データを選定するので、バッチの単位よりもきめ細かく、要件を満たすモデルの生成に寄与する訓練データを選定できる。
The training
(第4の実施の形態)
図10は、第4の実施の形態の訓練データ評価装置4の構成を示す図である。第4の実施の形態の訓練データ評価装置4の基本的な構成は第1の実施の形態の訓練データ評価装置1と同じであるが、第4の実施の形態の訓練データ評価装置4は、選定されたバッチデータの検証を行う検証部15をさらに備えている。検証部15は、選定されたバッチデータを除く訓練データを用いてモデルを生成し、生成したモデルにテストデータを適用して評価を行う。
(Fourth embodiment)
FIG. 10 is a diagram illustrating a configuration of the training
図11は、第4の実施の形態の訓練データ評価装置4において検証の動作を示すフローチャートである。訓練データ評価装置4は、訓練データ記憶部20から訓練データを読み出し(S50)、読み出した訓練データから選定されたバッチデータを除外する(S51)。次に、訓練データ評価装置4は、バッチデータを除外した訓練データによって訓練を行ったモデルを生成し(S52)、生成したモデルにテストデータを適用して、モデルの評価を行う(S53)。訓練データ評価装置4は、その評価結果を出力する(S54)。
FIG. 11 is a flowchart illustrating a verification operation in the training
このように選定データを除く訓練データを用いて生成したモデルをテストして評価することにより選定されたバッチデータを検証できる。すなわち、選定されたバッチデータを除く訓練データによって生成したモデルの評価が低い場合には、選定されたバッチデータの評価が高いことが確認される。逆に、選定されたバッチデータを除く訓練データによって生成したモデルの評価が高い場合には、訓練データ全体の評価が高いと考えられ、選定されたバッチデータだけが殊更に評価が高いというわけではないことが分かる。 As described above, the batch data selected can be verified by testing and evaluating the model generated using the training data excluding the selected data. That is, when the evaluation of the model generated by the training data excluding the selected batch data is low, it is confirmed that the evaluation of the selected batch data is high. Conversely, when the model generated by the training data excluding the selected batch data has a high evaluation, the evaluation of the entire training data is considered to be high, and only the selected batch data has a particularly high evaluation. I understand that there is no.
以上、本発明の訓練データ評価装置について、実施の形態を挙げて詳細に説明したが、本発明は上記した実施の形態に限定されるものではない。上記した実施の形態においては、モデルの評価結果に基づいてバッチデータを選定する手法をいくつか説明したが、これらの複数の手法を用いてバッチデータを選定し、それらの和をとってもよい。 As described above, the training data evaluation device of the present invention has been described in detail with reference to the embodiments. However, the present invention is not limited to the above embodiments. In the above-described embodiment, several methods for selecting batch data based on the evaluation result of the model have been described. However, batch data may be selected using a plurality of these methods, and the sum thereof may be calculated.
モデルの生成過程において、訓練の初期はモデルが大きく変化するため、その評価が大きく変動しやすい。そこで、初期に生成されたモデルについてはその評価を行わないこととしてもよい。初期に生成されたモデルとは、例えば、バッチデータ全体に対する割合で「初期」を規定してもよく、例えば、全体の5分の1のバッチデータを用いるまでを「初期」としてもよい。また、適用する訓練データの絶対数によって「初期」を規定してもよく、例えば、1000枚のバッチデータを用いるまでを「初期」としてもよい。 In the process of generating a model, the model greatly changes at the beginning of training, and its evaluation tends to fluctuate greatly. Therefore, the model generated at the beginning may not be evaluated. The model generated at the beginning may define “initial” as a percentage of the entire batch data, for example, and may define “initial” until one-fifth of the batch data is used. The “initial” may be defined by the absolute number of training data to be applied. For example, the “initial” may be used until batch data of 1000 sheets is used.
上記した第4の実施の形態では、第1の実施の形態の訓練データ評価装置1にて選定したバッチデータに対して検証を行う装置を例として説明したが、第1の実施の形態の訓練データ評価装置1にて選定した訓練データ以外の訓練データに対して検証を行うことができる。
In the above-described fourth embodiment, an example has been described in which the apparatus for verifying the batch data selected by the training
図12は、訓練データ評価装置の別の例を示す図である。図12に示す訓練データ評価装置5は、データ評価部31と、検証部15と、出力部13とを備えている。データ評価部31は、訓練データ記憶部20に記憶された大量の訓練データの中からモデルの要件に合ったデータを選定する機能を有している。データ評価部31がデータを選定する方法は、限定されず、いかなる方法を採用してもよい。
FIG. 12 is a diagram illustrating another example of the training data evaluation device. The training
検証部15は、選定されたデータがモデルの要件に合っているかどうかを検証する。検証部15は、訓練データから選定データを除き、選定データを除いた訓練データを用いてモデルを生成する。検証部15は、生成されたモデルに対してテストデータを適用して、(訓練データ−選定データ)で生成されたモデルの評価を行う。このモデルの評価が高いか低いかによって、選定データの検証を行うことができる。
The
本発明は、機械学習において用いられる訓練データの評価を行う装置として有用である。 The present invention is useful as an apparatus for evaluating training data used in machine learning.
1〜5 訓練データ評価装置,10 バッチデータ生成部,11 訓練処理部,
12 追跡処理部,13 出力部,14 訓練データ選定部,15 検証部,
20 訓練データ記憶部,21 バッチデータ記憶部,22 訓練経過記憶部,
23 テストデータ記憶部,24 追跡結果記憶部,25 選定バッチデータ記憶部,
26 選定訓練データ記憶部,30 繰返処理部,31 データ評価部
1-5 training data evaluation device, 10 batch data generation unit, 11 training processing unit,
12 tracking processing unit, 13 output unit, 14 training data selection unit, 15 verification unit,
20 training data storage unit, 21 batch data storage unit, 22 training progress storage unit,
23 test data storage unit, 24 tracking result storage unit, 25 selected batch data storage unit,
26 selection training data storage unit, 30 repetition processing unit, 31 data evaluation unit
Claims (12)
複数のバッチデータを順次用いてモデルの訓練を行う訓練処理部(11)と、
前記バッチデータを順次適用した訓練によって変化していく過程のモデルと、それぞれのモデルを生成したバッチデータの情報とを記憶した訓練経過記憶部(22)と、
前記訓練経過記憶部(22)に記憶された複数のモデルにテストデータを適用して、前記各モデルを評価し、各モデルの評価結果に基づいてバッチデータを選定する追跡処理部(12)と、
前記バッチデータの選定結果を出力する出力部(13)と、
を備える訓練データ評価装置(1)。 A batch data generator (10) for dividing the training data into a plurality of batch data;
A training processing unit (11) for training a model by sequentially using a plurality of batch data;
A training progress storage unit (22) storing a model of a process of changing by the training to which the batch data is sequentially applied, and information of the batch data for generating each model;
A tracking processing unit (12) that applies test data to a plurality of models stored in the training progress storage unit (22), evaluates each model, and selects batch data based on an evaluation result of each model; ,
An output unit (13) for outputting the selection result of the batch data;
A training data evaluation device (1) comprising:
前記追跡処理部(12)は、ニューラルネットワークのモデルから出力される判定の確信度に基づいて、バッチデータを選定する請求項1に記載の訓練データ評価装置(1)。 The model is a model of a neural network,
The training data evaluation device (1) according to claim 1, wherein the tracking processing unit (12) selects the batch data based on a certainty factor of a determination output from a neural network model.
前記繰返処理部(30)にて選定されたバッチデータに共通に含まれる訓練データを選定する訓練データ選定部(14)と、
を備える請求項1に記載の訓練データ評価装置(3)。 The batch data generating unit (10) generates different batch data, repeats the processing by the training processing unit (11) and the tracking processing unit (12), and selects a batch processing unit ( 30)
A training data selection unit (14) for selecting training data commonly included in the batch data selected by the repetition processing unit (30);
The training data evaluation device (3) according to claim 1, comprising:
前記選定データを除いた前記訓練データに基づいてモデルを生成し、生成されたモデルにテストデータを適用してモデルを評価することによって、前記選定データの検証を行う検証部(13)を備える訓練データ評価装置(5)。 A training data evaluation device (5) for evaluating selected data selected from training data,
A training unit (13) for generating a model based on the training data excluding the selection data and applying a test data to the generated model to evaluate the model, thereby verifying the selection data; Data evaluation device (5).
複数のバッチデータを順次用いてモデルの訓練を行うステップ(S12)と、
前記バッチデータを順次適用した訓練によって変化していく過程のモデルと、それぞれのモデルを生成したバッチデータの情報とを訓練経過記憶部(22)に記憶するステップ(S13)と、
前記訓練経過記憶部(22)に記憶された複数のモデルにテストデータを適用して、前記各モデルを評価し、各モデルの評価結果に基づいてバッチデータを選定するステップ(S17)と、
前記バッチデータの選定結果を出力するステップ(S18)と、
を備える訓練データ評価方法。 Dividing the training data into a plurality of batch data (S10);
Training the model by sequentially using a plurality of batch data (S12);
A step (S13) of storing in the training progress storage unit (22) a model in a process of changing by the training in which the batch data is sequentially applied, and information of the batch data that generated each model;
Applying test data to a plurality of models stored in the training progress storage unit (22) to evaluate each of the models, and selecting batch data based on an evaluation result of each model (S17);
Outputting the selection result of the batch data (S18);
Training data evaluation method comprising:
訓練データを複数のバッチデータに分けるステップと、
複数のバッチデータを順次用いてモデルの訓練を行うステップと、
前記バッチデータを順次適用した訓練によって変化していく過程のモデルと、それぞれのモデルを生成したバッチデータの情報とを訓練経過記憶部に記憶したステップと、
前記訓練経過記憶部に記憶された複数のモデルにテストデータを適用して、前記各モデルを評価し、各モデルの評価結果に基づいてバッチデータを選定するステップと、
前記バッチデータの選定結果を出力するステップと、
を実行させるプログラム。 A program for evaluating training data, comprising:
Dividing the training data into a plurality of batch data;
Training the model using a plurality of batch data sequentially;
Storing the model of the process of changing by the training in which the batch data is sequentially applied, and information of the batch data that generated each model in a training progress storage unit;
Applying test data to a plurality of models stored in the training progress storage unit, evaluating each of the models, and selecting batch data based on an evaluation result of each model;
Outputting the selection result of the batch data;
A program that executes
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018144881A JP7095467B2 (en) | 2018-08-01 | 2018-08-01 | Training data evaluation device, training data evaluation method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018144881A JP7095467B2 (en) | 2018-08-01 | 2018-08-01 | Training data evaluation device, training data evaluation method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020021301A true JP2020021301A (en) | 2020-02-06 |
JP7095467B2 JP7095467B2 (en) | 2022-07-05 |
Family
ID=69587607
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018144881A Active JP7095467B2 (en) | 2018-08-01 | 2018-08-01 | Training data evaluation device, training data evaluation method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7095467B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022180719A1 (en) * | 2021-02-25 | 2022-09-01 | Mitsubishi Electric Corporation | Loss contribution detecting method and loss contribution detecting system |
JP7468088B2 (en) | 2020-02-18 | 2024-04-16 | 東洋製罐グループホールディングス株式会社 | Image processing system and image processing program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010152751A (en) * | 2008-12-25 | 2010-07-08 | Nec Corp | Statistic model learning device, statistic model learning method and program |
JP2015232847A (en) * | 2014-06-10 | 2015-12-24 | 株式会社東芝 | Detector, correction system, detection method and program |
JP2018045559A (en) * | 2016-09-16 | 2018-03-22 | 富士通株式会社 | Information processing device, information processing method, and program |
-
2018
- 2018-08-01 JP JP2018144881A patent/JP7095467B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010152751A (en) * | 2008-12-25 | 2010-07-08 | Nec Corp | Statistic model learning device, statistic model learning method and program |
JP2015232847A (en) * | 2014-06-10 | 2015-12-24 | 株式会社東芝 | Detector, correction system, detection method and program |
JP2018045559A (en) * | 2016-09-16 | 2018-03-22 | 富士通株式会社 | Information processing device, information processing method, and program |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7468088B2 (en) | 2020-02-18 | 2024-04-16 | 東洋製罐グループホールディングス株式会社 | Image processing system and image processing program |
WO2022180719A1 (en) * | 2021-02-25 | 2022-09-01 | Mitsubishi Electric Corporation | Loss contribution detecting method and loss contribution detecting system |
GB2618265A (en) * | 2021-02-25 | 2023-11-01 | Mitsubishi Electric Corp | Loss contribution detecting method and loss contribution detecting system |
JP7459370B2 (en) | 2021-02-25 | 2024-04-01 | 三菱電機株式会社 | Loss contribution detection method and loss contribution detection system |
Also Published As
Publication number | Publication date |
---|---|
JP7095467B2 (en) | 2022-07-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102457974B1 (en) | Method and apparatus for searching new material | |
US10677686B2 (en) | Method and apparatus for autonomous system performance and grading | |
CN110705690B (en) | Continuous learning method and system based on generative model and meta-learning optimization method | |
US20200409823A1 (en) | Method and apparatus for optimal distribution of test cases among different testing platforms | |
JP2020021301A (en) | Training data evaluation device, training data evaluation method, and program | |
US6947870B2 (en) | Neural network model for electric submersible pump system | |
CN113614743A (en) | Method and apparatus for operating a robot | |
JP7176285B2 (en) | TRAINING DATA EVALUATION DEVICE, TRAINING DATA EVALUATION METHOD, AND PROGRAM | |
US20160246576A1 (en) | Computer program generation | |
Videau et al. | Multi-objective genetic programming for explainable reinforcement learning | |
US20090319830A1 (en) | System and Method for Automatically Testing a Model | |
CN111936976A (en) | Artificial intelligence enabled output space exploration for guided test case generation | |
KR20190135074A (en) | Ui testing automation method using deep learning algorithem and tree and appratus for the same | |
JP6860943B2 (en) | A method of generating test patterns to verify the integrity of convolution operations and selecting optimized test patterns from the test patterns to improve defect tolerance and shake-tolerant properties in extreme situations. apparatus | |
JP2023541264A (en) | Automated machine learning method and device | |
Gora et al. | Training neural networks to approximate traffic simulation outcomes | |
US11669773B2 (en) | Electronic devices generating verification vector for verifying semiconductor circuit and methods of operating the same | |
KR20230096901A (en) | Method and Apparatus for Data Augmentation for Learning Autonomous Vehicle | |
EP2909687B1 (en) | System testing algorithm and apparatus | |
EP4078299B1 (en) | Manufacturing or controlling a technical system using an optimized parameter set | |
CN111077769A (en) | Method for controlling or regulating a technical system | |
US11720542B2 (en) | Method for assessing validation points for a simulation model | |
US20230080873A1 (en) | An Industrial Process Model Generation System | |
KR102631468B1 (en) | Method and device for analyzing battlefield threat based on dynamic graph neural network | |
CN112434073B (en) | Method and device for determining sample selection model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210318 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220322 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220405 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220511 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220524 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220606 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7095467 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |