JP2021060692A - Inference result evaluation system, inference result evaluation device, and method thereof - Google Patents
Inference result evaluation system, inference result evaluation device, and method thereof Download PDFInfo
- Publication number
- JP2021060692A JP2021060692A JP2019183320A JP2019183320A JP2021060692A JP 2021060692 A JP2021060692 A JP 2021060692A JP 2019183320 A JP2019183320 A JP 2019183320A JP 2019183320 A JP2019183320 A JP 2019183320A JP 2021060692 A JP2021060692 A JP 2021060692A
- Authority
- JP
- Japan
- Prior art keywords
- data
- learning data
- inference
- learning
- inference result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 26
- 238000000034 method Methods 0.000 title description 20
- 238000010801 machine learning Methods 0.000 claims abstract description 39
- 239000000284 extract Substances 0.000 claims abstract description 12
- 238000012549 training Methods 0.000 claims description 42
- 238000004364 calculation method Methods 0.000 claims description 21
- 238000013075 data extraction Methods 0.000 claims description 19
- 238000012800 visualization Methods 0.000 claims description 19
- 238000000605 extraction Methods 0.000 claims description 18
- 238000012937 correction Methods 0.000 claims description 16
- 238000012360 testing method Methods 0.000 abstract description 56
- 238000012544 monitoring process Methods 0.000 abstract description 20
- 238000012545 processing Methods 0.000 description 24
- 230000006870 function Effects 0.000 description 23
- 238000012806 monitoring device Methods 0.000 description 18
- 238000007781 pre-processing Methods 0.000 description 14
- 241000555745 Sciuridae Species 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 6
- 241000699800 Cricetinae Species 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 5
- 238000012217 deletion Methods 0.000 description 4
- 230000037430 deletion Effects 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 230000002411 adverse Effects 0.000 description 2
- 238000013145 classification model Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 241000031586 Elymus elymoides Species 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明の実施形態は、推論結果評価システム、推論結果評価装置及びその方法に関する。 Embodiments of the present invention relate to an inference result evaluation system, an inference result evaluation device, and a method thereof.
機械学習によって学習して得られた機械学習モデルを用いた推論技術が広く利用されている。機械学習モデルは、教師データである学習データを用いて生成される。機械学習モデルを用いることにより、入力データについて推論結果を得ることができるが、学習データのどの要素が、その入力データの推論結果に影響を及ぼしたかを知ることはできない。 Inference techniques using machine learning models obtained by learning by machine learning are widely used. The machine learning model is generated using the learning data which is the teacher data. By using a machine learning model, it is possible to obtain inference results for the input data, but it is not possible to know which element of the training data influenced the inference results of the input data.
そこで、実施形態は、機械学習モデルにおいて、学習データのどの要素あるいはどの部分が、入力された入力データの推論結果に影響を及ぼしたかを可視化することができる推論結果評価システム、推論結果評価装置及び推論結果評価方法を提供することを目的とする。 Therefore, the embodiment is an inference result evaluation system, an inference result evaluation device, and an inference result evaluation device capable of visualizing which element or part of the training data affects the inference result of the input input data in the machine learning model. An object of the present invention is to provide an inference result evaluation method.
実施形態の推論結果評価システムは、入力データを指定する入力データ指定部と、前記入力データに基づいて、機械学習モデルを用いた推論を実行する推論部と、前記入力データについての前記推論部の推論結果に寄与した学習データを、抽出学習データとして、複数の学習データから抽出する学習データ抽出部と、前記抽出学習データの要素毎または所定の部分毎に、前記推論結果に対する影響度を算出する影響度算出部と、前記抽出学習データにおける前記要素毎または前記所定の部分毎の前記影響度を可視化する影響度可視化部と、を有する。 The inference result evaluation system of the embodiment includes an input data designation unit that specifies input data, an inference unit that executes inference using a machine learning model based on the input data, and the inference unit for the input data. The learning data that contributed to the inference result is used as the extraction learning data, and the learning data extraction unit that extracts the learning data from a plurality of learning data and the degree of influence on the inference result are calculated for each element or a predetermined part of the extracted learning data. It has an influence degree calculation unit and an influence degree visualization unit that visualizes the influence degree for each element or each predetermined part in the extracted learning data.
以下、図面を参照して実施形態を説明する。
(構成)
図1は、本実施形態に係わる監視システムの構成図である。監視システム1は、監視装置11と、クラウド12a上のサーバ12と、監視装置11とサーバ12とを接続するインターネットなどのネットワーク13とを含んで構成される推論システムである。本実施形態の監視システム1は、推論モデルである機械学習モデルを用いて画像に写る対象あるいは対象の状態を推論し、その推論結果を出力するサービスのためのシステムである。
Hereinafter, embodiments will be described with reference to the drawings.
(Constitution)
FIG. 1 is a configuration diagram of a monitoring system according to the present embodiment. The
監視装置11は、パーソナルコンピュータ(以下、PCという)21と、撮像装置であるカメラ22と、表示装置であるモニタ23を含む。PC21には、カメラ22が接続され、カメラ14からの撮像信号が入力される。PC21は、ネットワーク13を介して撮像信号の画像データをサーバ12へ送信する。PC21には、マウス21aとキーボード21bが接続されている。マウス21a、キーボード21b及びモニタ23が、グラフィカル・ユーザ・インターフェース(以下、GUIという)を構成する。
The
サーバ12は、機械学習モデルを用いて、受信した画像データについての推論結果を出力することができる。本実施形態では、PC21から送信された画像データに対する推論結果は、ネットワーク13を介してサーバ12からPC21へ送信される。PC21は、推論結果をモニタ23に出力する。監視システム1のユーザは、モニタ23に表示される推論結果を知ることができる。
The
なお、以下の実施形態では、機械学習モデルの入力データは、画像データのみであるが、点線で示すような、温度、圧力、音などを検出する検出装置22aの検出データも画像データと併せて入力データとしてしてもよい。
In the following embodiment, the input data of the machine learning model is only the image data, but the detection data of the
さらになお、本実施形態では、監視システム1の、後述する学習機能、推論機能及び可視化機能は、サーバ12に設けられているが、監視装置11のPC21が、学習機能、推論機能及び可視化機能を有してもよい。
Furthermore, in the present embodiment, the learning function, the inference function, and the visualization function described later of the
図2は、サーバ12の構成図である。サーバ12は、推論装置31と、ネットワーク13との通信インターフェース(以下、通信I/Fという)32とを有する。推論装置31は、通信I/F32によりネットワーク13を介して監視装置11と通信可能になっている。推論装置31は、プロセッサ33とメモリ34を含む。プロセッサ33は、中央処理装置(以下、CPUという)、ROM、RAMを含み、メモリ34及びROMに記憶されているソフトウエアプログラムを読み出してRAMに展開して実行することにより、所定の機能を実現する。所定の機能には、後述する学習機能、推論機能及び可視化機能が含まれる。
FIG. 2 is a configuration diagram of the
なお、プロセッサ33は、CPUに代えて、GPU(Graphics Processing Unit)、FPGA(Field Programmable Gate Array)、TPU(Tensor Processing Unit)などの他の処理装置により構成してもよく、あるいはCPU、GPU、FPGA、TPUなどの処理装置の少なくとも2つと組み合わせて構成してもよい。
The
また、本実施形態では、サーバ12は、クラウド12a上のサーバであるが、いわゆるオンプレミスのサーバでもよい。
Further, in the present embodiment, the
メモリ34は、書き換え可能な不揮発性メモリであり、例えばハードディスクドライブである。メモリ34は、学習プログラム、推論プログラム、可視化処理プログラムなどの各種ソフトウエアプログラムが記憶されるプログラム領域34aを含む。さらに、メモリ34には、学習データ用のデータベース(以下、学習用データベースという)35と、機械学習モデル36の機械学習モデルパラメータ(以下、モデルパラメータという)を含む機械学習モデル36とが記憶されている。
The
学習用データベース35には、複数の学習データ(訓練データ)が格納されている。各学習データは、1つの入力データと、その入力データについての正解ラベルデータとを含む。ここでは、1つの入力データは、画像データであり、1つの正解ラベルは、識別クラス情報である。
A plurality of learning data (training data) are stored in the
なお、本実施形態では、入力データは、画像データであるが、IoT(Internet of Things)に関わるベクトルデータ、数値列データなどでもよく、さらに入力データは、画像データに加えて、ベクトルデータ、数値列データなどの他のデータも含んでいてもよい。正解ラベルデータは、目的変数、正常・異常などの分類クラス情報、などでもよい。 In the present embodiment, the input data is image data, but vector data and numerical string data related to IoT (Internet of Things) may be used, and the input data may be vector data and numerical values in addition to the image data. Other data such as column data may also be included. The correct label data may be objective variables, classification class information such as normal / abnormal, and the like.
機械学習モデル36は、ディープラーニングによる推論モデルのモデルパラメータのデータを含む。機械学習モデル36は、入力データに基づく推論結果を出力する。例えば、モデルパラメータをθとし、データ数をNとしたとき、機械学習モデル36は、入力データxtに基づく推論結果yi(xt,θ)を出力する。
The
なお、機械学習モデル36は、ディープラーニングによる手法に限らず、ロジスティック回帰、サポートベクターマシン(SVM)などの手法によるものでもよい。
(学習)
サーバ12の学習機能について説明する。図3は、プロセッサ33におけるモデル学習フェーズの処理の流れを示す図である。図4は、学習用データベース35のデータ構造を示す図である。学習機能を実現する学習部41は、メモリ34のプログラム領域34aに格納された学習プログラムである。学習部41は、データ入力部41aと、データ前処理部41bと、推論実行部41cと、モデルパラメータ更新部41dとを含む。
The
(Learning)
The learning function of the
データ入力部41aは、学習用データベース35からの学習データを取得し、データ前処理部41bに供給する。データ前処理部41bは、学習データである入力データに対して、前処理として所定の処理を実行して、入力データを変換する。例えば、データ前処理部41bでは、入力データの値が、平均が0で、分散が1となるような正規化処理を行う。データ前処理部41bは、水増し処理を行っても良い。水増しとは、入力データにノイズを付与したり、画像を並進・回転・拡縮のような変形を与えたりすることである。
The
図4に示すように、学習データは、複数の入力データを含み、各学習データは、識別番号(No.)と、リンク情報と、ラベル情報と、メタ情報を含むテーブルデータTBLにより構成されている。識別番号は、各学習データを特定するための識別子である。リンク情報は、入力データの格納されているメモリ領域を示す情報である。ラベル情報は、正解ラベルの情報である。 As shown in FIG. 4, the training data includes a plurality of input data, and each training data is composed of table data TBL including an identification number (No.), link information, label information, and meta information. There is. The identification number is an identifier for identifying each learning data. The link information is information indicating a memory area in which input data is stored. The label information is the information of the correct answer label.
メタ情報は、入力データ中の学習対象部分を示す情報(以下、学習対象部分情報という)である。本実施形態では、入力データは画像データであるので、学習対象部分情報は、画像データ中の学習対象領域情報である。すなわち、メタ情報は、入力データ中、どの部分あるいはどの領域のデータを学習対象の入力データとして使用するかを示す情報である。 The meta information is information indicating a learning target portion in the input data (hereinafter referred to as learning target portion information). In the present embodiment, since the input data is image data, the learning target partial information is the learning target area information in the image data. That is, the meta information is information indicating which part or region of the input data is used as the input data to be learned.
推論実行部41cは、データ前処理部41bにおいて前処理が行われた入力データに対して推論を実行する。ここでは、推論は、はじめに、画像データ中のメタ情報で指定された領域の画像データから所定の特徴量を抽出し、抽出された特徴量に対して、機械学習モデル36を用いて行われる。メタ情報は、例えば、デフォルトでは、画像データの全領域を学習対象領域すなわち注視領域とするが、後述するように、学習データの学習領域すなわち注視領域がユーザによって設定されると、メタ情報の注視領域は、その設定された注視領域(以下、指定注視領域という)に設定変更される。すなわち、メタ情報には、1つ又は2以上の注視領域(指定注視領域を含む)が設定可能である。
The
なお、メタ情報において、1つの画像データ中に複数の注視領域が設定されたとき、注視領域毎に重み付けをして、注視領域毎の推論結果の各確率を、重み付けに応じて変更するようにしてもよい。 When a plurality of gaze areas are set in one image data in the meta information, weighting is performed for each gaze area, and each probability of the inference result for each gaze area is changed according to the weighting. You may.
推論実行部41cは、例えば、機械学習モデル36のモデルパラメータに基づき、メタ情報で指定された学習対象領域の入力データから所定の特徴量を抽出する。抽出された特徴量に基づき、推論実行部41cは、推論結果をモデルパラメータ更新部41dへ出力する。
The
モデルパラメータ更新部41dは、推論実行部41cの実行結果に基づいてモデルパラメータの更新を行う。ここでは、損失関数L(yt(xt,θ),zt)が定義される。損失関数は、正解ラベルzと、推論結果yが一致する程小さくなる関数である。例えば、回帰問題であれば、二乗誤差が用いられ、分類問題であれば、交差エントロピーが用いられる。
The model
従って、N個の学習データt(=(1,2,・・・,N))についてのモデルパラメータの学習とは損失関数が最小になるモデルパラメータθの値θ*を求めることであり、次の式(1)で表される。
ここでは、式(1)は、Λ(θ)の正則化項を含み、その正則化項を含めて最小化される。最小値は、勾配降下法などを用いて求められる。正則化項に特定の関数、例えばL2norm(全てのθの二乗和)、を選ぶと、θ*を、入力データxtの関数とみることが出来き、その結果、推論結果y(x,θ*)を、xtで微分可能となる。従って、後述するように、テストデータの推論結果に寄与した入力データの要素あるいは部分を求めることができる。多くの学習データに対して学習部41が実行されることにより、モデルパラメータが得られ、機械学習モデル36が生成される。
Therefore, learning the model parameters for N training data t (= (1, 2, ..., N)) is to find the value θ * of the model parameter θ that minimizes the loss function. It is expressed by the equation (1) of.
Here, equation (1) includes a regularization term of Λ (θ) and is minimized including the regularization term. The minimum value is obtained by using the gradient descent method or the like. If a specific function, such as L2norm (sum of squares of all θ), is selected for the regularization term, θ * can be regarded as a function of the input data x t , and as a result, the inference result y (x, θ). *), and it is possible differentiated by x t. Therefore, as will be described later, it is possible to obtain an element or part of the input data that contributed to the inference result of the test data. When the
以上のように、学習部41は、学習データに基づいて機械学習モデル36の学習を実行するプログラムである。
(推論)
サーバ12は、機械学習モデル36を用いて、入力データについての推論機能を実現可能となる。よって、監視装置11は、画像データをサーバ12へ送信し、推論結果をサーバ12から受信することにより、監視システム1は、所望の監視を行うことができる。
As described above, the
(inference)
The
例えば、監視システム1が動物の監視をするシステムである場合、カメラ22の画像データが監視装置11からサーバ12へリアルタイムであるいは所定の時間間隔で送信され、サーバ12は、その画像データの画像に写る動物を推論して、その推論結果を監視装置11へ送信する。監視装置11のモニタ23には、推論結果情報が表示され、監視システム1のユーザは、モニタ23に表示される推論結果情報を認識することができる。
(可視化)
推論結果に間違えがあったとき、ユーザは、推論結果に影響を及ぼした学習データの要素などを可視化して、推論結果に間違えを生じさせた学習データを修正し、推論結果が正しくなるように、いわゆる再学習によって、機械学習モデル36のモデルパラメータを修正する必要がある。
For example, when the
(Visualization)
When there is an error in the inference result, the user visualizes the elements of the learning data that influenced the inference result, corrects the learning data that caused the error in the inference result, and makes the inference result correct. It is necessary to modify the model parameters of the
しかし、これまでは、ユーザは、どの学習データが推論結果に大きな影響を与えたかを知ることができても、その学習データのどの要素があるいはどの部分が推論結果に大きな影響を及ぼしたかを知ることはできなかった。本実施形態によれば、入力データをテストデータとしてサーバ12に供給することによって、学習データのどの要素あるいはどの部分が、テストデータについての推論結果に大きな影響を与えたかを、可視化してユーザに示すことができる。その結果、ユーザは、可視化された情報を見て推論結果を評価して、学習データの修正と、再学習を迅速に行うことができる。よって、サーバ12は、推論結果評価装置を構成する。
However, until now, the user can know which training data has a great influence on the inference result, but knows which element or part of the learning data has a great influence on the inference result. I couldn't. According to the present embodiment, by supplying the input data as test data to the
図5は、テストデータについて、学習データのどの要素あるいはどの部分が推論結果に大きな影響を与えたかを分析し、分析結果を表示する処理の流れの例を示す図である。図5の処理は、サーバ12で実行される。
FIG. 5 is a diagram showing an example of a process flow for analyzing which element or part of the training data of the test data has a great influence on the inference result and displaying the analysis result. The process of FIG. 5 is executed on the
ユーザは、複数の学習データの中の学習データのどの要素あるいはどの部分が、その画像データについての推論結果に大きな影響を与えたかを知りたい画像データを、テストデータとして、評価指示コマンドと共にサーバ12へ送信する。例えば、正しい推論結果が得られなかった画像データがテストデータとして選択されて、サーバ12へ送信される。
The user wants to know which element or part of the training data in the plurality of training data has a great influence on the inference result for the image data. The image data is used as test data, and the
すなわち、ユーザは、監視装置11において、マウス21a及びキーボード21bを用いて、テストデータを指定して、サーバ12へ送信する。よって、監視装置11のマウス21a及びキーボード21bは、入力データであるテストデータを指定する入力データ指定部あるいは入力データ指定装置を構成する。
That is, the user specifies test data in the
プロセッサ33は、推論処理と可視化処理を行う推論/可視化部51を含む。推論/可視化部51は、推論プログラムと可視化処理プログラムである。推論プログラムと可視化処理プログラムは、メモリ34のプログラム領域34aに格納されている。推論/可視化部51は、データ取得部52と、推論部53と、演算部54と、結果出力部55とを含む。
The
データ取得部52は、監視装置11からユーザによってアップロードされたテストデータを取得し、推論部53に供給する。
The
推論部53は、データ前処理部53aと推論実行部53bとを含む。データ前処理部53aは、所定の前処理を実行する。データ前処理部53aでは、水増し処理は行われない。
The
推論実行部53bは、機械学習モデル36を用いてテストデータに基づく推論を実行し、推論結果、すなわち、推論結果y(x、θ*)を算出する。推論実行部53bにおける推論には、上述した学習フェーズで得られたモデルパラメータθ*が用いられる。以上のように、推論部53は、テストデータに基づいて、機械学習モデル36を用いた推論を実行する。
The
図6は、推論実行部53bの処理の流れの例を示す図である。推論実行部53bは、特徴量抽出部61と、注視領域抽出部62と、推論処理部63を含む。データ前処理部53aからのテストデータは、特徴量抽出部61に入力される。
FIG. 6 is a diagram showing an example of the processing flow of the
特徴量抽出部61は、テストデータの所定の特徴量を抽出し、特徴量情報を出力する。特徴量情報は、注視領域抽出部62と推論処理部63に供給される。
The feature
注視領域抽出部62は、特徴量情報からテストデータ中の注視領域を抽出し、注視領域情報を出力する。注視領域抽出部62は、テストデータから抽出された各特徴量に基づいて、どの領域の特徴量を重視すべきかを示す注視領域情報(以下、推論注視領域情報という)を生成する。画像データであるテストデータ中の各領域から抽出された特徴量に基づいて、どの領域の特徴量を重視するかのマスク情報に基づいて、推論注視領域情報として生成される。
The gaze
例えば、画像の左上領域に顔の特徴量があり、右下領域に身体の特徴量があるなどの情報から、注視すべき領域を特定するための情報として、重視する領域以外の領域をマスクするマスク情報が生成される。この場合、マスク情報は、例えば、顔部分の領域をそのまま出力し、顔部分以外の領域の特徴量をゼロにするための情報である。言い換えれば、マスク情報は、特徴量のマップと、マスク領域のマップの掛け算、論理積などにより表現される。生成された推論注視領域情報は、注視領域抽出部62から推論処理部63に供給される。
For example, from information such as the facial features in the upper left area of the image and the body features in the lower right area, the areas other than the important areas are masked as information for identifying the areas to be watched. Mask information is generated. In this case, the mask information is, for example, information for outputting the region of the face portion as it is and setting the feature amount of the region other than the face portion to zero. In other words, the mask information is represented by the multiplication of the feature amount map and the mask area map, the logical product, and the like. The generated inference gaze area information is supplied from the gaze
推論処理部63は、機械学習モデル36を用いて、特徴量情報と注視領域情報に基づいて推論を実行し、推論結果を出力する。推論結果は、例えば、各クラスと、クラス毎の確率データを含む。例えば、機械学習モデル36が画像中の動物を推論するモデルの場合、推論結果は、「犬」のクラスの確率が90%で、「猫」のクラスの確率が10%、等である。
The
推論部53の処理は、上述した監視処理において実行される推論処理と同じである。
The processing of the
推論部53の出力する推論結果は、演算部54へ供給される。演算部54は、重要学習データ抽出部54aと、学習データ影響算出部54bとを含む。
The inference result output by the
重要学習データ抽出部54aは、テストデータ(x)、全学習データ(x1,x2,・・・,xN)、テストデータと各学習データの推論結果、特徴量情報などから、テストデータについての推論結果に寄与した重要な学習データを抽出する。言い換えれば、重要学習データ抽出部54aは、推定結果に大きな影響を及ぼしたと考えられる1又は2以上の学習データを抽出する。ここでは、重要学習データ抽出部54aは、推論結果に関わるクラス毎に1又は2以上の学習データを抽出する。すなわち、重要学習データ抽出部54aは、入力データであるテストデータについての推論部53の推論結果に寄与した1又は2以上の学習データを、抽出学習データとして、複数の学習データから抽出する学習データ抽出部を構成する。
The important learning
重要学習データ抽出部54aにおける学習データの抽出は、データの類似度(例えば二乗誤差、特徴量の内積、画像類似指標など)を用いて行うことができる。
The learning data can be extracted by the important learning
例えば、重要学習データ抽出部54aは、テストデータと、各学習データの類似度を算出し、類似度の高い順にソートして、類似度の高い、上位の所定数(1又は2以上)の学習データを出力する。
For example, the important learning
また、重要学習データ抽出部54aにおける学習データの抽出は、(−(∂y/∂yt))とテストデータの特徴量と各学習データの特徴量との内積を用いて行ってもよく、その抽出方法には、他の方法を用いてもよい。
Further, the extraction of the training data in the important learning
さらにまた、重要学習データ抽出部54aは、影響関数(Influence Function)に基づいて、推論結果に大きな影響を与える上位の所定数(1又は2以上)の学習データを出力するようにしてもよい。
Furthermore, the important learning
あるいは、重要学習データ抽出部54aは、クラスに属する複数の学習データの中から識別境界との距離が近い上位の所定数(1又は2以上)の学習データを出力するようにしてもよい。
Alternatively, the important learning
重要学習データ抽出部54aは、テストデータについての推論結果が正しいとしたときの学習データを、推論結果に良い影響を与えたデータとして出力し、かつ、テストデータについての推論結果が誤っているとしたときの学習データを、推論結果に悪い影響を与えたデータとして出力するようにしてもよい。すなわち、重要学習データ抽出部54aは、推論結果に良い影響を与えた1又は2以上の学習データと、推論結果に悪い影響を与えた1又は2以上の学習データの両方を抽出するようにしてもよい。
The important learning
学習データ影響算出部54bは、重要学習データ抽出部54aにより抽出された1又は2以上の学習データの各々において、どの要素が推論結果y(x,θ*)にどの程度の影響を与えたかを算出する。
The learning data
学習データ影響算出部54bは、ここでは、推論結果の確率を各画素値で偏微分((∂y(x,θ*)/∂xt)を行うことによって、各画素についての影響度を算出する。すなわち、学習データ影響算出部54bは、推定結果に含まれる確率値を学習データの各要素又は各部分の値で偏微分して得られた値を、各要素又は各部分の影響度とする。ここでは、学習データ影響算出部54bは、推定結果に含まれる確率値を画像データの各画素値で偏微分して得られた値を、各画素の影響度とする。
Here, the learning data
各要素の影響度について簡単な例を挙げて説明する。例えば、2次元ベクトルの要素を持つ、2つの学習データ x1={x11,x12}とx2={x21,x22}があり、それらがラベルy1,y2を有しているとする。y1が「正常」で、y2が「異常」とする。このラベルy1,y2を判別する機械学習の分類モデルのパラメータθを、この2つの学習データx1,x2をそれぞれラベルy1とy2に分類するように、ある条件を与えて最適化すると、パラメータθは、θ=θ(x11,x12,x21,x22)の関数で表示される。 The degree of influence of each element will be described with a simple example. For example, suppose that there are two training data x1 = {x11, x12} and x2 = {x21, x22} having elements of a two-dimensional vector, and they have labels y1 and y2. Let y1 be "normal" and y2 be "abnormal". When the parameter θ of the machine learning classification model for discriminating the labels y1 and y2 is optimized by giving certain conditions so that the two training data x1 and x2 are classified into the labels y1 and y2, respectively, the parameter θ becomes. , Θ = θ (x11, x12, x21, x22).
ここで、未知のデータxtをこの分類モデルに入力すると、y1(例えば正常)だと思われる確率p=p(xt,θ)を出力する。上記のθの関数から、p(xt,θ)=p(xt,x11,x12,x21,x22)なので、 pは学習データの各要素x11,x12,x21,x22で微分することが出来る。例えば、(∂p/∂x11)の値が、大きな正の値であれば、x11を少し増やすことによりデータxtがy1である確率が増加する。反対に、(∂p/∂x11)の値が小さい値のときは、データxtは、y1とはあまり関係ない。つまり、学習データのどの要素を学習したことが、この推論結果に影響を与えたかを評価できることになる。 Here, when unknown data ct is input to this classification model, the probability p = p (xt, θ) that seems to be y1 (for example, normal) is output. From the above function of θ, p (xt, θ) = p (xt, x11, x12, x21, x22), so p can be differentiated by each element x11, x12, x21, x22 of the training data. For example, if the value of (∂p / ∂x11) is a large positive value, increasing x11 a little increases the probability that the data xt is y1. On the contrary, when the value of (∂p / ∂x11) is small, the data xt has little relation to y1. In other words, it is possible to evaluate which element of the training data has influenced this inference result.
別な例を挙げると、過去の営業日のデータから、今日の売上が高いか低いかを分類する売り上げ予測システムの推論モデルが得られた場合、ある日(例えば8月28日)の売上が高いと予測したとき、学習データの1つ(例えば、8月14日)の要素である気温が影響を与えている、ということを評価することができる。 To give another example, if you can obtain an inference model of a sales forecasting system that classifies whether today's sales are high or low from the data of past business days, the sales of one day (for example, August 28) will be When it is predicted to be high, it can be evaluated that the temperature, which is an element of one of the training data (for example, August 14), has an influence.
上述した本実施形態では、推論結果の確率を各画素値で偏微分((∂y(x,θ*)/∂xt)を行うことによって、各画素についての影響度を算出しているが、例えばテストデータについての推論結果の確率の微分(すなわち感度)である((∂y(x,θ*)/∂x)を、さらに学習データで微分して、次の式(2)を用いて影響度を算出するようにしてもよい。
さらになお、推論結果から逆伝搬演算により、各画素(すなわち各要素)の影響度を直接算出するようにしてもよく、学習データ影響算出には、他の方法を用いてもよい。よって、学習データ影響算出部54bは、抽出された学習データの要素毎または所定の部分毎に、推論結果に対する影響度を算出する影響度算出部を構成する。
In the above-described embodiment, the degree of influence for each pixel is calculated by partially differentiating the probability of the inference result with each pixel value ((∂y (x, θ * ) / ∂x t). For example, the derivative (that is, sensitivity) of the probability of the inference result for the test data ((∂y (x, θ * ) / ∂x) is further differentiated with the training data, and the following equation (2) is used. The degree of influence may be calculated.
Furthermore, the degree of influence of each pixel (that is, each element) may be directly calculated from the inference result by a back propagation calculation, and another method may be used for the learning data influence calculation. Therefore, the learning data
結果出力部55は、学習データ影響算出部54bにより算出された、推論結果に影響を与えた要素の情報を、学習データに重畳した画像を含むGUIデータを生成して、ネットワーク13を介して監視装置11へ送信する。
(修正と再学習)
次に、学習データの修正について説明する。図7は、学習データの修正処理の流れを示す図である。本実施形態では、ユーザは、監視装置11から学習用データベース35の学習データの修正処理をサーバ12に行われることができる。
The
(Correction and re-learning)
Next, the modification of the training data will be described. FIG. 7 is a diagram showing a flow of correction processing of learning data. In the present embodiment, the user can perform the correction processing of the learning data of the
ユーザは、後述するように推論に寄与した学習データを見て、学習データの削除、指定注視領域の設定及び変更、等の修正を行うことができる。そのため、サーバ12は、学習用データベース35の学習データの修正プログラムを有している。修正プログラムは、メモリ34のプログラム領域34aに記憶されている。
As will be described later, the user can see the learning data that contributed to the inference and make corrections such as deleting the learning data and setting and changing the designated gaze area. Therefore, the
修正には、適切な推論にとっての不適切な学習データの削除、学習データのラベルの付け間違いの修正、指定注視領域の設定変更、等が含まれる。例えば、ラベルが曖昧な学習データ、人にも認識するのが困難な学習データ、間違い易い背景が多く含まれている学習データ、等は、学習用データベース35から削除可能である。また、ラベル付けが間違っている学習データ等については、ラベル情報を正しいラベル情報に修正可能である。また、複数の被写体が含まれ、正しいラベルが付けられた根拠となった被写体以外の被写体を含む学習データについては、正しいラベルが付けられた根拠となった被写体以外の領域を、マスク領域とするように指定注視領域が設定可能である。
Corrections include deletion of training data that is inappropriate for proper inference, correction of mislabeling of training data, change of settings of designated gaze area, and the like. For example, learning data with ambiguous labels, learning data that is difficult for humans to recognize, learning data that includes many backgrounds that are easily mistaken, and the like can be deleted from the
よって、修正部42は、学習データの修正をユーザに実行可能にするための処理部である。そして、修正部42は、学習データのラベル情報の変更、学習データの注視領域の設定、及び学習データの削除の少なくとも1つを実行可能である。
Therefore, the
学習用データベース35が修正された後、学習部41は、ユーザからの再学習指示コマンドを受信すると、修正された学習用データベース35に基づいて、機械学習モデル36を再生成することができる。
After the
上述したように、結果出力部55は、GUIデータを生成する。図8は、GUIデータに基づいて生成されたGUIの例を示す図である。図8は、結果出力部55により生成されたGUIデータに基づいて、監視装置11のモニタ23の画面23aに表示されたGUI例を示す。図8のGUI1は、テストデータ表示領域71、推論結果表示フィールド72、第1学習データ表示領域73、2つのボタン74a、74bを含む表示切替ボタン74、スライダ摘まみ75aを含むスライダ75、及び第2学習データ表示領域76を含む。
As described above, the
テストデータ表示領域71は、テストデータが表示されるウインドウである。推論結果表示フィールド72は、テストデータに対して行われた推論の結果を表示する。図8では、推論結果表示フィールド72に「分類結果:リス」と表示されている。すなわち、テストデータ表示領域71に表示されたテストデータの画像から、機械学習モデル36は、推論結果として、「リス」を出力したことが示されている。
The test data display
第1学習データ表示領域73には、重要学習データ抽出部54aにおいて抽出された、推論結果に良い影響を与えた学習データが表示される。ここでは、第1学習データ表示領域73には、推論結果の中から最も確率の高いクラス(ここでは「リス」)の学習データが表示される。さらに、第1学習データ表示領域73には、最も確率の高いクラス(ここでは「リス」)の複数の学習データの中から、テストデータと類似度が最も高い学習データが、重要学習データとして表示される。
In the first learning
第1学習データ表示領域73中に、学習データ影響算出部54bにより算出された影響度が所定の閾値以上である1又は2以上の画素の領域が、所定の色で強調されて他の領域とは識別可能に表示される。図8では、2つの部分PA(斜線で示す部分)が、ユーザに他の領域とは識別可能なように表示された部分として示されている。よって、結果出力部55は、影響度が所定の閾値以上の各要素又は各部分を、他の要素又は他の部分と識別可能に表示する表示データを生成する。
In the first learning
ユーザは、第1学習データ表示領域73に表示された学習データの2つの部分PAが、テストデータ表示領域71に表示されたテストデータについての推論結果「リス」に大きな影響を与えたと認識することができる。
The user recognizes that the two partial PAs of the training data displayed in the first training
ボタン74aは、複数の学習データの中から、類似度のより高い他の学習データを第1学習データ表示領域73に表示させるときにクリックされる。ボタン74bは、複数の学習データの中から、次に高い類似度の学習データを第1学習データ表示領域73に表示させるときにクリックされる。
The
よって、類似度が最も高い学習データが第1学習データ表示領域73に表示されているときに、ユーザがマウス21aを用いてボタン74bをクリックすると、類似度が最も高い学習データの次に類似度が高い学習データ(すなわち類似度が2番目に高い学習データ)が第1学習データ表示領域73に表示される。さらにその表示状態で、ユーザがボタン74aをクリックすると、類似度が最も高い学習データが第1学習データ表示領域73に表示されるが、ユーザがボタン74bをクリックすると、類似度が3番目に高い学習データが第1学習データ表示領域73に表示される。
Therefore, when the learning data having the highest degree of similarity is displayed in the first learning
よって、ユーザは、第1学習データ表示領域73に表示された各重要学習データにおいて、推論結果表示フィールド72に表示された推論結果に大きな影響を与えた画素(要素)あるいは部分を認識することができる。
Therefore, the user can recognize the pixels (elements) or parts that have a great influence on the inference result displayed in the inference
スライダ75は、上述した影響度の閾値を変更するために用いられる。ユーザは、マウス21aを用いてスライダ摘まみ75aを選択した状態で、左右に移動させることができる。閾値を小さくすると、その画素値の影響度が小さくても、その画素は識別可能に表示される。閾値を大きくすると、影響度が大きい画素だけが識別可能に表示される。よって、所定の閾値は、変更可能である。
The
なお、影響度が大きい画素だけを識別可能にする方法に代えて、影響度が大きい画素を、影響度の大小を色で視覚化するヒートマップ、影響度が大きい画素を囲む輪郭線、等で表示する方法を用いて、表示するようにしてもよい。 Instead of making it possible to identify only the pixels with a high degree of influence, a heat map that visualizes the magnitude of the degree of influence with colors, a contour line surrounding the pixels with a high degree of influence, etc. It may be displayed by using the display method.
例えば、スライダ摘まみ75aを右に移動させると、閾値の幅が大きくなり、スライダ摘まみ75aを左に移動させると、閾値の幅が小さくなる。よって、ユーザは、スライダ摘まみ75aを移動させることで、識別可能表示される部分PAの大きさを変化させることができる。
For example, moving the
また、画面23a中の第2学習データ表示領域76には、重要学習データ抽出部54aにおいて抽出された、推論結果に悪い影響を与えた重要学習データが表示される。第1学習データ表示領域73には、推論結果の中から最も確率の高いクラスの学習データが表示されるが、第2学習データ表示領域76には、推論結果の中から2番目に確率の高いクラス(例えば、後述する「ハムスター」)の学習データが表示される。さらに、第1学習データ表示領域73には、2番目に確率の高いクラスの複数の学習データの中から、テストデータと類似度が最も高い学習データが、重要学習データとして表示される。
Further, in the second learning
ユーザは、図示しないスクロールバーなどを操作することにより、第1学習データ表示領域73と同様に、第2学習データ表示領域76の学習データを見ることができる。第2学習データ表示領域76の近傍にも、図示しないが、第2学習データ表示領域76に関する2つのボタン74a、74bを含む表示切替ボタン74、及びスライダ摘まみ75aを含むスライダ75が、表示される。
By operating a scroll bar (not shown) or the like, the user can see the learning data in the second learning
よって、ユーザは、第2学習データ表示領域76に関する表示切替ボタン74を操作して、推論結果に悪い影響を与えた他の重要学習データも表示させることができる。さらに、ユーザは、第2学習データ表示領域76に関するスライダ75を移動させることで、識別可能表示される部分PAの大きさを変化させることができる。スライダ75で閾値を高くするほど、より確信している根拠となる部分(すなわち影響度が高い部分)だけが識別可能に表示される。
Therefore, the user can operate the
よって、ユーザは、図8のGUI1を表示させることによって、推論結果に影響を与えた重要学習データのどの要素あるいはどの部分が、テストデータの推論結果に影響を及ぼしたかを認識することができる。従って、結果出力部55は、抽出された学習データにおける要素毎または所定の部分毎の影響度を可視化する影響度可視化部を構成する。言い換えれば、結果出力部55は、抽出された学習データにおける要素毎または所定の部分毎の影響度を可視化するための画像データを生成する影響度画像生成部を構成する。
Therefore, by displaying GUI1 of FIG. 8, the user can recognize which element or part of the important learning data that influenced the inference result influenced the inference result of the test data. Therefore, the
図9は、結果出力部55により生成されたGUIの他の例を示す図である。図9において、図8と同じ構成要素については、同じ符号を用いて説明は省略する。ユーザは、GUI2を用いて、学習データのどの要素あるいはどの部分が、テストデータの推論結果に影響を及ぼしたかを認識することができると共に、学習データの修正を行うことができる。図9のGUI2は、テストデータ表示領域71と推論結果表示フィールド72を含む。
FIG. 9 is a diagram showing another example of the GUI generated by the
さらに、GUI2は、二点鎖線で示すように、第1学習データ表示領域81と、第2学習データ表示領域82とを有する。第1学習データ表示領域81は、複数(ここでは2つ)の学習データ表示領域である第1表示領域84aと第2表示領域84bを含む。第2学習データ表示領域82も、複数(ここでは2つ)の学習データ表示領域である第1表示領域85aと第2表示領域85bを含む。
Further, the
第1学習データ表示領域81には、推論結果の中から最も確率の高いクラス(ここでは「リス」)の学習データが表示される。第2学習データ表示領域82には、推論結果の中から2番目に確率の高いクラス(ここでは「ハムスター」)の学習データが表示される。
In the first learning
GUI2は、第1学習データ表示領域81と第2学習データ表示領域82のそれぞれに表示される学習データの数を設定する表示数設定フィールド83を含む。ユーザは、マウス21aとキーボード21bを用いて、表示数設定フィールド83に、数を入力して設定することができる。図9では、「2」が表示数設定フィールド83に設定されているので、第1学習データ表示領域81と第2学習データ表示領域82のそれぞれには、2つの学習データが表示されている。
The
第1学習データ表示領域81の第1表示領域84aには、類似度が最も高い学習データが表示される。第1学習データ表示領域81の第2表示領域84bには、類似度が最も高い学習データの次に類似度が高い学習データが表示される。
The learning data having the highest degree of similarity is displayed in the
第2学習データ表示領域82の第1表示領域85aには、類似度が最も高い学習データが表示される。第1学習データ表示領域81の第2表示領域84bには、類似度が最も高い学習データの次に類似度が高い学習データが表示される。
The learning data having the highest degree of similarity is displayed in the
第1表示領域84aと第2表示領域84bの各々に対応して、スライダ75と推論結果表示フィールド86が設けられている。推論結果表示フィールド86には、対応する表示領域の学習データのラベル情報が表示される。ユーザは、マウス21aを用いてカーソル91を所望の推論結果表示フィールド86に移動させて、ラベル情報の変更をすることができる。ラベル情報の変更は、上述した修正部42により実行される。
A
さらに、各表示領域84a,84b,85a,85bには、対応する学習データを削除するための所定のマークの削除ボタン87が設けられている。削除ボタン87がクリックされると、削除ボタン87に関わる学習データは、学習用データベース35から削除される。
Further, each
さらに、GUI2は、選択学習データ表示部88と、確定ボタン89と、再学習ボタン90を有している。
Further, the
各表示領域84a,84bに表示された学習データについて、部分PAが重畳されている。部分PAは、推論結果表示フィールド72の推論結果に対して肯定的な影響を与えた要素あるいは部分を示している。
Partial PAs are superimposed on the learning data displayed in the
さらに、各表示領域84a,84bに表示された学習データについて、部分PBも重畳されている。部分PBは、推論結果表示フィールド72の推論結果に対して否定的な影響を与えた要素あるいは部分を示している。
Further, the partial PB is also superimposed on the learning data displayed in each of the
同様に、各表示領域85a,85bに表示された画像についても、部分PAとPBが重畳されている。部分PAとPBの状態をみることにより、ユーザは、推定結果への影響を推定することができる。例えば、表示領域84bの学習データの場合、リスの尻尾の部分PAでリスと判断しているが、部分PBのリスの顔では、推定結果を疑問視していると考えられる。
Similarly, the partial PA and PB are superimposed on the images displayed in the
なお、GUI2では、テストデータ表示領域71に表示されたテストデータについても部分PAとPBが表示されている。
In GUI2, partial PAs and PBs are also displayed for the test data displayed in the test
図9は、推論結果表示フィールド72の推論結果が「リス」と表示されているが、「リス」の確率よりも低い確率で「ハムスター」の推論結果が得られている場合を示している。よって、ユーザは、各表示領域84a,84b,85a,85bにおいて、推論結果表示フィールド72の推論結果に対して肯定的な影響を与えている部分と、推論結果表示フィールド72の推論結果に対して否定的な影響を与えている部分とを直観的に理解することができる。
FIG. 9 shows a case where the inference result of the inference
選択学習データ表示部88は、ユーザにより選択された学習データを拡大表示する領域である。ユーザは、選択学習データ表示部88に表示された学習データ中の注視する領域を設定することができる。例えば、ユーザは、マウス21aを用いて、GUI2上のカーソル91を移動させて表示領域84bに表示された学習データを選択すると、選択された学習データは、選択学習データ表示部88に表示される。
The selective learning
その後、ユーザは、選択学習データ表示部88に表示された画像に対して、所定のコマンドを選択して、自由が線を描画できるモード下で、仮想ペン92を用いて囲み線93を描画することができる。ユーザが確定ボタン89をクリックすると、線93で囲まれた内側の領域以外の領域は、マスク領域として設定される。この設定されたマスク領域に基づく指定注視領域が、テーブルデータTBLのメタ情報に登録される。図9では、表示領域84bに表示された学習データが選択されて、線93によりマスク領域が設定されていることが示されている。
After that, the user selects a predetermined command for the image displayed on the selective learning
また、推論結果表示フィールド72の推論結果が間違っていたときに、ユーザは、どの学習データが影響して推論結果が間違ったことが分かる場合がある。例えば、テストデータ表示領域71に表示されたテストデータが「リス」の画像であるにも拘わらず、推論結果表示フィールド72に「ハムスター」が表示されているような場合に、表示領域85aの画像が推論結果に影響していることが分かる場合がある。
Further, when the inference result of the inference
そのような場合、ユーザは、表示領域85aの近傍の削除ボタン87をカーソル91で選択すると、表示領域85aに表示されている学習データ自体を、学習用データベース35から削除することができる。図9の場合、表示領域85aに表示されたハムスターの画像の顔部分の画像が大きく影響して、テストデータの推論結果に大きく影響していると考えられるので、ユーザは、表示領域85aに表示された学習データを学習用データベース35から削除する。
In such a case, when the user selects the
不適切な学習データの削除、学習データのラベルの付け間違いの修正、指定注視領域の設定変更、等のコマンドは、監視装置11からサーバ12へ伝えられ、サーバ12の修正部42は、表示領域85aに表示されている学習データを修正する。その後、ユーザは、再学習ボタン90にカーソル91を移動してクリックすると、再学習を指示するコマンドがサーバ12へ送信される。
Commands such as deletion of inappropriate learning data, correction of incorrect labeling of learning data, change of setting of designated gaze area, etc. are transmitted from the
その結果、サーバ12は、学習プログラムを実行する。学習プログラムは、修正された学習用データベース35を用いて学習を行う。
As a result, the
図10は、再学習後のGUI2の表示例を示す図である。学習データの削除により、表示領域85aには、図9において表示領域85bに表示されていた学習データが表示され、表示領域85bには、表示領域85aの次に類似度が高い学習データが表示される。
FIG. 10 is a diagram showing a display example of GUI2 after re-learning. Due to the deletion of the learning data, the learning data displayed in the
また、図10では、図9において線93により囲まれた領域を指定注視領域として指定されたため、テストデータ表示領域71において、リスの尻尾の部分PAが表示されなくなっている。さらに、図9では、表示領域84bでは部分PAが識別表示されていたが、図9の選択学習データ表示部88の部分PAは、マスク領域とされたため、学習には利用されないため、図10のテストデータ表示領域71においては、判断根拠としての部分PAとしては、表示されない。
Further, in FIG. 10, since the area surrounded by the
図11は、テストデータをサーバ12へ供給してから学習データの再学習までの処理の流れを示すフローチャートである。監視システム1が稼働しているとき、監視装置11からの画像データに基づいて、機械学習モデル36を用いて推論が行われ、推論結果が監視装置11へ送信される監視処理が実行されている(ステップ(以下、Sと略す)1)。
FIG. 11 is a flowchart showing a processing flow from supplying the test data to the
推論結果に間違いがあった場合等、ユーザが推論結果の評価を行いたいとき、例えば推論結果が間違った画像データをテストデータとして、評価指示コマンドと共にサーバ12へ送信する。
When the user wants to evaluate the inference result, such as when there is an error in the inference result, for example, the image data with the wrong inference result is transmitted to the
テストデータが送信されなければ(S2:NO)、監視システム1は、監視処理を継続する。テストデータが送信されると(S2:YES)、サーバ12は、上述した学習データの分析処理を実行する(S3)。分析処理は、図5に示した推論/可視化部51の処理である。
If the test data is not transmitted (S2: NO), the
ユーザが分析結果を見て、例えば図8あるいは図9のGUIを見て、再学習が必要ないと判断すると(S4:NO)、処理は、S1に戻る。ユーザが分析結果を見て、再学習が必要と判断すると(S4:YES)、上述した学習データの修正などを行い、再学習のコマンドをサーバ12へ送信する。その結果、サーバ12において、修正後の学習データを用いた再学習が実行される。学習時のモデルパラメータの更新は、推論結果が正解のラベル情報と一致するように、推論注視領域が指定注視領域と一致するという条件で、確率的勾配降下法等によってモデルパラメータを最適化することによって行われる。再学習により、機械学習モデル36が修正されるので、推論結果の精度は高まる。
When the user looks at the analysis result, for example, looks at the GUI of FIG. 8 or FIG. 9 and determines that re-learning is not necessary (S4: NO), the process returns to S1. When the user sees the analysis result and determines that re-learning is necessary (S4: YES), the user corrects the above-mentioned learning data and sends a re-learning command to the
以上のように、上述した実施形態によれば、テストデータについての推論結果に寄与した学習データが抽出され、かつその学習データのどの要素あるいはどの部分が、テストデータの推論結果に影響したかが可視化されるので、ユーザは、そのテストデータの推論結果に影響した、学習データの要素あるいは部分を直観的に理解することができる。例えば、上述した各GUI1,GUI2に示したように、学習データのどの要素あるいはどの部分を学習したことによって、その推論結果が得られたかを、ユーザは、直観的に理解することができる。その結果、再学習を迅速に行うことができる。 As described above, according to the above-described embodiment, the training data that contributed to the inference result of the test data was extracted, and which element or part of the training data affected the inference result of the test data. The visualization allows the user to intuitively understand the elements or parts of the training data that influenced the inference results of the test data. For example, as shown in each GUI1 and GUI2 described above, the user can intuitively understand which element or part of the training data has been learned to obtain the inference result. As a result, re-learning can be performed quickly.
以上のように、上述した実施形態によれば、機械学習モデルにおいて、学習データのどの要素あるいはどの部分が、入力された入力データの推論結果に影響を及ぼしたかを可視化することができる推論結果評価システム、推論結果評価装置及び推論結果評価方法を提供することができる。 As described above, according to the above-described embodiment, inference result evaluation capable of visualizing which element or part of the training data affected the inference result of the input input data in the machine learning model. A system, an inference result evaluation device, and an inference result evaluation method can be provided.
なお、上述した実施形態は、機械学習モデルを用いた推論を行う監視システムに応用した例であるが、監視システム以外の他のシステムにも適用可能である。 Although the above-described embodiment is an example applied to a monitoring system that performs inference using a machine learning model, it can also be applied to other systems other than the monitoring system.
なお、以上説明した動作を実行するプログラムは、コンピュータプログラム製品として、フレキシブルディスク、CD−ROM等の可搬媒体や、ハードディスク等の記憶媒体の非一時的なコンピュータ読み出し可能な媒体に、その全体あるいは一部が記録され、あるいは記憶されている。そのプログラムがコンピュータにより読み取られて、動作の全部あるいは一部が実行される。あるいは、そのプログラムの全体あるいは一部を通信ネットワークを介して流通または提供することができる。利用者は、通信ネットワークを介してそのプログラムをダウンロードしてコンピュータにインストールしたり、あるいは記録媒体からコンピュータにインストールしたりすることで、容易に本実施の形態の推論結果評価システムを実現することができる。 As a computer program product, the program that executes the operations described above may be a portable medium such as a flexible disk or a CD-ROM, or a non-temporary computer-readable medium such as a hard disk, or the entire program. Some are recorded or remembered. The program is read by a computer and all or part of its operation is performed. Alternatively, the program in whole or in part can be distributed or provided via a communication network. The user can easily realize the inference result evaluation system of the present embodiment by downloading the program via the communication network and installing it on the computer, or installing it on the computer from the recording medium. it can.
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として例示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although some embodiments of the present invention have been described, these embodiments are exemplary by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.
1 監視システム、11 監視装置、12 サーバ、12a クラウド、13 ネットワーク、14 カメラ、21a マウス、21b キーボード、22 カメラ、22a 検出装置、23 モニタ、23a 画面、31 推論装置、32 通信インターフェース、33 プロセッサ、34 メモリ、34a プログラム領域、35 学習用データベース、36 機械学習モデル、41 学習部、41a データ入力部、41b データ前処理部、41c 推論実行部、41d モデルパラメータ更新部、42 修正部、51 可視化部、52 データ取得部、53 推論部、53a データ前処理部、53b 推論実行部、54 演算部、54a 重要学習データ抽出部、54b 学習データ影響算出部、55 結果出力部、61 特徴量抽出部、62 注視領域抽出部、63 推論処理部、71 テストデータ表示領域、72 推論結果表示フィールド、73 学習データ表示領域、74 表示切替ボタン、74a、74b ボタン、75 スライダ、76 学習データ表示領域、81、82 学習データ表示領域、83 表示数設定フィールド、84a,84b,85a,85b 表示領域、86 推論結果表示フィールド、87 削除ボタン、88 選択学習データ表示部、89 確定ボタン、90 再学習ボタン、91 カーソル、92 仮想ペン、93 線。 1 monitoring system, 11 monitoring device, 12 server, 12a cloud, 13 network, 14 camera, 21a mouse, 21b keyboard, 22 camera, 22a detector, 23 monitor, 23a screen, 31 inference device, 32 communication interface, 33 processor, 34 Memory, 34a Program area, 35 Learning database, 36 Machine learning model, 41 Learning unit, 41a Data input unit, 41b Data preprocessing unit, 41c Inference execution unit, 41d Model parameter update unit, 42 Correction unit, 51 Visualization unit , 52 data acquisition unit, 53 inference unit, 53a data preprocessing unit, 53b inference execution unit, 54 calculation unit, 54a important learning data extraction unit, 54b learning data influence calculation unit, 55 result output unit, 61 feature quantity extraction unit, 62 Gaze area extraction unit, 63 Inference processing unit, 71 Test data display area, 72 Inference result display field, 73 Learning data display area, 74 Display switching button, 74a, 74b button, 75 slider, 76 Learning data display area, 81, 82 Learning data display area, 83 Display number setting field, 84a, 84b, 85a, 85b Display area, 86 Inference result display field, 87 Delete button, 88 Selective learning data display area, 89 Confirm button, 90 Relearn button, 91 Cursor , 92 virtual pen, 93 lines.
Claims (9)
前記入力データに基づいて、機械学習モデルを用いた推論を実行する推論部と、
前記入力データについての前記推論部の推論結果に寄与した学習データを、抽出学習データとして、複数の学習データから抽出する学習データ抽出部と、
前記抽出学習データの要素毎または所定の部分毎に、前記推論結果に対する影響度を算出する影響度算出部と、
前記抽出学習データにおける前記要素毎または前記所定の部分毎の前記影響度を可視化する影響度可視化部と、
を有する推論結果評価システム。 Input data specification part that specifies input data and
An inference unit that executes inference using a machine learning model based on the input data,
A learning data extraction unit that extracts learning data that contributes to the inference result of the inference unit for the input data from a plurality of learning data as extraction learning data,
An influence degree calculation unit that calculates the influence degree on the inference result for each element or a predetermined part of the extracted learning data,
An influence degree visualization unit that visualizes the influence degree for each element or each predetermined part in the extracted learning data,
Inference result evaluation system with.
前記影響度算出部は、推定結果に含まれる確率値を前記画像データの各画素値で偏微分して得られた値を、前記各画素の前記影響度とする、請求項1から6のいずれか1つに記載の推論結果評価システム。 The training data includes image data and includes image data.
Any of claims 1 to 6, wherein the influence degree calculation unit uses the value obtained by partially differentiating the probability value included in the estimation result with each pixel value of the image data as the influence degree of each pixel. The inference result evaluation system described in one.
前記抽出学習データの要素毎または所定の部分毎に、前記推論結果に対する影響度を算出する影響度算出部と、
前記抽出学習データにおける前記要素毎または前記所定の部分毎の前記影響度を可視化する影響度可視化部と、
を有する推論結果評価装置。 A learning data extraction unit that extracts learning data that contributes to the inference result of inference using a machine learning model based on input data as extraction learning data from a plurality of learning data.
An influence degree calculation unit that calculates the influence degree on the inference result for each element or a predetermined part of the extracted learning data,
An influence degree visualization unit that visualizes the influence degree for each element or each predetermined part in the extracted learning data,
Inference result evaluation device having.
前記入力データに基づいて、機械学習モデルを用いた推論を実行し、
前記入力データについての前記推論の推論結果に寄与した学習データを、抽出学習データとして、複数の学習データから抽出し、
前記抽出学習データの要素毎または所定の部分毎に、前記推論結果に対する影響度を算出し、
前記抽出学習データにおける前記要素毎または前記所定の部分毎の前記影響度を可視化する、
推論結果評価方法。 Specify the input data
Based on the input data, inference using a machine learning model is executed, and
The learning data that contributed to the inference result of the inference about the input data is extracted from a plurality of learning data as the extraction learning data.
The degree of influence on the inference result is calculated for each element or a predetermined part of the extracted learning data.
Visualize the degree of influence for each element or each predetermined part in the extracted learning data.
Inference result evaluation method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019183320A JP7242495B2 (en) | 2019-10-03 | 2019-10-03 | Inference result evaluation system, inference result evaluation device and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019183320A JP7242495B2 (en) | 2019-10-03 | 2019-10-03 | Inference result evaluation system, inference result evaluation device and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021060692A true JP2021060692A (en) | 2021-04-15 |
JP7242495B2 JP7242495B2 (en) | 2023-03-20 |
Family
ID=75380126
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019183320A Active JP7242495B2 (en) | 2019-10-03 | 2019-10-03 | Inference result evaluation system, inference result evaluation device and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7242495B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023281904A1 (en) * | 2021-07-09 | 2023-01-12 | パナソニックIpマネジメント株式会社 | Assessment system, assessment method, generation system, generation method, inference system, inference method, trained model, program, and information processing system |
WO2023002648A1 (en) * | 2021-07-23 | 2023-01-26 | ソニーグループ株式会社 | Information processing method and information processing system |
WO2024053370A1 (en) * | 2022-09-06 | 2024-03-14 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
WO2024090054A1 (en) * | 2022-10-28 | 2024-05-02 | パナソニックIpマネジメント株式会社 | Image processing method, program, and image processing device |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150220853A1 (en) * | 2012-03-23 | 2015-08-06 | Nuance Communications, Inc. | Techniques for evaluation, building and/or retraining of a classification model |
JP2018169959A (en) * | 2017-03-30 | 2018-11-01 | 株式会社Jsol | Extraction system, extraction method, and extraction program of high contribution degree item for improving performance of multilayer neural network (deep learning) |
JP2019087044A (en) * | 2017-11-07 | 2019-06-06 | オムロン株式会社 | Inspection device, data generation device, data generation method, and data generation program |
WO2019142597A1 (en) * | 2018-01-19 | 2019-07-25 | ソニー株式会社 | Information processing device, information processing method and program |
-
2019
- 2019-10-03 JP JP2019183320A patent/JP7242495B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150220853A1 (en) * | 2012-03-23 | 2015-08-06 | Nuance Communications, Inc. | Techniques for evaluation, building and/or retraining of a classification model |
JP2018169959A (en) * | 2017-03-30 | 2018-11-01 | 株式会社Jsol | Extraction system, extraction method, and extraction program of high contribution degree item for improving performance of multilayer neural network (deep learning) |
JP2019087044A (en) * | 2017-11-07 | 2019-06-06 | オムロン株式会社 | Inspection device, data generation device, data generation method, and data generation program |
WO2019142597A1 (en) * | 2018-01-19 | 2019-07-25 | ソニー株式会社 | Information processing device, information processing method and program |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023281904A1 (en) * | 2021-07-09 | 2023-01-12 | パナソニックIpマネジメント株式会社 | Assessment system, assessment method, generation system, generation method, inference system, inference method, trained model, program, and information processing system |
WO2023002648A1 (en) * | 2021-07-23 | 2023-01-26 | ソニーグループ株式会社 | Information processing method and information processing system |
WO2024053370A1 (en) * | 2022-09-06 | 2024-03-14 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
WO2024090054A1 (en) * | 2022-10-28 | 2024-05-02 | パナソニックIpマネジメント株式会社 | Image processing method, program, and image processing device |
Also Published As
Publication number | Publication date |
---|---|
JP7242495B2 (en) | 2023-03-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7242495B2 (en) | Inference result evaluation system, inference result evaluation device and method | |
US10909401B2 (en) | Attention-based explanations for artificial intelligence behavior | |
US11423541B2 (en) | Assessment of density in mammography | |
CN111052146B (en) | System and method for active learning | |
US11551134B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JP6895508B2 (en) | Medical Video Metadata Predictor and Method | |
JP7246898B2 (en) | Data analysis processing device and data analysis processing program | |
CN109426834B (en) | Information processing apparatus, information processing method, and information processing system | |
US20150278710A1 (en) | Machine learning apparatus, machine learning method, and non-transitory computer-readable recording medium | |
JP2020008896A (en) | Image identification apparatus, image identification method and program | |
JP2018142097A (en) | Information processing device, information processing method, and program | |
US20190130565A1 (en) | Method of processing medical image, and medical image processing apparatus performing the method | |
KR102140402B1 (en) | Apparatus for quality managment of medical image interpretation usnig machine learning, and method thereof | |
JP5340204B2 (en) | Inference apparatus, control method thereof, and program | |
CN111512322A (en) | Using neural networks | |
JP2007052575A (en) | Metadata applying device and metadata applying method | |
WO2022109096A1 (en) | Digital imaging and learning systems and methods for analyzing pixel data of an image of a hair region of a user's head to generate one or more user-specific recommendations | |
CN114981836A (en) | Electronic device and control method of electronic device | |
JP2019109843A (en) | Classification device, classification method, attribute recognition device, and machine learning device | |
US20210192597A1 (en) | System and method for user specific apparel attribute recommendation | |
US20230100147A1 (en) | Diagnosis support system, diagnosis support method, and storage medium | |
CN113568735B (en) | Data processing method and system | |
JP7308775B2 (en) | Machine learning method and information processing device for machine learning | |
KR102466429B1 (en) | Appratus for diagnosing health status of shoes user and method thereof | |
JP7301653B2 (en) | Information processing device, information processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220325 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230131 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230207 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230308 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7242495 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |