JP2021060692A - Inference result evaluation system, inference result evaluation device, and method thereof - Google Patents

Inference result evaluation system, inference result evaluation device, and method thereof Download PDF

Info

Publication number
JP2021060692A
JP2021060692A JP2019183320A JP2019183320A JP2021060692A JP 2021060692 A JP2021060692 A JP 2021060692A JP 2019183320 A JP2019183320 A JP 2019183320A JP 2019183320 A JP2019183320 A JP 2019183320A JP 2021060692 A JP2021060692 A JP 2021060692A
Authority
JP
Japan
Prior art keywords
data
learning data
inference
learning
inference result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019183320A
Other languages
Japanese (ja)
Other versions
JP7242495B2 (en
Inventor
有 佐藤
Tamotsu Sato
有 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Digital Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Digital Solutions Corp filed Critical Toshiba Corp
Priority to JP2019183320A priority Critical patent/JP7242495B2/en
Publication of JP2021060692A publication Critical patent/JP2021060692A/en
Application granted granted Critical
Publication of JP7242495B2 publication Critical patent/JP7242495B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To provide an inference result evaluation system which can visualize which element or which part of learning data has had an influence on an inputted inference result of input data with respect to a machine learning model.SOLUTION: In accordance with an embodiment, a server 12 of a monitoring system 1 executes inference using a machine learning model 36 on the basis of test data, extracts learning data having contributed to an inference result of input data, as extracted learning data from a plurality of pieces of learning data, calculates an influence degree on the inference result of each of elements or each of prescribed parts of the extracted learning data, and visualizes the influence degree of each of the elements or each of the prescribed parts of the extracted learning data.SELECTED DRAWING: Figure 5

Description

本発明の実施形態は、推論結果評価システム、推論結果評価装置及びその方法に関する。 Embodiments of the present invention relate to an inference result evaluation system, an inference result evaluation device, and a method thereof.

機械学習によって学習して得られた機械学習モデルを用いた推論技術が広く利用されている。機械学習モデルは、教師データである学習データを用いて生成される。機械学習モデルを用いることにより、入力データについて推論結果を得ることができるが、学習データのどの要素が、その入力データの推論結果に影響を及ぼしたかを知ることはできない。 Inference techniques using machine learning models obtained by learning by machine learning are widely used. The machine learning model is generated using the learning data which is the teacher data. By using a machine learning model, it is possible to obtain inference results for the input data, but it is not possible to know which element of the training data influenced the inference results of the input data.

特開2019−82883号公報Japanese Unexamined Patent Publication No. 2019-82883

そこで、実施形態は、機械学習モデルにおいて、学習データのどの要素あるいはどの部分が、入力された入力データの推論結果に影響を及ぼしたかを可視化することができる推論結果評価システム、推論結果評価装置及び推論結果評価方法を提供することを目的とする。 Therefore, the embodiment is an inference result evaluation system, an inference result evaluation device, and an inference result evaluation device capable of visualizing which element or part of the training data affects the inference result of the input input data in the machine learning model. An object of the present invention is to provide an inference result evaluation method.

実施形態の推論結果評価システムは、入力データを指定する入力データ指定部と、前記入力データに基づいて、機械学習モデルを用いた推論を実行する推論部と、前記入力データについての前記推論部の推論結果に寄与した学習データを、抽出学習データとして、複数の学習データから抽出する学習データ抽出部と、前記抽出学習データの要素毎または所定の部分毎に、前記推論結果に対する影響度を算出する影響度算出部と、前記抽出学習データにおける前記要素毎または前記所定の部分毎の前記影響度を可視化する影響度可視化部と、を有する。 The inference result evaluation system of the embodiment includes an input data designation unit that specifies input data, an inference unit that executes inference using a machine learning model based on the input data, and the inference unit for the input data. The learning data that contributed to the inference result is used as the extraction learning data, and the learning data extraction unit that extracts the learning data from a plurality of learning data and the degree of influence on the inference result are calculated for each element or a predetermined part of the extracted learning data. It has an influence degree calculation unit and an influence degree visualization unit that visualizes the influence degree for each element or each predetermined part in the extracted learning data.

実施形態に係わる監視システムの構成図である。It is a block diagram of the monitoring system which concerns on embodiment. 実施形態に係わるサーバの構成図である。It is a block diagram of the server which concerns on embodiment. 実施形態に係わる、プロセッサにおけるモデル学習フェーズの処理の流れを示す図である。It is a figure which shows the flow of the process of the model learning phase in the processor which concerns on embodiment. 実施形態に係わる、学習データベースのデータ構造を示す図である。It is a figure which shows the data structure of the learning database which concerns on embodiment. 実施形態に係わる、テストデータについて、学習データのどの要素あるいはどの部分が推論結果に大きな影響を与えたかを分析し、分析結果を表示する処理の流れの例を示す図である。It is a figure which shows the example of the process flow which analyzes which element or the part of the learning data had a great influence on the inference result about the test data which concerns on embodiment, and displays the analysis result. 実施形態に係わる、推論実行部の処理の流れの例を示す図である。It is a figure which shows the example of the process flow of the inference execution part which concerns on embodiment. 実施形態に係わる学習データの修正処理の流れを示す図である。It is a figure which shows the flow of the correction processing of the learning data which concerns on embodiment. 実施形態に係わる、GUIデータに基づいて生成されたグラフィカル・ユーザ・インターフェースの例を示す図である。It is a figure which shows the example of the graphical user interface generated based on GUI data which concerns on embodiment. 実施形態に係わる、結果出力部により生成されたグラフィカル・ユーザ・インターフェースの他の例を示す図である。It is a figure which shows the other example of the graphical user interface generated by the result output part which concerns on embodiment. 実施形態に係わる、再学習後のグラフィカル・ユーザ・インターフェースの表示例を示す図である。It is a figure which shows the display example of the graphical user interface after re-learning which concerns on embodiment. 実施形態に係わる、テストデータをサーバへ供給してから学習データの再学習までの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process from the supply of the test data to the server to the re-learning of learning data which concerns on embodiment.

以下、図面を参照して実施形態を説明する。
(構成)
図1は、本実施形態に係わる監視システムの構成図である。監視システム1は、監視装置11と、クラウド12a上のサーバ12と、監視装置11とサーバ12とを接続するインターネットなどのネットワーク13とを含んで構成される推論システムである。本実施形態の監視システム1は、推論モデルである機械学習モデルを用いて画像に写る対象あるいは対象の状態を推論し、その推論結果を出力するサービスのためのシステムである。
Hereinafter, embodiments will be described with reference to the drawings.
(Constitution)
FIG. 1 is a configuration diagram of a monitoring system according to the present embodiment. The monitoring system 1 is an inference system including a monitoring device 11, a server 12 on the cloud 12a, and a network 13 such as the Internet that connects the monitoring device 11 and the server 12. The monitoring system 1 of the present embodiment is a system for a service that infers an object or the state of the object to be reflected in an image using a machine learning model that is an inference model and outputs the inference result.

監視装置11は、パーソナルコンピュータ(以下、PCという)21と、撮像装置であるカメラ22と、表示装置であるモニタ23を含む。PC21には、カメラ22が接続され、カメラ14からの撮像信号が入力される。PC21は、ネットワーク13を介して撮像信号の画像データをサーバ12へ送信する。PC21には、マウス21aとキーボード21bが接続されている。マウス21a、キーボード21b及びモニタ23が、グラフィカル・ユーザ・インターフェース(以下、GUIという)を構成する。 The monitoring device 11 includes a personal computer (hereinafter referred to as a PC) 21, a camera 22 as an imaging device, and a monitor 23 as a display device. A camera 22 is connected to the PC 21, and an image pickup signal from the camera 14 is input. The PC 21 transmits the image data of the image pickup signal to the server 12 via the network 13. A mouse 21a and a keyboard 21b are connected to the PC 21. A mouse 21a, a keyboard 21b, and a monitor 23 constitute a graphical user interface (hereinafter referred to as GUI).

サーバ12は、機械学習モデルを用いて、受信した画像データについての推論結果を出力することができる。本実施形態では、PC21から送信された画像データに対する推論結果は、ネットワーク13を介してサーバ12からPC21へ送信される。PC21は、推論結果をモニタ23に出力する。監視システム1のユーザは、モニタ23に表示される推論結果を知ることができる。 The server 12 can output the inference result for the received image data by using the machine learning model. In the present embodiment, the inference result for the image data transmitted from the PC 21 is transmitted from the server 12 to the PC 21 via the network 13. The PC 21 outputs the inference result to the monitor 23. The user of the monitoring system 1 can know the inference result displayed on the monitor 23.

なお、以下の実施形態では、機械学習モデルの入力データは、画像データのみであるが、点線で示すような、温度、圧力、音などを検出する検出装置22aの検出データも画像データと併せて入力データとしてしてもよい。 In the following embodiment, the input data of the machine learning model is only the image data, but the detection data of the detection device 22a for detecting temperature, pressure, sound, etc. as shown by the dotted line is also combined with the image data. It may be used as input data.

さらになお、本実施形態では、監視システム1の、後述する学習機能、推論機能及び可視化機能は、サーバ12に設けられているが、監視装置11のPC21が、学習機能、推論機能及び可視化機能を有してもよい。 Furthermore, in the present embodiment, the learning function, the inference function, and the visualization function described later of the monitoring system 1 are provided in the server 12, but the PC 21 of the monitoring device 11 provides the learning function, the inference function, and the visualization function. You may have.

図2は、サーバ12の構成図である。サーバ12は、推論装置31と、ネットワーク13との通信インターフェース(以下、通信I/Fという)32とを有する。推論装置31は、通信I/F32によりネットワーク13を介して監視装置11と通信可能になっている。推論装置31は、プロセッサ33とメモリ34を含む。プロセッサ33は、中央処理装置(以下、CPUという)、ROM、RAMを含み、メモリ34及びROMに記憶されているソフトウエアプログラムを読み出してRAMに展開して実行することにより、所定の機能を実現する。所定の機能には、後述する学習機能、推論機能及び可視化機能が含まれる。 FIG. 2 is a configuration diagram of the server 12. The server 12 has an inference device 31 and a communication interface (hereinafter, referred to as a communication I / F) 32 with the network 13. The inference device 31 can communicate with the monitoring device 11 via the network 13 by the communication I / F 32. The inference device 31 includes a processor 33 and a memory 34. The processor 33 includes a central processing unit (hereinafter referred to as a CPU), a ROM, and a RAM, and realizes a predetermined function by reading the memory 34 and the software program stored in the ROM, expanding the software program into the RAM, and executing the program. To do. Predetermined functions include a learning function, an inference function, and a visualization function, which will be described later.

なお、プロセッサ33は、CPUに代えて、GPU(Graphics Processing Unit)、FPGA(Field Programmable Gate Array)、TPU(Tensor Processing Unit)などの他の処理装置により構成してもよく、あるいはCPU、GPU、FPGA、TPUなどの処理装置の少なくとも2つと組み合わせて構成してもよい。 The processor 33 may be configured by other processing devices such as GPU (Graphics Processing Unit), FPGA (Field Programmable Gate Array), and TPU (Tensor Processing Unit) instead of the CPU, or the CPU, GPU, It may be configured in combination with at least two processing devices such as FPGA and TPU.

また、本実施形態では、サーバ12は、クラウド12a上のサーバであるが、いわゆるオンプレミスのサーバでもよい。 Further, in the present embodiment, the server 12 is a server on the cloud 12a, but may be a so-called on-premises server.

メモリ34は、書き換え可能な不揮発性メモリであり、例えばハードディスクドライブである。メモリ34は、学習プログラム、推論プログラム、可視化処理プログラムなどの各種ソフトウエアプログラムが記憶されるプログラム領域34aを含む。さらに、メモリ34には、学習データ用のデータベース(以下、学習用データベースという)35と、機械学習モデル36の機械学習モデルパラメータ(以下、モデルパラメータという)を含む機械学習モデル36とが記憶されている。 The memory 34 is a rewritable non-volatile memory, for example, a hard disk drive. The memory 34 includes a program area 34a in which various software programs such as a learning program, an inference program, and a visualization processing program are stored. Further, the memory 34 stores a database for learning data (hereinafter referred to as a learning database) 35 and a machine learning model 36 including machine learning model parameters (hereinafter referred to as model parameters) of the machine learning model 36. There is.

学習用データベース35には、複数の学習データ(訓練データ)が格納されている。各学習データは、1つの入力データと、その入力データについての正解ラベルデータとを含む。ここでは、1つの入力データは、画像データであり、1つの正解ラベルは、識別クラス情報である。 A plurality of learning data (training data) are stored in the learning database 35. Each learning data includes one input data and correct label data for the input data. Here, one input data is image data, and one correct label is identification class information.

なお、本実施形態では、入力データは、画像データであるが、IoT(Internet of Things)に関わるベクトルデータ、数値列データなどでもよく、さらに入力データは、画像データに加えて、ベクトルデータ、数値列データなどの他のデータも含んでいてもよい。正解ラベルデータは、目的変数、正常・異常などの分類クラス情報、などでもよい。 In the present embodiment, the input data is image data, but vector data and numerical string data related to IoT (Internet of Things) may be used, and the input data may be vector data and numerical values in addition to the image data. Other data such as column data may also be included. The correct label data may be objective variables, classification class information such as normal / abnormal, and the like.

機械学習モデル36は、ディープラーニングによる推論モデルのモデルパラメータのデータを含む。機械学習モデル36は、入力データに基づく推論結果を出力する。例えば、モデルパラメータをθとし、データ数をNとしたとき、機械学習モデル36は、入力データxに基づく推論結果y(x,θ)を出力する。 The machine learning model 36 includes data of model parameters of the inference model by deep learning. The machine learning model 36 outputs an inference result based on the input data. For example, when the model parameter is θ and the number of data is N, the machine learning model 36 outputs an inference result y i (x t , θ) based on the input data x t.

なお、機械学習モデル36は、ディープラーニングによる手法に限らず、ロジスティック回帰、サポートベクターマシン(SVM)などの手法によるものでもよい。
(学習)
サーバ12の学習機能について説明する。図3は、プロセッサ33におけるモデル学習フェーズの処理の流れを示す図である。図4は、学習用データベース35のデータ構造を示す図である。学習機能を実現する学習部41は、メモリ34のプログラム領域34aに格納された学習プログラムである。学習部41は、データ入力部41aと、データ前処理部41bと、推論実行部41cと、モデルパラメータ更新部41dとを含む。
The machine learning model 36 is not limited to the deep learning method, but may be a method such as logistic regression or support vector machine (SVM).
(Learning)
The learning function of the server 12 will be described. FIG. 3 is a diagram showing a processing flow of the model learning phase in the processor 33. FIG. 4 is a diagram showing a data structure of the learning database 35. The learning unit 41 that realizes the learning function is a learning program stored in the program area 34a of the memory 34. The learning unit 41 includes a data input unit 41a, a data preprocessing unit 41b, an inference execution unit 41c, and a model parameter update unit 41d.

データ入力部41aは、学習用データベース35からの学習データを取得し、データ前処理部41bに供給する。データ前処理部41bは、学習データである入力データに対して、前処理として所定の処理を実行して、入力データを変換する。例えば、データ前処理部41bでは、入力データの値が、平均が0で、分散が1となるような正規化処理を行う。データ前処理部41bは、水増し処理を行っても良い。水増しとは、入力データにノイズを付与したり、画像を並進・回転・拡縮のような変形を与えたりすることである。 The data input unit 41a acquires the learning data from the learning database 35 and supplies it to the data preprocessing unit 41b. The data pre-processing unit 41b executes a predetermined process as pre-processing on the input data which is the learning data, and converts the input data. For example, the data preprocessing unit 41b performs normalization processing so that the values of the input data have an average of 0 and a variance of 1. The data preprocessing unit 41b may perform inflating processing. Inflating is to add noise to the input data or to deform the image such as translation, rotation, and scaling.

図4に示すように、学習データは、複数の入力データを含み、各学習データは、識別番号(No.)と、リンク情報と、ラベル情報と、メタ情報を含むテーブルデータTBLにより構成されている。識別番号は、各学習データを特定するための識別子である。リンク情報は、入力データの格納されているメモリ領域を示す情報である。ラベル情報は、正解ラベルの情報である。 As shown in FIG. 4, the training data includes a plurality of input data, and each training data is composed of table data TBL including an identification number (No.), link information, label information, and meta information. There is. The identification number is an identifier for identifying each learning data. The link information is information indicating a memory area in which input data is stored. The label information is the information of the correct answer label.

メタ情報は、入力データ中の学習対象部分を示す情報(以下、学習対象部分情報という)である。本実施形態では、入力データは画像データであるので、学習対象部分情報は、画像データ中の学習対象領域情報である。すなわち、メタ情報は、入力データ中、どの部分あるいはどの領域のデータを学習対象の入力データとして使用するかを示す情報である。 The meta information is information indicating a learning target portion in the input data (hereinafter referred to as learning target portion information). In the present embodiment, since the input data is image data, the learning target partial information is the learning target area information in the image data. That is, the meta information is information indicating which part or region of the input data is used as the input data to be learned.

推論実行部41cは、データ前処理部41bにおいて前処理が行われた入力データに対して推論を実行する。ここでは、推論は、はじめに、画像データ中のメタ情報で指定された領域の画像データから所定の特徴量を抽出し、抽出された特徴量に対して、機械学習モデル36を用いて行われる。メタ情報は、例えば、デフォルトでは、画像データの全領域を学習対象領域すなわち注視領域とするが、後述するように、学習データの学習領域すなわち注視領域がユーザによって設定されると、メタ情報の注視領域は、その設定された注視領域(以下、指定注視領域という)に設定変更される。すなわち、メタ情報には、1つ又は2以上の注視領域(指定注視領域を含む)が設定可能である。 The inference execution unit 41c executes inference on the input data preprocessed by the data preprocessing unit 41b. Here, the inference is first performed by extracting a predetermined feature amount from the image data of the region specified by the meta information in the image data, and using the machine learning model 36 for the extracted feature amount. For example, by default, the meta information sets the entire area of the image data as the learning target area, that is, the gaze area, but as described later, when the learning area, that is, the gaze area of the learning data is set by the user, the meta information is gazed. The area is changed to the set gaze area (hereinafter referred to as a designated gaze area). That is, one or more gaze areas (including a designated gaze area) can be set in the meta information.

なお、メタ情報において、1つの画像データ中に複数の注視領域が設定されたとき、注視領域毎に重み付けをして、注視領域毎の推論結果の各確率を、重み付けに応じて変更するようにしてもよい。 When a plurality of gaze areas are set in one image data in the meta information, weighting is performed for each gaze area, and each probability of the inference result for each gaze area is changed according to the weighting. You may.

推論実行部41cは、例えば、機械学習モデル36のモデルパラメータに基づき、メタ情報で指定された学習対象領域の入力データから所定の特徴量を抽出する。抽出された特徴量に基づき、推論実行部41cは、推論結果をモデルパラメータ更新部41dへ出力する。 The inference execution unit 41c extracts a predetermined feature amount from the input data of the learning target area specified by the meta information, for example, based on the model parameters of the machine learning model 36. Based on the extracted features, the inference execution unit 41c outputs the inference result to the model parameter update unit 41d.

モデルパラメータ更新部41dは、推論実行部41cの実行結果に基づいてモデルパラメータの更新を行う。ここでは、損失関数L(y(x,θ),z)が定義される。損失関数は、正解ラベルzと、推論結果yが一致する程小さくなる関数である。例えば、回帰問題であれば、二乗誤差が用いられ、分類問題であれば、交差エントロピーが用いられる。 The model parameter update unit 41d updates the model parameters based on the execution result of the inference execution unit 41c. Here, the loss function L (y t (x t , θ), z t ) is defined. The loss function is a function that becomes smaller as the correct label z and the inference result y match. For example, for regression problems, squared error is used, and for classification problems, cross entropy is used.

従って、N個の学習データt(=(1,2,・・・,N))についてのモデルパラメータの学習とは損失関数が最小になるモデルパラメータθの値θを求めることであり、次の式(1)で表される。

Figure 2021060692
ここでは、式(1)は、Λ(θ)の正則化項を含み、その正則化項を含めて最小化される。最小値は、勾配降下法などを用いて求められる。正則化項に特定の関数、例えばL2norm(全てのθの二乗和)、を選ぶと、θを、入力データxの関数とみることが出来き、その結果、推論結果y(x,θ)を、xで微分可能となる。従って、後述するように、テストデータの推論結果に寄与した入力データの要素あるいは部分を求めることができる。多くの学習データに対して学習部41が実行されることにより、モデルパラメータが得られ、機械学習モデル36が生成される。 Therefore, learning the model parameters for N training data t (= (1, 2, ..., N)) is to find the value θ * of the model parameter θ that minimizes the loss function. It is expressed by the equation (1) of.
Figure 2021060692
Here, equation (1) includes a regularization term of Λ (θ) and is minimized including the regularization term. The minimum value is obtained by using the gradient descent method or the like. If a specific function, such as L2norm (sum of squares of all θ), is selected for the regularization term, θ * can be regarded as a function of the input data x t , and as a result, the inference result y (x, θ). *), and it is possible differentiated by x t. Therefore, as will be described later, it is possible to obtain an element or part of the input data that contributed to the inference result of the test data. When the learning unit 41 is executed for a large amount of learning data, model parameters are obtained and a machine learning model 36 is generated.

以上のように、学習部41は、学習データに基づいて機械学習モデル36の学習を実行するプログラムである。
(推論)
サーバ12は、機械学習モデル36を用いて、入力データについての推論機能を実現可能となる。よって、監視装置11は、画像データをサーバ12へ送信し、推論結果をサーバ12から受信することにより、監視システム1は、所望の監視を行うことができる。
As described above, the learning unit 41 is a program that executes the learning of the machine learning model 36 based on the learning data.
(inference)
The server 12 can realize an inference function for input data by using the machine learning model 36. Therefore, the monitoring device 11 transmits the image data to the server 12 and receives the inference result from the server 12, so that the monitoring system 1 can perform desired monitoring.

例えば、監視システム1が動物の監視をするシステムである場合、カメラ22の画像データが監視装置11からサーバ12へリアルタイムであるいは所定の時間間隔で送信され、サーバ12は、その画像データの画像に写る動物を推論して、その推論結果を監視装置11へ送信する。監視装置11のモニタ23には、推論結果情報が表示され、監視システム1のユーザは、モニタ23に表示される推論結果情報を認識することができる。
(可視化)
推論結果に間違えがあったとき、ユーザは、推論結果に影響を及ぼした学習データの要素などを可視化して、推論結果に間違えを生じさせた学習データを修正し、推論結果が正しくなるように、いわゆる再学習によって、機械学習モデル36のモデルパラメータを修正する必要がある。
For example, when the monitoring system 1 is a system for monitoring animals, the image data of the camera 22 is transmitted from the monitoring device 11 to the server 12 in real time or at predetermined time intervals, and the server 12 transfers the image data to the image. The imaged animal is inferred, and the inferred result is transmitted to the monitoring device 11. The inference result information is displayed on the monitor 23 of the monitoring device 11, and the user of the monitoring system 1 can recognize the inference result information displayed on the monitor 23.
(Visualization)
When there is an error in the inference result, the user visualizes the elements of the learning data that influenced the inference result, corrects the learning data that caused the error in the inference result, and makes the inference result correct. It is necessary to modify the model parameters of the machine learning model 36 by so-called re-learning.

しかし、これまでは、ユーザは、どの学習データが推論結果に大きな影響を与えたかを知ることができても、その学習データのどの要素があるいはどの部分が推論結果に大きな影響を及ぼしたかを知ることはできなかった。本実施形態によれば、入力データをテストデータとしてサーバ12に供給することによって、学習データのどの要素あるいはどの部分が、テストデータについての推論結果に大きな影響を与えたかを、可視化してユーザに示すことができる。その結果、ユーザは、可視化された情報を見て推論結果を評価して、学習データの修正と、再学習を迅速に行うことができる。よって、サーバ12は、推論結果評価装置を構成する。 However, until now, the user can know which training data has a great influence on the inference result, but knows which element or part of the learning data has a great influence on the inference result. I couldn't. According to the present embodiment, by supplying the input data as test data to the server 12, it is possible to visualize to the user which element or part of the training data has a great influence on the inference result for the test data. Can be shown. As a result, the user can quickly correct and relearn the learning data by looking at the visualized information and evaluating the inference result. Therefore, the server 12 constitutes an inference result evaluation device.

図5は、テストデータについて、学習データのどの要素あるいはどの部分が推論結果に大きな影響を与えたかを分析し、分析結果を表示する処理の流れの例を示す図である。図5の処理は、サーバ12で実行される。 FIG. 5 is a diagram showing an example of a process flow for analyzing which element or part of the training data of the test data has a great influence on the inference result and displaying the analysis result. The process of FIG. 5 is executed on the server 12.

ユーザは、複数の学習データの中の学習データのどの要素あるいはどの部分が、その画像データについての推論結果に大きな影響を与えたかを知りたい画像データを、テストデータとして、評価指示コマンドと共にサーバ12へ送信する。例えば、正しい推論結果が得られなかった画像データがテストデータとして選択されて、サーバ12へ送信される。 The user wants to know which element or part of the training data in the plurality of training data has a great influence on the inference result for the image data. The image data is used as test data, and the server 12 together with the evaluation instruction command. Send to. For example, image data for which a correct inference result has not been obtained is selected as test data and transmitted to the server 12.

すなわち、ユーザは、監視装置11において、マウス21a及びキーボード21bを用いて、テストデータを指定して、サーバ12へ送信する。よって、監視装置11のマウス21a及びキーボード21bは、入力データであるテストデータを指定する入力データ指定部あるいは入力データ指定装置を構成する。 That is, the user specifies test data in the monitoring device 11 using the mouse 21a and the keyboard 21b, and transmits the test data to the server 12. Therefore, the mouse 21a and the keyboard 21b of the monitoring device 11 constitute an input data designation unit or an input data designation device for designating test data which is input data.

プロセッサ33は、推論処理と可視化処理を行う推論/可視化部51を含む。推論/可視化部51は、推論プログラムと可視化処理プログラムである。推論プログラムと可視化処理プログラムは、メモリ34のプログラム領域34aに格納されている。推論/可視化部51は、データ取得部52と、推論部53と、演算部54と、結果出力部55とを含む。 The processor 33 includes an inference / visualization unit 51 that performs inference processing and visualization processing. The inference / visualization unit 51 is an inference program and a visualization processing program. The inference program and the visualization processing program are stored in the program area 34a of the memory 34. The inference / visualization unit 51 includes a data acquisition unit 52, an inference unit 53, a calculation unit 54, and a result output unit 55.

データ取得部52は、監視装置11からユーザによってアップロードされたテストデータを取得し、推論部53に供給する。 The data acquisition unit 52 acquires the test data uploaded by the user from the monitoring device 11 and supplies it to the inference unit 53.

推論部53は、データ前処理部53aと推論実行部53bとを含む。データ前処理部53aは、所定の前処理を実行する。データ前処理部53aでは、水増し処理は行われない。 The inference unit 53 includes a data preprocessing unit 53a and an inference execution unit 53b. The data preprocessing unit 53a executes a predetermined preprocessing. In the data preprocessing section 53a, the padding process is not performed.

推論実行部53bは、機械学習モデル36を用いてテストデータに基づく推論を実行し、推論結果、すなわち、推論結果y(x、θ)を算出する。推論実行部53bにおける推論には、上述した学習フェーズで得られたモデルパラメータθが用いられる。以上のように、推論部53は、テストデータに基づいて、機械学習モデル36を用いた推論を実行する。 The inference execution unit 53b executes inference based on the test data using the machine learning model 36, and calculates the inference result, that is, the inference result y (x, θ * ). The model parameter θ * obtained in the learning phase described above is used for inference in the inference execution unit 53b. As described above, the inference unit 53 executes inference using the machine learning model 36 based on the test data.

図6は、推論実行部53bの処理の流れの例を示す図である。推論実行部53bは、特徴量抽出部61と、注視領域抽出部62と、推論処理部63を含む。データ前処理部53aからのテストデータは、特徴量抽出部61に入力される。 FIG. 6 is a diagram showing an example of the processing flow of the inference execution unit 53b. The inference execution unit 53b includes a feature amount extraction unit 61, a gaze area extraction unit 62, and an inference processing unit 63. The test data from the data preprocessing unit 53a is input to the feature amount extraction unit 61.

特徴量抽出部61は、テストデータの所定の特徴量を抽出し、特徴量情報を出力する。特徴量情報は、注視領域抽出部62と推論処理部63に供給される。 The feature amount extraction unit 61 extracts a predetermined feature amount of the test data and outputs the feature amount information. The feature amount information is supplied to the gaze area extraction unit 62 and the inference processing unit 63.

注視領域抽出部62は、特徴量情報からテストデータ中の注視領域を抽出し、注視領域情報を出力する。注視領域抽出部62は、テストデータから抽出された各特徴量に基づいて、どの領域の特徴量を重視すべきかを示す注視領域情報(以下、推論注視領域情報という)を生成する。画像データであるテストデータ中の各領域から抽出された特徴量に基づいて、どの領域の特徴量を重視するかのマスク情報に基づいて、推論注視領域情報として生成される。 The gaze area extraction unit 62 extracts the gaze area in the test data from the feature amount information and outputs the gaze area information. The gaze area extraction unit 62 generates gaze area information (hereinafter, referred to as inferred gaze area information) indicating which area should be emphasized based on each feature amount extracted from the test data. Based on the feature amount extracted from each area in the test data which is the image data, it is generated as the inference gaze area information based on the mask information of which area the feature amount is emphasized.

例えば、画像の左上領域に顔の特徴量があり、右下領域に身体の特徴量があるなどの情報から、注視すべき領域を特定するための情報として、重視する領域以外の領域をマスクするマスク情報が生成される。この場合、マスク情報は、例えば、顔部分の領域をそのまま出力し、顔部分以外の領域の特徴量をゼロにするための情報である。言い換えれば、マスク情報は、特徴量のマップと、マスク領域のマップの掛け算、論理積などにより表現される。生成された推論注視領域情報は、注視領域抽出部62から推論処理部63に供給される。 For example, from information such as the facial features in the upper left area of the image and the body features in the lower right area, the areas other than the important areas are masked as information for identifying the areas to be watched. Mask information is generated. In this case, the mask information is, for example, information for outputting the region of the face portion as it is and setting the feature amount of the region other than the face portion to zero. In other words, the mask information is represented by the multiplication of the feature amount map and the mask area map, the logical product, and the like. The generated inference gaze area information is supplied from the gaze area extraction unit 62 to the inference processing unit 63.

推論処理部63は、機械学習モデル36を用いて、特徴量情報と注視領域情報に基づいて推論を実行し、推論結果を出力する。推論結果は、例えば、各クラスと、クラス毎の確率データを含む。例えば、機械学習モデル36が画像中の動物を推論するモデルの場合、推論結果は、「犬」のクラスの確率が90%で、「猫」のクラスの確率が10%、等である。 The inference processing unit 63 executes inference based on the feature amount information and the gaze area information by using the machine learning model 36, and outputs the inference result. The inference result includes, for example, each class and probability data for each class. For example, when the machine learning model 36 is a model that infers an animal in an image, the inference result is that the probability of the "dog" class is 90%, the probability of the "cat" class is 10%, and so on.

推論部53の処理は、上述した監視処理において実行される推論処理と同じである。 The processing of the inference unit 53 is the same as the inference processing executed in the above-mentioned monitoring processing.

推論部53の出力する推論結果は、演算部54へ供給される。演算部54は、重要学習データ抽出部54aと、学習データ影響算出部54bとを含む。 The inference result output by the inference unit 53 is supplied to the calculation unit 54. The calculation unit 54 includes an important learning data extraction unit 54a and a learning data influence calculation unit 54b.

重要学習データ抽出部54aは、テストデータ(x)、全学習データ(x,x,・・・,x)、テストデータと各学習データの推論結果、特徴量情報などから、テストデータについての推論結果に寄与した重要な学習データを抽出する。言い換えれば、重要学習データ抽出部54aは、推定結果に大きな影響を及ぼしたと考えられる1又は2以上の学習データを抽出する。ここでは、重要学習データ抽出部54aは、推論結果に関わるクラス毎に1又は2以上の学習データを抽出する。すなわち、重要学習データ抽出部54aは、入力データであるテストデータについての推論部53の推論結果に寄与した1又は2以上の学習データを、抽出学習データとして、複数の学習データから抽出する学習データ抽出部を構成する。 The important learning data extraction unit 54a is based on test data (x), all training data (x 1 , x 2 , ..., X N ), test data and inference results of each training data, feature amount information, and the like. Extract important training data that contributed to the inference result about. In other words, the important learning data extraction unit 54a extracts one or two or more learning data that are considered to have had a great influence on the estimation result. Here, the important learning data extraction unit 54a extracts one or more learning data for each class related to the inference result. That is, the important learning data extraction unit 54a extracts one or more learning data that contributed to the inference result of the inference unit 53 for the test data that is the input data from a plurality of learning data as the extraction learning data. It constitutes an extraction unit.

重要学習データ抽出部54aにおける学習データの抽出は、データの類似度(例えば二乗誤差、特徴量の内積、画像類似指標など)を用いて行うことができる。 The learning data can be extracted by the important learning data extraction unit 54a by using the degree of similarity of the data (for example, square error, inner product of feature amount, image similarity index, etc.).

例えば、重要学習データ抽出部54aは、テストデータと、各学習データの類似度を算出し、類似度の高い順にソートして、類似度の高い、上位の所定数(1又は2以上)の学習データを出力する。 For example, the important learning data extraction unit 54a calculates the similarity between the test data and each learning data, sorts them in descending order of similarity, and learns a predetermined number (1 or 2 or more) having a high similarity. Output data.

また、重要学習データ抽出部54aにおける学習データの抽出は、(−(∂y/∂y))とテストデータの特徴量と各学習データの特徴量との内積を用いて行ってもよく、その抽出方法には、他の方法を用いてもよい。 Further, the extraction of the training data in the important learning data extraction unit 54a may be performed by using (-(∂y / ∂y t )) and the inner product of the feature amount of the test data and the feature amount of each training data. Other methods may be used as the extraction method.

さらにまた、重要学習データ抽出部54aは、影響関数(Influence Function)に基づいて、推論結果に大きな影響を与える上位の所定数(1又は2以上)の学習データを出力するようにしてもよい。 Furthermore, the important learning data extraction unit 54a may output a predetermined number (1 or 2 or more) of learning data of a higher order that has a great influence on the inference result based on the influence function (Influence Function).

あるいは、重要学習データ抽出部54aは、クラスに属する複数の学習データの中から識別境界との距離が近い上位の所定数(1又は2以上)の学習データを出力するようにしてもよい。 Alternatively, the important learning data extraction unit 54a may output a predetermined number (1 or 2 or more) of learning data having a close distance to the identification boundary from a plurality of learning data belonging to the class.

重要学習データ抽出部54aは、テストデータについての推論結果が正しいとしたときの学習データを、推論結果に良い影響を与えたデータとして出力し、かつ、テストデータについての推論結果が誤っているとしたときの学習データを、推論結果に悪い影響を与えたデータとして出力するようにしてもよい。すなわち、重要学習データ抽出部54aは、推論結果に良い影響を与えた1又は2以上の学習データと、推論結果に悪い影響を与えた1又は2以上の学習データの両方を抽出するようにしてもよい。 The important learning data extraction unit 54a outputs the training data when the inference result for the test data is correct as the data that has a good influence on the inference result, and the inference result for the test data is incorrect. The training data at that time may be output as data that adversely affects the inference result. That is, the important learning data extraction unit 54a extracts both one or two or more learning data that have a good influence on the inference result and one or two or more learning data that have a bad influence on the inference result. May be good.

学習データ影響算出部54bは、重要学習データ抽出部54aにより抽出された1又は2以上の学習データの各々において、どの要素が推論結果y(x,θ)にどの程度の影響を与えたかを算出する。 The learning data influence calculation unit 54b determines which element affected the inference result y (x, θ * ) in each of the one or more learning data extracted by the important learning data extraction unit 54a. calculate.

学習データ影響算出部54bは、ここでは、推論結果の確率を各画素値で偏微分((∂y(x,θ)/∂x)を行うことによって、各画素についての影響度を算出する。すなわち、学習データ影響算出部54bは、推定結果に含まれる確率値を学習データの各要素又は各部分の値で偏微分して得られた値を、各要素又は各部分の影響度とする。ここでは、学習データ影響算出部54bは、推定結果に含まれる確率値を画像データの各画素値で偏微分して得られた値を、各画素の影響度とする。 Here, the learning data influence calculation unit 54b calculates the degree of influence for each pixel by partially differentiating the probability of the inference result with each pixel value ((∂y (x, θ * ) / ∂x t). That is, the learning data influence calculation unit 54b uses the value obtained by partially differentiating the probability value included in the estimation result with the value of each element or each part of the learning data as the influence degree of each element or each part. Here, the learning data influence calculation unit 54b uses the value obtained by partially differentiating the probability value included in the estimation result with each pixel value of the image data as the influence degree of each pixel.

各要素の影響度について簡単な例を挙げて説明する。例えば、2次元ベクトルの要素を持つ、2つの学習データ x1={x11,x12}とx2={x21,x22}があり、それらがラベルy1,y2を有しているとする。y1が「正常」で、y2が「異常」とする。このラベルy1,y2を判別する機械学習の分類モデルのパラメータθを、この2つの学習データx1,x2をそれぞれラベルy1とy2に分類するように、ある条件を与えて最適化すると、パラメータθは、θ=θ(x11,x12,x21,x22)の関数で表示される。 The degree of influence of each element will be described with a simple example. For example, suppose that there are two training data x1 = {x11, x12} and x2 = {x21, x22} having elements of a two-dimensional vector, and they have labels y1 and y2. Let y1 be "normal" and y2 be "abnormal". When the parameter θ of the machine learning classification model for discriminating the labels y1 and y2 is optimized by giving certain conditions so that the two training data x1 and x2 are classified into the labels y1 and y2, respectively, the parameter θ becomes. , Θ = θ (x11, x12, x21, x22).

ここで、未知のデータxtをこの分類モデルに入力すると、y1(例えば正常)だと思われる確率p=p(xt,θ)を出力する。上記のθの関数から、p(xt,θ)=p(xt,x11,x12,x21,x22)なので、 pは学習データの各要素x11,x12,x21,x22で微分することが出来る。例えば、(∂p/∂x11)の値が、大きな正の値であれば、x11を少し増やすことによりデータxtがy1である確率が増加する。反対に、(∂p/∂x11)の値が小さい値のときは、データxtは、y1とはあまり関係ない。つまり、学習データのどの要素を学習したことが、この推論結果に影響を与えたかを評価できることになる。 Here, when unknown data ct is input to this classification model, the probability p = p (xt, θ) that seems to be y1 (for example, normal) is output. From the above function of θ, p (xt, θ) = p (xt, x11, x12, x21, x22), so p can be differentiated by each element x11, x12, x21, x22 of the training data. For example, if the value of (∂p / ∂x11) is a large positive value, increasing x11 a little increases the probability that the data xt is y1. On the contrary, when the value of (∂p / ∂x11) is small, the data xt has little relation to y1. In other words, it is possible to evaluate which element of the training data has influenced this inference result.

別な例を挙げると、過去の営業日のデータから、今日の売上が高いか低いかを分類する売り上げ予測システムの推論モデルが得られた場合、ある日(例えば8月28日)の売上が高いと予測したとき、学習データの1つ(例えば、8月14日)の要素である気温が影響を与えている、ということを評価することができる。 To give another example, if you can obtain an inference model of a sales forecasting system that classifies whether today's sales are high or low from the data of past business days, the sales of one day (for example, August 28) will be When it is predicted to be high, it can be evaluated that the temperature, which is an element of one of the training data (for example, August 14), has an influence.

上述した本実施形態では、推論結果の確率を各画素値で偏微分((∂y(x,θ)/∂x)を行うことによって、各画素についての影響度を算出しているが、例えばテストデータについての推論結果の確率の微分(すなわち感度)である((∂y(x,θ)/∂x)を、さらに学習データで微分して、次の式(2)を用いて影響度を算出するようにしてもよい。

Figure 2021060692
さらになお、推論結果から逆伝搬演算により、各画素(すなわち各要素)の影響度を直接算出するようにしてもよく、学習データ影響算出には、他の方法を用いてもよい。よって、学習データ影響算出部54bは、抽出された学習データの要素毎または所定の部分毎に、推論結果に対する影響度を算出する影響度算出部を構成する。 In the above-described embodiment, the degree of influence for each pixel is calculated by partially differentiating the probability of the inference result with each pixel value ((∂y (x, θ * ) / ∂x t). For example, the derivative (that is, sensitivity) of the probability of the inference result for the test data ((∂y (x, θ * ) / ∂x) is further differentiated with the training data, and the following equation (2) is used. The degree of influence may be calculated.
Figure 2021060692
Furthermore, the degree of influence of each pixel (that is, each element) may be directly calculated from the inference result by a back propagation calculation, and another method may be used for the learning data influence calculation. Therefore, the learning data influence calculation unit 54b constitutes an influence degree calculation unit that calculates the influence degree on the inference result for each element or a predetermined part of the extracted learning data.

結果出力部55は、学習データ影響算出部54bにより算出された、推論結果に影響を与えた要素の情報を、学習データに重畳した画像を含むGUIデータを生成して、ネットワーク13を介して監視装置11へ送信する。
(修正と再学習)
次に、学習データの修正について説明する。図7は、学習データの修正処理の流れを示す図である。本実施形態では、ユーザは、監視装置11から学習用データベース35の学習データの修正処理をサーバ12に行われることができる。
The result output unit 55 generates GUI data including an image superimposed on the learning data of the information of the elements that have influenced the inference result calculated by the learning data influence calculation unit 54b, and monitors the information via the network 13. It is transmitted to the device 11.
(Correction and re-learning)
Next, the modification of the training data will be described. FIG. 7 is a diagram showing a flow of correction processing of learning data. In the present embodiment, the user can perform the correction processing of the learning data of the learning database 35 from the monitoring device 11 to the server 12.

ユーザは、後述するように推論に寄与した学習データを見て、学習データの削除、指定注視領域の設定及び変更、等の修正を行うことができる。そのため、サーバ12は、学習用データベース35の学習データの修正プログラムを有している。修正プログラムは、メモリ34のプログラム領域34aに記憶されている。 As will be described later, the user can see the learning data that contributed to the inference and make corrections such as deleting the learning data and setting and changing the designated gaze area. Therefore, the server 12 has a modification program for the learning data of the learning database 35. The patch is stored in the program area 34a of the memory 34.

修正には、適切な推論にとっての不適切な学習データの削除、学習データのラベルの付け間違いの修正、指定注視領域の設定変更、等が含まれる。例えば、ラベルが曖昧な学習データ、人にも認識するのが困難な学習データ、間違い易い背景が多く含まれている学習データ、等は、学習用データベース35から削除可能である。また、ラベル付けが間違っている学習データ等については、ラベル情報を正しいラベル情報に修正可能である。また、複数の被写体が含まれ、正しいラベルが付けられた根拠となった被写体以外の被写体を含む学習データについては、正しいラベルが付けられた根拠となった被写体以外の領域を、マスク領域とするように指定注視領域が設定可能である。 Corrections include deletion of training data that is inappropriate for proper inference, correction of mislabeling of training data, change of settings of designated gaze area, and the like. For example, learning data with ambiguous labels, learning data that is difficult for humans to recognize, learning data that includes many backgrounds that are easily mistaken, and the like can be deleted from the learning database 35. Further, for learning data or the like with incorrect labeling, the label information can be corrected to the correct label information. In addition, for learning data that includes a plurality of subjects and includes subjects other than the subject on which the correct label is attached, the area other than the subject on which the correct label is attached is set as the mask area. The designated gaze area can be set as such.

よって、修正部42は、学習データの修正をユーザに実行可能にするための処理部である。そして、修正部42は、学習データのラベル情報の変更、学習データの注視領域の設定、及び学習データの削除の少なくとも1つを実行可能である。 Therefore, the correction unit 42 is a processing unit for enabling the user to perform correction of the learning data. Then, the correction unit 42 can execute at least one of changing the label information of the learning data, setting the gaze area of the learning data, and deleting the learning data.

学習用データベース35が修正された後、学習部41は、ユーザからの再学習指示コマンドを受信すると、修正された学習用データベース35に基づいて、機械学習モデル36を再生成することができる。 After the learning database 35 is modified, the learning unit 41 can regenerate the machine learning model 36 based on the modified learning database 35 when it receives the relearning instruction command from the user.

上述したように、結果出力部55は、GUIデータを生成する。図8は、GUIデータに基づいて生成されたGUIの例を示す図である。図8は、結果出力部55により生成されたGUIデータに基づいて、監視装置11のモニタ23の画面23aに表示されたGUI例を示す。図8のGUI1は、テストデータ表示領域71、推論結果表示フィールド72、第1学習データ表示領域73、2つのボタン74a、74bを含む表示切替ボタン74、スライダ摘まみ75aを含むスライダ75、及び第2学習データ表示領域76を含む。 As described above, the result output unit 55 generates GUI data. FIG. 8 is a diagram showing an example of a GUI generated based on GUI data. FIG. 8 shows an example of GUI displayed on the screen 23a of the monitor 23 of the monitoring device 11 based on the GUI data generated by the result output unit 55. The GUI 1 of FIG. 8 includes a test data display area 71, an inference result display field 72, a first learning data display area 73, a display switching button 74 including two buttons 74a and 74b, a slider 75 including a slider knob 75a, and a third. 2 The training data display area 76 is included.

テストデータ表示領域71は、テストデータが表示されるウインドウである。推論結果表示フィールド72は、テストデータに対して行われた推論の結果を表示する。図8では、推論結果表示フィールド72に「分類結果:リス」と表示されている。すなわち、テストデータ表示領域71に表示されたテストデータの画像から、機械学習モデル36は、推論結果として、「リス」を出力したことが示されている。 The test data display area 71 is a window in which test data is displayed. The inference result display field 72 displays the result of the inference made on the test data. In FIG. 8, “classification result: squirrel” is displayed in the inference result display field 72. That is, from the image of the test data displayed in the test data display area 71, it is shown that the machine learning model 36 outputs "squirrel" as an inference result.

第1学習データ表示領域73には、重要学習データ抽出部54aにおいて抽出された、推論結果に良い影響を与えた学習データが表示される。ここでは、第1学習データ表示領域73には、推論結果の中から最も確率の高いクラス(ここでは「リス」)の学習データが表示される。さらに、第1学習データ表示領域73には、最も確率の高いクラス(ここでは「リス」)の複数の学習データの中から、テストデータと類似度が最も高い学習データが、重要学習データとして表示される。 In the first learning data display area 73, the learning data extracted by the important learning data extraction unit 54a and having a good influence on the inference result is displayed. Here, in the first learning data display area 73, the learning data of the class with the highest probability (here, “squirrel”) from the inference results is displayed. Further, in the first learning data display area 73, the learning data having the highest similarity to the test data is displayed as important learning data from among the plurality of learning data of the class having the highest probability (here, “squirrel”). Will be done.

第1学習データ表示領域73中に、学習データ影響算出部54bにより算出された影響度が所定の閾値以上である1又は2以上の画素の領域が、所定の色で強調されて他の領域とは識別可能に表示される。図8では、2つの部分PA(斜線で示す部分)が、ユーザに他の領域とは識別可能なように表示された部分として示されている。よって、結果出力部55は、影響度が所定の閾値以上の各要素又は各部分を、他の要素又は他の部分と識別可能に表示する表示データを生成する。 In the first learning data display area 73, an area of one or two or more pixels whose degree of influence calculated by the learning data influence calculation unit 54b is equal to or more than a predetermined threshold value is emphasized with a predetermined color and is combined with another area. Is displayed identifiable. In FIG. 8, the two partial PAs (hatched portions) are shown as portions that are displayed to the user so that they can be distinguished from the other regions. Therefore, the result output unit 55 generates display data for displaying each element or each portion having an influence degree equal to or higher than a predetermined threshold value so as to be distinguishable from the other element or the other portion.

ユーザは、第1学習データ表示領域73に表示された学習データの2つの部分PAが、テストデータ表示領域71に表示されたテストデータについての推論結果「リス」に大きな影響を与えたと認識することができる。 The user recognizes that the two partial PAs of the training data displayed in the first training data display area 73 have a great influence on the inference result "squirrel" for the test data displayed in the test data display area 71. Can be done.

ボタン74aは、複数の学習データの中から、類似度のより高い他の学習データを第1学習データ表示領域73に表示させるときにクリックされる。ボタン74bは、複数の学習データの中から、次に高い類似度の学習データを第1学習データ表示領域73に表示させるときにクリックされる。 The button 74a is clicked when displaying other learning data having a higher degree of similarity from the plurality of learning data in the first learning data display area 73. The button 74b is clicked when displaying the learning data having the next highest degree of similarity from the plurality of learning data in the first learning data display area 73.

よって、類似度が最も高い学習データが第1学習データ表示領域73に表示されているときに、ユーザがマウス21aを用いてボタン74bをクリックすると、類似度が最も高い学習データの次に類似度が高い学習データ(すなわち類似度が2番目に高い学習データ)が第1学習データ表示領域73に表示される。さらにその表示状態で、ユーザがボタン74aをクリックすると、類似度が最も高い学習データが第1学習データ表示領域73に表示されるが、ユーザがボタン74bをクリックすると、類似度が3番目に高い学習データが第1学習データ表示領域73に表示される。 Therefore, when the learning data having the highest degree of similarity is displayed in the first learning data display area 73, when the user clicks the button 74b using the mouse 21a, the degree of similarity is next to the learning data having the highest degree of similarity. The learning data having a high degree of similarity (that is, the learning data having the second highest degree of similarity) is displayed in the first learning data display area 73. Further, when the user clicks the button 74a in the display state, the learning data having the highest similarity is displayed in the first learning data display area 73, but when the user clicks the button 74b, the learning data having the highest similarity is the third highest. The learning data is displayed in the first learning data display area 73.

よって、ユーザは、第1学習データ表示領域73に表示された各重要学習データにおいて、推論結果表示フィールド72に表示された推論結果に大きな影響を与えた画素(要素)あるいは部分を認識することができる。 Therefore, the user can recognize the pixels (elements) or parts that have a great influence on the inference result displayed in the inference result display field 72 in each important learning data displayed in the first learning data display area 73. it can.

スライダ75は、上述した影響度の閾値を変更するために用いられる。ユーザは、マウス21aを用いてスライダ摘まみ75aを選択した状態で、左右に移動させることができる。閾値を小さくすると、その画素値の影響度が小さくても、その画素は識別可能に表示される。閾値を大きくすると、影響度が大きい画素だけが識別可能に表示される。よって、所定の閾値は、変更可能である。 The slider 75 is used to change the above-mentioned influence threshold. The user can move the slider knob 75a to the left or right with the mouse 21a selected. When the threshold value is made small, the pixel is displayed in an identifiable manner even if the influence of the pixel value is small. When the threshold value is increased, only the pixels having a large influence are displayed in an identifiable manner. Therefore, the predetermined threshold value can be changed.

なお、影響度が大きい画素だけを識別可能にする方法に代えて、影響度が大きい画素を、影響度の大小を色で視覚化するヒートマップ、影響度が大きい画素を囲む輪郭線、等で表示する方法を用いて、表示するようにしてもよい。 Instead of making it possible to identify only the pixels with a high degree of influence, a heat map that visualizes the magnitude of the degree of influence with colors, a contour line surrounding the pixels with a high degree of influence, etc. It may be displayed by using the display method.

例えば、スライダ摘まみ75aを右に移動させると、閾値の幅が大きくなり、スライダ摘まみ75aを左に移動させると、閾値の幅が小さくなる。よって、ユーザは、スライダ摘まみ75aを移動させることで、識別可能表示される部分PAの大きさを変化させることができる。 For example, moving the slider knob 75a to the right increases the threshold width, and moving the slider knob 75a to the left decreases the threshold width. Therefore, the user can change the size of the identifiable portion PA by moving the slider knob 75a.

また、画面23a中の第2学習データ表示領域76には、重要学習データ抽出部54aにおいて抽出された、推論結果に悪い影響を与えた重要学習データが表示される。第1学習データ表示領域73には、推論結果の中から最も確率の高いクラスの学習データが表示されるが、第2学習データ表示領域76には、推論結果の中から2番目に確率の高いクラス(例えば、後述する「ハムスター」)の学習データが表示される。さらに、第1学習データ表示領域73には、2番目に確率の高いクラスの複数の学習データの中から、テストデータと類似度が最も高い学習データが、重要学習データとして表示される。 Further, in the second learning data display area 76 on the screen 23a, the important learning data extracted by the important learning data extraction unit 54a and having a bad influence on the inference result is displayed. The learning data of the class having the highest probability from the inference results is displayed in the first learning data display area 73, but the second learning data display area 76 has the second highest probability from the inference results. The learning data of the class (for example, "hamster" described later) is displayed. Further, in the first learning data display area 73, the learning data having the highest degree of similarity to the test data is displayed as important learning data from among the plurality of learning data of the class having the second highest probability.

ユーザは、図示しないスクロールバーなどを操作することにより、第1学習データ表示領域73と同様に、第2学習データ表示領域76の学習データを見ることができる。第2学習データ表示領域76の近傍にも、図示しないが、第2学習データ表示領域76に関する2つのボタン74a、74bを含む表示切替ボタン74、及びスライダ摘まみ75aを含むスライダ75が、表示される。 By operating a scroll bar (not shown) or the like, the user can see the learning data in the second learning data display area 76 in the same manner as in the first learning data display area 73. Also in the vicinity of the second learning data display area 76, although not shown, a display switching button 74 including two buttons 74a and 74b relating to the second learning data display area 76, and a slider 75 including a slider knob 75a are displayed. To.

よって、ユーザは、第2学習データ表示領域76に関する表示切替ボタン74を操作して、推論結果に悪い影響を与えた他の重要学習データも表示させることができる。さらに、ユーザは、第2学習データ表示領域76に関するスライダ75を移動させることで、識別可能表示される部分PAの大きさを変化させることができる。スライダ75で閾値を高くするほど、より確信している根拠となる部分(すなわち影響度が高い部分)だけが識別可能に表示される。 Therefore, the user can operate the display switching button 74 related to the second learning data display area 76 to display other important learning data that adversely affects the inference result. Further, the user can change the size of the identifiable partial PA by moving the slider 75 with respect to the second learning data display area 76. The higher the threshold with the slider 75, the more confident the underlying part (ie, the part with the higher degree of influence) is displayed in an identifiable manner.

よって、ユーザは、図8のGUI1を表示させることによって、推論結果に影響を与えた重要学習データのどの要素あるいはどの部分が、テストデータの推論結果に影響を及ぼしたかを認識することができる。従って、結果出力部55は、抽出された学習データにおける要素毎または所定の部分毎の影響度を可視化する影響度可視化部を構成する。言い換えれば、結果出力部55は、抽出された学習データにおける要素毎または所定の部分毎の影響度を可視化するための画像データを生成する影響度画像生成部を構成する。 Therefore, by displaying GUI1 of FIG. 8, the user can recognize which element or part of the important learning data that influenced the inference result influenced the inference result of the test data. Therefore, the result output unit 55 constitutes an influence degree visualization unit that visualizes the influence degree for each element or a predetermined part in the extracted learning data. In other words, the result output unit 55 constitutes an influence degree image generation unit that generates image data for visualizing the influence degree for each element or a predetermined part in the extracted learning data.

図9は、結果出力部55により生成されたGUIの他の例を示す図である。図9において、図8と同じ構成要素については、同じ符号を用いて説明は省略する。ユーザは、GUI2を用いて、学習データのどの要素あるいはどの部分が、テストデータの推論結果に影響を及ぼしたかを認識することができると共に、学習データの修正を行うことができる。図9のGUI2は、テストデータ表示領域71と推論結果表示フィールド72を含む。 FIG. 9 is a diagram showing another example of the GUI generated by the result output unit 55. In FIG. 9, the same components as those in FIG. 8 are designated by the same reference numerals and description thereof will be omitted. The user can recognize which element or part of the training data influences the inference result of the test data by using GUI2, and can modify the training data. The GUI 2 of FIG. 9 includes a test data display area 71 and an inference result display field 72.

さらに、GUI2は、二点鎖線で示すように、第1学習データ表示領域81と、第2学習データ表示領域82とを有する。第1学習データ表示領域81は、複数(ここでは2つ)の学習データ表示領域である第1表示領域84aと第2表示領域84bを含む。第2学習データ表示領域82も、複数(ここでは2つ)の学習データ表示領域である第1表示領域85aと第2表示領域85bを含む。 Further, the GUI 2 has a first learning data display area 81 and a second learning data display area 82, as shown by the alternate long and short dash line. The first learning data display area 81 includes a plurality of (two in this case) learning data display areas, a first display area 84a and a second display area 84b. The second learning data display area 82 also includes a plurality of (here, two) learning data display areas 85a and a second display area 85b.

第1学習データ表示領域81には、推論結果の中から最も確率の高いクラス(ここでは「リス」)の学習データが表示される。第2学習データ表示領域82には、推論結果の中から2番目に確率の高いクラス(ここでは「ハムスター」)の学習データが表示される。 In the first learning data display area 81, the learning data of the class with the highest probability (here, “squirrel”) from the inference results is displayed. In the second learning data display area 82, the learning data of the class having the second highest probability (here, “hamster”) from the inference results is displayed.

GUI2は、第1学習データ表示領域81と第2学習データ表示領域82のそれぞれに表示される学習データの数を設定する表示数設定フィールド83を含む。ユーザは、マウス21aとキーボード21bを用いて、表示数設定フィールド83に、数を入力して設定することができる。図9では、「2」が表示数設定フィールド83に設定されているので、第1学習データ表示領域81と第2学習データ表示領域82のそれぞれには、2つの学習データが表示されている。 The GUI 2 includes a display number setting field 83 for setting the number of training data displayed in each of the first learning data display area 81 and the second learning data display area 82. The user can input and set a number in the display number setting field 83 by using the mouse 21a and the keyboard 21b. In FIG. 9, since “2” is set in the display number setting field 83, two learning data are displayed in each of the first learning data display area 81 and the second learning data display area 82.

第1学習データ表示領域81の第1表示領域84aには、類似度が最も高い学習データが表示される。第1学習データ表示領域81の第2表示領域84bには、類似度が最も高い学習データの次に類似度が高い学習データが表示される。 The learning data having the highest degree of similarity is displayed in the first display area 84a of the first learning data display area 81. In the second display area 84b of the first learning data display area 81, the learning data having the next highest degree of similarity is displayed after the learning data having the highest degree of similarity.

第2学習データ表示領域82の第1表示領域85aには、類似度が最も高い学習データが表示される。第1学習データ表示領域81の第2表示領域84bには、類似度が最も高い学習データの次に類似度が高い学習データが表示される。 The learning data having the highest degree of similarity is displayed in the first display area 85a of the second learning data display area 82. In the second display area 84b of the first learning data display area 81, the learning data having the next highest degree of similarity is displayed after the learning data having the highest degree of similarity.

第1表示領域84aと第2表示領域84bの各々に対応して、スライダ75と推論結果表示フィールド86が設けられている。推論結果表示フィールド86には、対応する表示領域の学習データのラベル情報が表示される。ユーザは、マウス21aを用いてカーソル91を所望の推論結果表示フィールド86に移動させて、ラベル情報の変更をすることができる。ラベル情報の変更は、上述した修正部42により実行される。 A slider 75 and an inference result display field 86 are provided corresponding to each of the first display area 84a and the second display area 84b. In the inference result display field 86, label information of the training data of the corresponding display area is displayed. The user can change the label information by moving the cursor 91 to the desired inference result display field 86 using the mouse 21a. The label information is changed by the correction unit 42 described above.

さらに、各表示領域84a,84b,85a,85bには、対応する学習データを削除するための所定のマークの削除ボタン87が設けられている。削除ボタン87がクリックされると、削除ボタン87に関わる学習データは、学習用データベース35から削除される。 Further, each display area 84a, 84b, 85a, 85b is provided with a deletion button 87 of a predetermined mark for deleting the corresponding learning data. When the delete button 87 is clicked, the learning data related to the delete button 87 is deleted from the learning database 35.

さらに、GUI2は、選択学習データ表示部88と、確定ボタン89と、再学習ボタン90を有している。 Further, the GUI 2 has a selection learning data display unit 88, a confirmation button 89, and a re-learning button 90.

各表示領域84a,84bに表示された学習データについて、部分PAが重畳されている。部分PAは、推論結果表示フィールド72の推論結果に対して肯定的な影響を与えた要素あるいは部分を示している。 Partial PAs are superimposed on the learning data displayed in the display areas 84a and 84b. Part PA indicates an element or part that has a positive influence on the inference result of the inference result display field 72.

さらに、各表示領域84a,84bに表示された学習データについて、部分PBも重畳されている。部分PBは、推論結果表示フィールド72の推論結果に対して否定的な影響を与えた要素あるいは部分を示している。 Further, the partial PB is also superimposed on the learning data displayed in each of the display areas 84a and 84b. Part PB indicates an element or part that has a negative influence on the inference result of the inference result display field 72.

同様に、各表示領域85a,85bに表示された画像についても、部分PAとPBが重畳されている。部分PAとPBの状態をみることにより、ユーザは、推定結果への影響を推定することができる。例えば、表示領域84bの学習データの場合、リスの尻尾の部分PAでリスと判断しているが、部分PBのリスの顔では、推定結果を疑問視していると考えられる。 Similarly, the partial PA and PB are superimposed on the images displayed in the respective display areas 85a and 85b. By observing the states of the partial PAs and PBs, the user can estimate the influence on the estimation result. For example, in the case of the training data of the display area 84b, the partial PA at the tail of the squirrel determines that the squirrel is a squirrel, but the face of the squirrel in the partial PB is considered to question the estimation result.

なお、GUI2では、テストデータ表示領域71に表示されたテストデータについても部分PAとPBが表示されている。 In GUI2, partial PAs and PBs are also displayed for the test data displayed in the test data display area 71.

図9は、推論結果表示フィールド72の推論結果が「リス」と表示されているが、「リス」の確率よりも低い確率で「ハムスター」の推論結果が得られている場合を示している。よって、ユーザは、各表示領域84a,84b,85a,85bにおいて、推論結果表示フィールド72の推論結果に対して肯定的な影響を与えている部分と、推論結果表示フィールド72の推論結果に対して否定的な影響を与えている部分とを直観的に理解することができる。 FIG. 9 shows a case where the inference result of the inference result display field 72 is displayed as “squirrel”, but the inference result of “hamster” is obtained with a probability lower than the probability of “squirrel”. Therefore, in each display area 84a, 84b, 85a, 85b, the user has a positive influence on the inference result of the inference result display field 72 and the inference result of the inference result display field 72. You can intuitively understand the part that has a negative influence.

選択学習データ表示部88は、ユーザにより選択された学習データを拡大表示する領域である。ユーザは、選択学習データ表示部88に表示された学習データ中の注視する領域を設定することができる。例えば、ユーザは、マウス21aを用いて、GUI2上のカーソル91を移動させて表示領域84bに表示された学習データを選択すると、選択された学習データは、選択学習データ表示部88に表示される。 The selective learning data display unit 88 is an area for enlarging and displaying the learning data selected by the user. The user can set the area to be watched in the learning data displayed on the selective learning data display unit 88. For example, when the user uses the mouse 21a to move the cursor 91 on the GUI 2 to select the learning data displayed in the display area 84b, the selected learning data is displayed on the selective learning data display unit 88. ..

その後、ユーザは、選択学習データ表示部88に表示された画像に対して、所定のコマンドを選択して、自由が線を描画できるモード下で、仮想ペン92を用いて囲み線93を描画することができる。ユーザが確定ボタン89をクリックすると、線93で囲まれた内側の領域以外の領域は、マスク領域として設定される。この設定されたマスク領域に基づく指定注視領域が、テーブルデータTBLのメタ情報に登録される。図9では、表示領域84bに表示された学習データが選択されて、線93によりマスク領域が設定されていることが示されている。 After that, the user selects a predetermined command for the image displayed on the selective learning data display unit 88, and draws the surrounding line 93 using the virtual pen 92 in a mode in which freedom can draw a line. be able to. When the user clicks the confirm button 89, the area other than the inner area surrounded by the line 93 is set as the mask area. The designated gaze area based on this set mask area is registered in the meta information of the table data TBL. In FIG. 9, it is shown that the learning data displayed in the display area 84b is selected and the mask area is set by the line 93.

また、推論結果表示フィールド72の推論結果が間違っていたときに、ユーザは、どの学習データが影響して推論結果が間違ったことが分かる場合がある。例えば、テストデータ表示領域71に表示されたテストデータが「リス」の画像であるにも拘わらず、推論結果表示フィールド72に「ハムスター」が表示されているような場合に、表示領域85aの画像が推論結果に影響していることが分かる場合がある。 Further, when the inference result of the inference result display field 72 is incorrect, the user may know which learning data is affected and the inference result is incorrect. For example, when the test data displayed in the test data display area 71 is an image of "squirrel" but "hamster" is displayed in the inference result display field 72, the image of the display area 85a. May be found to affect the inference results.

そのような場合、ユーザは、表示領域85aの近傍の削除ボタン87をカーソル91で選択すると、表示領域85aに表示されている学習データ自体を、学習用データベース35から削除することができる。図9の場合、表示領域85aに表示されたハムスターの画像の顔部分の画像が大きく影響して、テストデータの推論結果に大きく影響していると考えられるので、ユーザは、表示領域85aに表示された学習データを学習用データベース35から削除する。 In such a case, when the user selects the delete button 87 in the vicinity of the display area 85a with the cursor 91, the learning data itself displayed in the display area 85a can be deleted from the learning database 35. In the case of FIG. 9, since it is considered that the image of the face portion of the hamster image displayed in the display area 85a has a great influence on the inference result of the test data, the user displays it in the display area 85a. The learned data is deleted from the training database 35.

不適切な学習データの削除、学習データのラベルの付け間違いの修正、指定注視領域の設定変更、等のコマンドは、監視装置11からサーバ12へ伝えられ、サーバ12の修正部42は、表示領域85aに表示されている学習データを修正する。その後、ユーザは、再学習ボタン90にカーソル91を移動してクリックすると、再学習を指示するコマンドがサーバ12へ送信される。 Commands such as deletion of inappropriate learning data, correction of incorrect labeling of learning data, change of setting of designated gaze area, etc. are transmitted from the monitoring device 11 to the server 12, and the correction unit 42 of the server 12 displays the display area. Correct the learning data displayed in 85a. After that, when the user moves the cursor 91 to the relearn button 90 and clicks it, a command instructing relearn is transmitted to the server 12.

その結果、サーバ12は、学習プログラムを実行する。学習プログラムは、修正された学習用データベース35を用いて学習を行う。 As a result, the server 12 executes the learning program. The learning program performs learning using the modified learning database 35.

図10は、再学習後のGUI2の表示例を示す図である。学習データの削除により、表示領域85aには、図9において表示領域85bに表示されていた学習データが表示され、表示領域85bには、表示領域85aの次に類似度が高い学習データが表示される。 FIG. 10 is a diagram showing a display example of GUI2 after re-learning. Due to the deletion of the learning data, the learning data displayed in the display area 85b in FIG. 9 is displayed in the display area 85a, and the learning data having the next highest degree of similarity to the display area 85a is displayed in the display area 85b. To.

また、図10では、図9において線93により囲まれた領域を指定注視領域として指定されたため、テストデータ表示領域71において、リスの尻尾の部分PAが表示されなくなっている。さらに、図9では、表示領域84bでは部分PAが識別表示されていたが、図9の選択学習データ表示部88の部分PAは、マスク領域とされたため、学習には利用されないため、図10のテストデータ表示領域71においては、判断根拠としての部分PAとしては、表示されない。 Further, in FIG. 10, since the area surrounded by the line 93 in FIG. 9 is designated as the designated gaze area, the squirrel tail portion PA is not displayed in the test data display area 71. Further, in FIG. 9, the partial PA is identified and displayed in the display area 84b, but the partial PA of the selective learning data display unit 88 in FIG. 9 is used as a mask area and is not used for learning. In the test data display area 71, it is not displayed as a partial PA as a judgment basis.

図11は、テストデータをサーバ12へ供給してから学習データの再学習までの処理の流れを示すフローチャートである。監視システム1が稼働しているとき、監視装置11からの画像データに基づいて、機械学習モデル36を用いて推論が行われ、推論結果が監視装置11へ送信される監視処理が実行されている(ステップ(以下、Sと略す)1)。 FIG. 11 is a flowchart showing a processing flow from supplying the test data to the server 12 to re-learning the learning data. When the monitoring system 1 is operating, inference is performed using the machine learning model 36 based on the image data from the monitoring device 11, and the monitoring process in which the inference result is transmitted to the monitoring device 11 is executed. (Step (hereinafter abbreviated as S) 1).

推論結果に間違いがあった場合等、ユーザが推論結果の評価を行いたいとき、例えば推論結果が間違った画像データをテストデータとして、評価指示コマンドと共にサーバ12へ送信する。 When the user wants to evaluate the inference result, such as when there is an error in the inference result, for example, the image data with the wrong inference result is transmitted to the server 12 together with the evaluation instruction command as test data.

テストデータが送信されなければ(S2:NO)、監視システム1は、監視処理を継続する。テストデータが送信されると(S2:YES)、サーバ12は、上述した学習データの分析処理を実行する(S3)。分析処理は、図5に示した推論/可視化部51の処理である。 If the test data is not transmitted (S2: NO), the monitoring system 1 continues the monitoring process. When the test data is transmitted (S2: YES), the server 12 executes the above-described learning data analysis process (S3). The analysis process is the process of the inference / visualization unit 51 shown in FIG.

ユーザが分析結果を見て、例えば図8あるいは図9のGUIを見て、再学習が必要ないと判断すると(S4:NO)、処理は、S1に戻る。ユーザが分析結果を見て、再学習が必要と判断すると(S4:YES)、上述した学習データの修正などを行い、再学習のコマンドをサーバ12へ送信する。その結果、サーバ12において、修正後の学習データを用いた再学習が実行される。学習時のモデルパラメータの更新は、推論結果が正解のラベル情報と一致するように、推論注視領域が指定注視領域と一致するという条件で、確率的勾配降下法等によってモデルパラメータを最適化することによって行われる。再学習により、機械学習モデル36が修正されるので、推論結果の精度は高まる。 When the user looks at the analysis result, for example, looks at the GUI of FIG. 8 or FIG. 9 and determines that re-learning is not necessary (S4: NO), the process returns to S1. When the user sees the analysis result and determines that re-learning is necessary (S4: YES), the user corrects the above-mentioned learning data and sends a re-learning command to the server 12. As a result, the server 12 executes re-learning using the modified learning data. To update the model parameters during learning, optimize the model parameters by stochastic gradient descent, etc., on the condition that the inference gaze area matches the specified gaze area so that the inference result matches the label information of the correct answer. Is done by. Since the machine learning model 36 is modified by the re-learning, the accuracy of the inference result is improved.

以上のように、上述した実施形態によれば、テストデータについての推論結果に寄与した学習データが抽出され、かつその学習データのどの要素あるいはどの部分が、テストデータの推論結果に影響したかが可視化されるので、ユーザは、そのテストデータの推論結果に影響した、学習データの要素あるいは部分を直観的に理解することができる。例えば、上述した各GUI1,GUI2に示したように、学習データのどの要素あるいはどの部分を学習したことによって、その推論結果が得られたかを、ユーザは、直観的に理解することができる。その結果、再学習を迅速に行うことができる。 As described above, according to the above-described embodiment, the training data that contributed to the inference result of the test data was extracted, and which element or part of the training data affected the inference result of the test data. The visualization allows the user to intuitively understand the elements or parts of the training data that influenced the inference results of the test data. For example, as shown in each GUI1 and GUI2 described above, the user can intuitively understand which element or part of the training data has been learned to obtain the inference result. As a result, re-learning can be performed quickly.

以上のように、上述した実施形態によれば、機械学習モデルにおいて、学習データのどの要素あるいはどの部分が、入力された入力データの推論結果に影響を及ぼしたかを可視化することができる推論結果評価システム、推論結果評価装置及び推論結果評価方法を提供することができる。 As described above, according to the above-described embodiment, inference result evaluation capable of visualizing which element or part of the training data affected the inference result of the input input data in the machine learning model. A system, an inference result evaluation device, and an inference result evaluation method can be provided.

なお、上述した実施形態は、機械学習モデルを用いた推論を行う監視システムに応用した例であるが、監視システム以外の他のシステムにも適用可能である。 Although the above-described embodiment is an example applied to a monitoring system that performs inference using a machine learning model, it can also be applied to other systems other than the monitoring system.

なお、以上説明した動作を実行するプログラムは、コンピュータプログラム製品として、フレキシブルディスク、CD−ROM等の可搬媒体や、ハードディスク等の記憶媒体の非一時的なコンピュータ読み出し可能な媒体に、その全体あるいは一部が記録され、あるいは記憶されている。そのプログラムがコンピュータにより読み取られて、動作の全部あるいは一部が実行される。あるいは、そのプログラムの全体あるいは一部を通信ネットワークを介して流通または提供することができる。利用者は、通信ネットワークを介してそのプログラムをダウンロードしてコンピュータにインストールしたり、あるいは記録媒体からコンピュータにインストールしたりすることで、容易に本実施の形態の推論結果評価システムを実現することができる。 As a computer program product, the program that executes the operations described above may be a portable medium such as a flexible disk or a CD-ROM, or a non-temporary computer-readable medium such as a hard disk, or the entire program. Some are recorded or remembered. The program is read by a computer and all or part of its operation is performed. Alternatively, the program in whole or in part can be distributed or provided via a communication network. The user can easily realize the inference result evaluation system of the present embodiment by downloading the program via the communication network and installing it on the computer, or installing it on the computer from the recording medium. it can.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として例示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although some embodiments of the present invention have been described, these embodiments are exemplary by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.

1 監視システム、11 監視装置、12 サーバ、12a クラウド、13 ネットワーク、14 カメラ、21a マウス、21b キーボード、22 カメラ、22a 検出装置、23 モニタ、23a 画面、31 推論装置、32 通信インターフェース、33 プロセッサ、34 メモリ、34a プログラム領域、35 学習用データベース、36 機械学習モデル、41 学習部、41a データ入力部、41b データ前処理部、41c 推論実行部、41d モデルパラメータ更新部、42 修正部、51 可視化部、52 データ取得部、53 推論部、53a データ前処理部、53b 推論実行部、54 演算部、54a 重要学習データ抽出部、54b 学習データ影響算出部、55 結果出力部、61 特徴量抽出部、62 注視領域抽出部、63 推論処理部、71 テストデータ表示領域、72 推論結果表示フィールド、73 学習データ表示領域、74 表示切替ボタン、74a、74b ボタン、75 スライダ、76 学習データ表示領域、81、82 学習データ表示領域、83 表示数設定フィールド、84a,84b,85a,85b 表示領域、86 推論結果表示フィールド、87 削除ボタン、88 選択学習データ表示部、89 確定ボタン、90 再学習ボタン、91 カーソル、92 仮想ペン、93 線。 1 monitoring system, 11 monitoring device, 12 server, 12a cloud, 13 network, 14 camera, 21a mouse, 21b keyboard, 22 camera, 22a detector, 23 monitor, 23a screen, 31 inference device, 32 communication interface, 33 processor, 34 Memory, 34a Program area, 35 Learning database, 36 Machine learning model, 41 Learning unit, 41a Data input unit, 41b Data preprocessing unit, 41c Inference execution unit, 41d Model parameter update unit, 42 Correction unit, 51 Visualization unit , 52 data acquisition unit, 53 inference unit, 53a data preprocessing unit, 53b inference execution unit, 54 calculation unit, 54a important learning data extraction unit, 54b learning data influence calculation unit, 55 result output unit, 61 feature quantity extraction unit, 62 Gaze area extraction unit, 63 Inference processing unit, 71 Test data display area, 72 Inference result display field, 73 Learning data display area, 74 Display switching button, 74a, 74b button, 75 slider, 76 Learning data display area, 81, 82 Learning data display area, 83 Display number setting field, 84a, 84b, 85a, 85b Display area, 86 Inference result display field, 87 Delete button, 88 Selective learning data display area, 89 Confirm button, 90 Relearn button, 91 Cursor , 92 virtual pen, 93 lines.

Claims (9)

入力データを指定する入力データ指定部と、
前記入力データに基づいて、機械学習モデルを用いた推論を実行する推論部と、
前記入力データについての前記推論部の推論結果に寄与した学習データを、抽出学習データとして、複数の学習データから抽出する学習データ抽出部と、
前記抽出学習データの要素毎または所定の部分毎に、前記推論結果に対する影響度を算出する影響度算出部と、
前記抽出学習データにおける前記要素毎または前記所定の部分毎の前記影響度を可視化する影響度可視化部と、
を有する推論結果評価システム。
Input data specification part that specifies input data and
An inference unit that executes inference using a machine learning model based on the input data,
A learning data extraction unit that extracts learning data that contributes to the inference result of the inference unit for the input data from a plurality of learning data as extraction learning data,
An influence degree calculation unit that calculates the influence degree on the inference result for each element or a predetermined part of the extracted learning data,
An influence degree visualization unit that visualizes the influence degree for each element or each predetermined part in the extracted learning data,
Inference result evaluation system with.
前記影響度算出部は、推定結果に含まれる確率値を前記抽出学習データの各要素又は各部分の値で偏微分して得られた値を、前記各要素又は前記各部分の前記影響度とする、請求項1に記載の推論結果評価システム。 The influence degree calculation unit uses the value obtained by partially differentiating the probability value included in the estimation result with the value of each element or each part of the extracted learning data as the influence degree of each element or each part. The inference result evaluation system according to claim 1. 前記影響度可視化部は、前記影響度が所定の閾値以上の前記各要素又は前記各部分を、他の要素又は他の部分と識別可能に表示する、請求項1に記載の推論結果評価システム。 The inference result evaluation system according to claim 1, wherein the influence degree visualization unit displays each element or each part having an influence degree equal to or higher than a predetermined threshold value so as to be distinguishable from other elements or other parts. 前記所定の閾値は、変更可能である、請求項3に記載の推論結果評価システム。 The inference result evaluation system according to claim 3, wherein the predetermined threshold value can be changed. 前記学習データを修正する修正部を有する、請求項1に記載の推論結果評価システム。 The inference result evaluation system according to claim 1, further comprising a correction unit that corrects the learning data. 前記修正部は、前記学習データのラベル情報の変更、前記学習データの注視領域の設定、及び前記学習データの削除の少なくとも1つを実行可能である、請求項5に記載の推論結果評価システム。 The inference result evaluation system according to claim 5, wherein the correction unit can execute at least one of changing the label information of the learning data, setting the gaze area of the learning data, and deleting the learning data. 前記学習データは、画像データを含み、
前記影響度算出部は、推定結果に含まれる確率値を前記画像データの各画素値で偏微分して得られた値を、前記各画素の前記影響度とする、請求項1から6のいずれか1つに記載の推論結果評価システム。
The training data includes image data and includes image data.
Any of claims 1 to 6, wherein the influence degree calculation unit uses the value obtained by partially differentiating the probability value included in the estimation result with each pixel value of the image data as the influence degree of each pixel. The inference result evaluation system described in one.
入力データに基づいて機械学習モデルを用いた推論の推論結果に寄与した学習データを、抽出学習データとして、複数の学習データから抽出する学習データ抽出部と、
前記抽出学習データの要素毎または所定の部分毎に、前記推論結果に対する影響度を算出する影響度算出部と、
前記抽出学習データにおける前記要素毎または前記所定の部分毎の前記影響度を可視化する影響度可視化部と、
を有する推論結果評価装置。
A learning data extraction unit that extracts learning data that contributes to the inference result of inference using a machine learning model based on input data as extraction learning data from a plurality of learning data.
An influence degree calculation unit that calculates the influence degree on the inference result for each element or a predetermined part of the extracted learning data,
An influence degree visualization unit that visualizes the influence degree for each element or each predetermined part in the extracted learning data,
Inference result evaluation device having.
入力データを指定し、
前記入力データに基づいて、機械学習モデルを用いた推論を実行し、
前記入力データについての前記推論の推論結果に寄与した学習データを、抽出学習データとして、複数の学習データから抽出し、
前記抽出学習データの要素毎または所定の部分毎に、前記推論結果に対する影響度を算出し、
前記抽出学習データにおける前記要素毎または前記所定の部分毎の前記影響度を可視化する、
推論結果評価方法。
Specify the input data
Based on the input data, inference using a machine learning model is executed, and
The learning data that contributed to the inference result of the inference about the input data is extracted from a plurality of learning data as the extraction learning data.
The degree of influence on the inference result is calculated for each element or a predetermined part of the extracted learning data.
Visualize the degree of influence for each element or each predetermined part in the extracted learning data.
Inference result evaluation method.
JP2019183320A 2019-10-03 2019-10-03 Inference result evaluation system, inference result evaluation device and method Active JP7242495B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019183320A JP7242495B2 (en) 2019-10-03 2019-10-03 Inference result evaluation system, inference result evaluation device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019183320A JP7242495B2 (en) 2019-10-03 2019-10-03 Inference result evaluation system, inference result evaluation device and method

Publications (2)

Publication Number Publication Date
JP2021060692A true JP2021060692A (en) 2021-04-15
JP7242495B2 JP7242495B2 (en) 2023-03-20

Family

ID=75380126

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019183320A Active JP7242495B2 (en) 2019-10-03 2019-10-03 Inference result evaluation system, inference result evaluation device and method

Country Status (1)

Country Link
JP (1) JP7242495B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023281904A1 (en) * 2021-07-09 2023-01-12 パナソニックIpマネジメント株式会社 Assessment system, assessment method, generation system, generation method, inference system, inference method, trained model, program, and information processing system
WO2023002648A1 (en) * 2021-07-23 2023-01-26 ソニーグループ株式会社 Information processing method and information processing system
WO2024053370A1 (en) * 2022-09-06 2024-03-14 ソニーグループ株式会社 Information processing device, information processing method, and program
WO2024090054A1 (en) * 2022-10-28 2024-05-02 パナソニックIpマネジメント株式会社 Image processing method, program, and image processing device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150220853A1 (en) * 2012-03-23 2015-08-06 Nuance Communications, Inc. Techniques for evaluation, building and/or retraining of a classification model
JP2018169959A (en) * 2017-03-30 2018-11-01 株式会社Jsol Extraction system, extraction method, and extraction program of high contribution degree item for improving performance of multilayer neural network (deep learning)
JP2019087044A (en) * 2017-11-07 2019-06-06 オムロン株式会社 Inspection device, data generation device, data generation method, and data generation program
WO2019142597A1 (en) * 2018-01-19 2019-07-25 ソニー株式会社 Information processing device, information processing method and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150220853A1 (en) * 2012-03-23 2015-08-06 Nuance Communications, Inc. Techniques for evaluation, building and/or retraining of a classification model
JP2018169959A (en) * 2017-03-30 2018-11-01 株式会社Jsol Extraction system, extraction method, and extraction program of high contribution degree item for improving performance of multilayer neural network (deep learning)
JP2019087044A (en) * 2017-11-07 2019-06-06 オムロン株式会社 Inspection device, data generation device, data generation method, and data generation program
WO2019142597A1 (en) * 2018-01-19 2019-07-25 ソニー株式会社 Information processing device, information processing method and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023281904A1 (en) * 2021-07-09 2023-01-12 パナソニックIpマネジメント株式会社 Assessment system, assessment method, generation system, generation method, inference system, inference method, trained model, program, and information processing system
WO2023002648A1 (en) * 2021-07-23 2023-01-26 ソニーグループ株式会社 Information processing method and information processing system
WO2024053370A1 (en) * 2022-09-06 2024-03-14 ソニーグループ株式会社 Information processing device, information processing method, and program
WO2024090054A1 (en) * 2022-10-28 2024-05-02 パナソニックIpマネジメント株式会社 Image processing method, program, and image processing device

Also Published As

Publication number Publication date
JP7242495B2 (en) 2023-03-20

Similar Documents

Publication Publication Date Title
JP7242495B2 (en) Inference result evaluation system, inference result evaluation device and method
US10909401B2 (en) Attention-based explanations for artificial intelligence behavior
US11423541B2 (en) Assessment of density in mammography
CN111052146B (en) System and method for active learning
US11551134B2 (en) Information processing apparatus, information processing method, and storage medium
JP6895508B2 (en) Medical Video Metadata Predictor and Method
JP7246898B2 (en) Data analysis processing device and data analysis processing program
CN109426834B (en) Information processing apparatus, information processing method, and information processing system
US20150278710A1 (en) Machine learning apparatus, machine learning method, and non-transitory computer-readable recording medium
JP2020008896A (en) Image identification apparatus, image identification method and program
JP2018142097A (en) Information processing device, information processing method, and program
US20190130565A1 (en) Method of processing medical image, and medical image processing apparatus performing the method
KR102140402B1 (en) Apparatus for quality managment of medical image interpretation usnig machine learning, and method thereof
JP5340204B2 (en) Inference apparatus, control method thereof, and program
CN111512322A (en) Using neural networks
JP2007052575A (en) Metadata applying device and metadata applying method
WO2022109096A1 (en) Digital imaging and learning systems and methods for analyzing pixel data of an image of a hair region of a user's head to generate one or more user-specific recommendations
CN114981836A (en) Electronic device and control method of electronic device
JP2019109843A (en) Classification device, classification method, attribute recognition device, and machine learning device
US20210192597A1 (en) System and method for user specific apparel attribute recommendation
US20230100147A1 (en) Diagnosis support system, diagnosis support method, and storage medium
CN113568735B (en) Data processing method and system
JP7308775B2 (en) Machine learning method and information processing device for machine learning
KR102466429B1 (en) Appratus for diagnosing health status of shoes user and method thereof
JP7301653B2 (en) Information processing device, information processing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220325

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230131

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230308

R150 Certificate of patent or registration of utility model

Ref document number: 7242495

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150