JP7085605B2 - Model evaluation system, model evaluation method and model evaluation program - Google Patents

Model evaluation system, model evaluation method and model evaluation program Download PDF

Info

Publication number
JP7085605B2
JP7085605B2 JP2020182500A JP2020182500A JP7085605B2 JP 7085605 B2 JP7085605 B2 JP 7085605B2 JP 2020182500 A JP2020182500 A JP 2020182500A JP 2020182500 A JP2020182500 A JP 2020182500A JP 7085605 B2 JP7085605 B2 JP 7085605B2
Authority
JP
Japan
Prior art keywords
feature
control unit
image
trained model
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020182500A
Other languages
Japanese (ja)
Other versions
JP2022072841A (en
Inventor
裕也 根本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mizuho Research and Technologies Ltd
Original Assignee
Mizuho Research and Technologies Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mizuho Research and Technologies Ltd filed Critical Mizuho Research and Technologies Ltd
Priority to JP2020182500A priority Critical patent/JP7085605B2/en
Publication of JP2022072841A publication Critical patent/JP2022072841A/en
Application granted granted Critical
Publication of JP7085605B2 publication Critical patent/JP7085605B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、機械学習により生成された学習済みモデルの評価を支援するモデル評価システム、モデル評価方法及びモデル評価プログラムに関する。 The present invention relates to a model evaluation system, a model evaluation method, and a model evaluation program that support evaluation of a trained model generated by machine learning.

近年、深層学習を利用して生成した学習済みモデルを用いて、画像等のコンテンツを、コンピュータによって認識する技術が利用されている。しかしながら、学習済みモデルは、ブラックボックスでの判断になるため、コンピュータが、コンテンツをどのように認識するかについて、判断の根拠の説明が難しい。このため、判断根拠が不明な状況での運用は困難な場合もある。 In recent years, a technique of recognizing contents such as images by a computer using a trained model generated by using deep learning has been used. However, since the trained model is a black box judgment, it is difficult to explain the basis of the judgment as to how the computer recognizes the content. For this reason, it may be difficult to operate in situations where the basis for judgment is unknown.

そこで、判断根拠を説明するための技術も検討されている(非特許文献1、2)。非特許文献1に記載された技術では、CNNベースのモデルの大規模なクラスからの決定に対して「視覚的な説明」を作成し、それらをより透明にする。ここでは、任意のターゲットコンセプトの勾配を使用して、最終的な畳み込み層に流し込み、画像内の重要な領域を強調する粗いローカリゼーションマップを生成して、コンセプトを予測する。 Therefore, a technique for explaining the basis of judgment is also being studied (Non-Patent Documents 1 and 2). The technique described in Non-Patent Document 1 creates "visual explanations" for decisions from large classes of CNN-based models and makes them more transparent. Here, the gradient of any target concept is used to inject into the final convolution layer and generate a coarse localization map that highlights important areas in the image to predict the concept.

また、非特許文献2に記載された技術では、予測を中心に解釈可能なモデルを局所的に学習することにより、分類器の予測を解釈可能に説明するLIME(Local Interpretable Model-agnostic Explainations)を用いる。 Further, in the technique described in Non-Patent Document 2, LIME (Local Interpretable Model-agnostic Explainations) is used to explain the prediction of the classifier in an interpretable manner by locally learning a model that can be interpreted centering on the prediction. Use.

コーネル大学、2016年10月7日、Ramprasaath R.他、「Grad-CAM:Visual Explanations from Deep Networks via Gradient-based Localization」、[online]、arxiv.orgサイト、[令和2年9月22日検索]、インターネット<https://arxiv.org/pdf/1610.02391.pdf>Cornell University, October 7, 2016, Ramprasaath R. et al., "Grad-CAM: Visual Explanations from Deep Networks via Gradient-based Localization", [online], arxiv.org site, [September 22, 2nd year of Reiwa] Search], Internet <https://arxiv.org/pdf/1610.02391.pdf> コーネル大学、2016年2月16日、Marco Tulio Ribeiro他、「"Why Should I Trust You":Explaining the Predictions of Any Classifier」、[online]、arxiv.orgサイト、[令和2年9月22日検索]、インターネット<https://arxiv.org/pdf/1602.04938.pdf>Cornell University, February 16, 2016, Marco Tulio Ribeiro et al., "" Why Should I Trust You ": Explaining the Predictions of Any Classifier", [online], arxiv.org site, [Reiwa September 22, 2016 Search], Internet <https://arxiv.org/pdf/1602.04938.pdf>

しかしながら、非特許文献1に記載された技術では、深層学習の内部に手を加えているため、既に学習された学習済みモデルには適用できない。また、非特許文献1、2に記載された技術では、着目している領域しか分からない。また、いずれの技術も、画像を人が用意しているため、恣意性を排除できない。 However, since the technique described in Non-Patent Document 1 modifies the inside of deep learning, it cannot be applied to a trained model that has already been trained. Further, in the techniques described in Non-Patent Documents 1 and 2, only the area of interest can be known. In addition, in any of the techniques, since the image is prepared by a person, arbitrariness cannot be excluded.

上記課題を解決するモデル評価システムは、学習済みモデルを記録する評価対象記憶部と、前記学習済みモデルを用いて認識結果を出力する制御部とを備える。そして、前記制御部が、複数のサンプルコンテンツを生成し、前記各サンプルコンテンツを、前記評価対象記憶部に記録された学習済みモデルに入力して、前記サンプルコンテンツの認識結果の確からしさを取得し、前記確からしさに応じた前記サンプルコンテンツを用いて、前記学習済みモデルにおける特徴コンテンツに関する評価結果を出力する。 The model evaluation system that solves the above problems includes an evaluation target storage unit that records a trained model and a control unit that outputs a recognition result using the trained model. Then, the control unit generates a plurality of sample contents, inputs the sample contents into the trained model recorded in the evaluation target storage unit, and acquires the certainty of the recognition result of the sample contents. , The evaluation result regarding the feature content in the trained model is output by using the sample content according to the certainty.

本発明によれば、機械学習により生成された学習済みモデルを評価することができる。 According to the present invention, a trained model generated by machine learning can be evaluated.

第1実施形態のモデル評価システムの説明図。Explanatory drawing of the model evaluation system of 1st Embodiment. 第1実施形態のハードウェア構成の説明図。Explanatory drawing of the hardware configuration of 1st Embodiment. 第1実施形態の処理手順の説明図。Explanatory drawing of the processing procedure of 1st Embodiment. 第1実施形態の白黒画像の説明図。Explanatory drawing of the black-and-white image of the first embodiment. 第2実施形態の処理手順の説明図。Explanatory drawing of the processing procedure of 2nd Embodiment. 第2実施形態のマスキングの説明図。Explanatory drawing of masking of 2nd Embodiment. 第2実施形態のクラスタリングの説明図。Explanatory drawing of clustering of 2nd Embodiment.

(第1実施形態)
図1~図4に従って、モデル評価システム、モデル評価方法及びモデル評価プログラムの第1実施形態を説明する。本実施形態では、教師情報を用いた機械学習により生成され、所定のコンテンツ(画像)を入力して認識結果(テキスト)を出力する学習済みモデルを評価する。
図1に示すように、本実施形態のモデル評価システムは、ネットワークを介して接続されたユーザ端末10、支援サーバ20を用いる。
(First Embodiment)
The first embodiment of the model evaluation system, the model evaluation method, and the model evaluation program will be described with reference to FIGS. 1 to 4. In this embodiment, a trained model that is generated by machine learning using teacher information, inputs predetermined content (image), and outputs a recognition result (text) is evaluated.
As shown in FIG. 1, the model evaluation system of the present embodiment uses a user terminal 10 and a support server 20 connected via a network.

(ハードウェア構成例)
図2は、ユーザ端末10、支援サーバ20等として機能する情報処理装置H10のハードウェア構成例である。
(Hardware configuration example)
FIG. 2 is a hardware configuration example of the information processing apparatus H10 that functions as a user terminal 10, a support server 20, and the like.

情報処理装置H10は、通信装置H11、入力装置H12、表示装置H13、記憶装置H14、プロセッサH15を有する。なお、このハードウェア構成は一例であり、他のハードウェアを有していてもよい。 The information processing device H10 includes a communication device H11, an input device H12, a display device H13, a storage device H14, and a processor H15. Note that this hardware configuration is an example, and may have other hardware.

通信装置H11は、他の装置との間で通信経路を確立して、データの送受信を実行するインタフェースであり、例えばネットワークインタフェースや無線インタフェース等である。 The communication device H11 is an interface that establishes a communication path with another device and executes data transmission / reception, such as a network interface or a wireless interface.

入力装置H12は、利用者等からの入力を受け付ける装置であり、例えばマウスやキーボード等である。表示装置H13は、各種情報を表示するディスプレイやタッチパネル等である。 The input device H12 is a device that receives input from a user or the like, and is, for example, a mouse, a keyboard, or the like. The display device H13 is a display, a touch panel, or the like that displays various information.

記憶装置H14は、ユーザ端末10、支援サーバ20の各種機能を実行するためのデータや各種プログラムを格納する記憶装置である。記憶装置H14の一例としては、ROM、RAM、ハードディスク等がある。 The storage device H14 is a storage device that stores data and various programs for executing various functions of the user terminal 10 and the support server 20. An example of the storage device H14 is a ROM, a RAM, a hard disk, or the like.

プロセッサH15は、記憶装置H14に記憶されるプログラムやデータを用いて、ユーザ端末10、支援サーバ20における各処理(例えば、後述する制御部21における処理)を制御する。プロセッサH15の一例としては、例えばCPUやMPU等がある。このプロセッサH15は、ROM等に記憶されるプログラムをRAMに展開して、各種処理に対応する各種プロセスを実行する。例えば、プロセッサH15は、ユーザ端末10、支援サーバ20のアプリケーションプログラムが起動された場合、後述する各処理を実行するプロセスを動作させる。 The processor H15 controls each process (for example, a process in the control unit 21 described later) in the user terminal 10 and the support server 20 by using the programs and data stored in the storage device H14. Examples of the processor H15 include a CPU, an MPU, and the like. The processor H15 expands a program stored in a ROM or the like into a RAM and executes various processes corresponding to various processes. For example, when the application program of the user terminal 10 and the support server 20 is started, the processor H15 operates a process for executing each process described later.

プロセッサH15は、自身が実行するすべての処理についてソフトウェア処理を行なうものに限られない。例えば、プロセッサH15は、自身が実行する処理の少なくとも一部についてハードウェア処理を行なう専用のハードウェア回路(例えば、特定用途向け集積回路:ASIC)を備えてもよい。すなわち、プロセッサH15は、(1)コンピュータプログラム(ソフトウェア)に従って動作する1つ以上のプロセッサ、(2)各種処理のうち少なくとも一部の処理を実行する1つ以上の専用のハードウェア回路、或いは(3)それらの組み合わせ、を含む回路(circuitry)として構成し得る。プロセッサは、CPU並びに、RAM及びROM等のメモリを含み、メモリは、処理をCPUに実行させるように構成されたプログラムコード又は指令を格納している。メモリすなわちコンピュータ可読媒体は、汎用又は専用のコンピュータでアクセスできるあらゆる利用可能な媒体を含む。 The processor H15 is not limited to the one that performs software processing for all the processing executed by itself. For example, the processor H15 may include a dedicated hardware circuit (for example, an integrated circuit for a specific application: ASIC) that performs hardware processing for at least a part of the processing executed by the processor H15. That is, the processor H15 is (1) one or more processors that operate according to a computer program (software), (2) one or more dedicated hardware circuits that execute at least a part of various processes, or ( 3) It can be configured as a circuitry including a combination thereof. The processor includes a CPU and a memory such as a RAM and a ROM, and the memory stores a program code or a command configured to cause the CPU to execute a process. Memory or computer readable media includes any available medium accessible by a general purpose or dedicated computer.

(各情報処理装置の機能)
図1のユーザ端末10は、学習済みモデルを評価する担当者が利用するコンピュータ端末である。
(Functions of each information processing device)
The user terminal 10 of FIG. 1 is a computer terminal used by a person in charge of evaluating a trained model.

支援サーバ20は、学習済みモデルの評価を支援するためのコンピュータシステムである。この支援サーバ20は、制御部21、評価対象記憶部22、特徴情報記憶部23を備えている。 The support server 20 is a computer system for supporting the evaluation of the trained model. The support server 20 includes a control unit 21, an evaluation target storage unit 22, and a feature information storage unit 23.

この制御部21は、後述する処理(画像加工段階、予測段階、評価段階、クラスタ分析段階等を含む処理)を行なう。このためのモデル評価プログラムを実行することにより、制御部21は、画像加工部211、予測部212、評価部213、クラスタ分析部214等として機能する。 The control unit 21 performs a process described later (a process including an image processing step, a prediction step, an evaluation step, a cluster analysis step, and the like). By executing the model evaluation program for this purpose, the control unit 21 functions as an image processing unit 211, a prediction unit 212, an evaluation unit 213, a cluster analysis unit 214, and the like.

画像加工部211は、評価に用いる画像を調整する処理を実行する。画像加工部211は、特徴コンテンツ生成処理を終了する終了条件に関するデータを保持している。終了条件としては、例えば、特徴情報記憶部23に記録された特徴画像の数が所定数になった場合を用いることができる。 The image processing unit 211 executes a process of adjusting an image used for evaluation. The image processing unit 211 holds data regarding an end condition for terminating the feature content generation process. As the end condition, for example, a case where the number of feature images recorded in the feature information storage unit 23 reaches a predetermined number can be used.

予測部212は、学習済みモデルを用いて、予測結果を出力する処理を実行する。
評価部213は、学習済みモデルを評価する処理を実行する。評価部213は、学習済みモデルにより出力された確からしさと比較するための基準値に関するデータを保持している。
The prediction unit 212 executes a process of outputting a prediction result using the trained model.
The evaluation unit 213 executes a process of evaluating the trained model. The evaluation unit 213 holds data on the reference value for comparison with the certainty output by the trained model.

クラスタ分析部214は、クラスタリング処理より、特徴画像のグループ分けを行なう処理を実行する。このクラスタリング処理には、例えば、認識結果と特徴画像とを用いたk平均法を用いることができるが、k平均法に限定されるものではない。 The cluster analysis unit 214 executes a process of grouping feature images rather than a clustering process. For this clustering process, for example, a k-means method using a recognition result and a feature image can be used, but the clustering process is not limited to the k-means method.

評価対象記憶部22には、評価対象の学習済みモデルが記録される。この学習済みモデルは、ユーザ端末10から、評価対象の学習済みモデルを取得した場合に記録される。本実施形態では、評価対象の学習済みモデルとして、深層学習によって生成された予測モデル(ネットワーク)であって、画像に含まれるテキストを認識する文字認識モデルを用いる。ここで、画像に含まれるテキストとしては、例えば、数字「5」を用いることができる。 The trained model to be evaluated is recorded in the evaluation target storage unit 22. This trained model is recorded when the trained model to be evaluated is acquired from the user terminal 10. In the present embodiment, as the trained model to be evaluated, a character recognition model that recognizes the text included in the image, which is a prediction model (network) generated by deep learning, is used. Here, as the text included in the image, for example, the number "5" can be used.

特徴情報記憶部23には、特徴画像管理レコードが記録される。この特徴画像管理レコードは、特徴コンテンツ生成処理を実行した場合に記録される。特徴画像管理レコードには、特徴画像及び認識結果に関するデータが記録される。 A feature image management record is recorded in the feature information storage unit 23. This feature image management record is recorded when the feature content generation process is executed. Data related to the feature image and the recognition result are recorded in the feature image management record.

特徴画像データ領域には、認識文字の確からしさが基準値以上となった特徴画像(特徴コンテンツ)に関するデータが記録される。
認識結果データ領域には、特徴画像を、基準値以上の確からしさで認識した文字に関するデータが記録される。例えば、画像において基準値以上の確からしさで「5」を認識した場合、認識結果として数字「5」が記録される。
In the feature image data area, data related to the feature image (feature content) in which the certainty of the recognition character is equal to or higher than the reference value is recorded.
In the recognition result data area, data related to characters in which the feature image is recognized with a certainty higher than the reference value is recorded. For example, when "5" is recognized in the image with a certainty of the reference value or more, the number "5" is recorded as the recognition result.

次に、上記のように構成されたシステムにおいて、学習済みモデルを評価する処理手順を説明する。
(特徴コンテンツ生成処理)
まず、図3を用いて、特徴コンテンツ生成処理を説明する。
Next, a processing procedure for evaluating the trained model in the system configured as described above will be described.
(Feature content generation processing)
First, the feature content generation process will be described with reference to FIG.

ここでは、支援サーバ20の制御部21は、白黒画像の生成処理を実行する(ステップS101)。具体的には、制御部21の画像加工部211は、ユーザ端末10から、学習済みモデルを取得し、評価対象記憶部22に記録する。そして、画像加工部211は、任意の白黒画像(サンプルコンテンツ)を生成する。例えば、所定のサイズのビットマップにおいて、ランダムに白ピクセル及び黒ピクセルを配置した白黒画像を生成する。
例えば、図4に示すように、白黒画像500を生成する場合を想定する。
Here, the control unit 21 of the support server 20 executes a black-and-white image generation process (step S101). Specifically, the image processing unit 211 of the control unit 21 acquires the trained model from the user terminal 10 and records it in the evaluation target storage unit 22. Then, the image processing unit 211 generates an arbitrary black-and-white image (sample content). For example, in a bitmap of a predetermined size, a black-and-white image in which white pixels and black pixels are randomly arranged is generated.
For example, as shown in FIG. 4, it is assumed that a black-and-white image 500 is generated.

次に、支援サーバ20の制御部21は、ランダムにピクセル選定処理を実行する(ステップS102)。具体的には、制御部21の画像加工部211は、生成した白黒画像において、ランダムにピクセルを選択する。本実施形態では、ステップS101において生成した白黒画像のビットマップにおいて、1つのピクセルを選択する。
例えば、図4において、白黒画像500のピクセル501を選定する。
Next, the control unit 21 of the support server 20 randomly executes the pixel selection process (step S102). Specifically, the image processing unit 211 of the control unit 21 randomly selects pixels in the generated black-and-white image. In this embodiment, one pixel is selected in the bitmap of the black-and-white image generated in step S101.
For example, in FIG. 4, the pixel 501 of the black-and-white image 500 is selected.

次に、支援サーバ20の制御部21は、ピクセル反転処理を実行する(ステップS103)。具体的には、制御部21の画像加工部211は、選択したピクセルの白黒を反転させる。これにより、選択したピクセルが白ピクセルの場合には黒ピクセルに反転させ、黒ピクセルの場合には白ピクセルに反転させた白黒画像(サンプルコンテンツ)が生成される。
ここでは、図4において、黒のピクセル501を白に白黒反転することにより、白黒画像510が生成される。
Next, the control unit 21 of the support server 20 executes the pixel inversion process (step S103). Specifically, the image processing unit 211 of the control unit 21 inverts the black and white of the selected pixel. As a result, if the selected pixel is a white pixel, it is inverted to a black pixel, and if it is a black pixel, a black-and-white image (sample content) inverted to a white pixel is generated.
Here, in FIG. 4, a black-and-white image 510 is generated by black-and-white inversion of black pixels 501 to white.

次に、支援サーバ20の制御部21は、予測処理を実行する(ステップS104)。具体的には、制御部21の予測部212は、生成した白黒画像510を、評価対象記憶部22の学習済みモデルに入力する。そして、予測部212は、学習済みモデルによって出力された認識結果と確からしさを取得する。 Next, the control unit 21 of the support server 20 executes the prediction process (step S104). Specifically, the prediction unit 212 of the control unit 21 inputs the generated black-and-white image 510 into the trained model of the evaluation target storage unit 22. Then, the prediction unit 212 acquires the recognition result and the certainty output by the trained model.

次に、支援サーバ20の制御部21は、確からしさが基準値以上かどうかについての判定処理を実行する(ステップS105)。具体的には、制御部21の予測部212は、学習済みモデルにより出力された確からしさと基準値とを比較する。 Next, the control unit 21 of the support server 20 executes a determination process as to whether or not the certainty is equal to or higher than the reference value (step S105). Specifically, the prediction unit 212 of the control unit 21 compares the certainty output by the trained model with the reference value.

確からしさが基準値以上と判定した場合(ステップS105において「YES」の場合)、支援サーバ20の制御部21は、特徴画像の登録処理を実行する(ステップS106)。具体的には、制御部21の画像加工部211は、学習済みモデルに入力した白黒画像を特徴画像として、認識結果と関連付けた特徴画像管理レコードを生成し、特徴情報記憶部23に記録する。 When it is determined that the certainty is equal to or higher than the reference value (when "YES" in step S105), the control unit 21 of the support server 20 executes the feature image registration process (step S106). Specifically, the image processing unit 211 of the control unit 21 generates a feature image management record associated with the recognition result using the black-and-white image input to the trained model as the feature image, and records it in the feature information storage unit 23.

一方、確からしさが基準値未満と判定した場合(ステップS105において「NO」の場合)、支援サーバ20の制御部21は、特徴画像の登録処理(ステップS106)をスキップする。 On the other hand, when it is determined that the certainty is less than the reference value (when "NO" in step S105), the control unit 21 of the support server 20 skips the feature image registration process (step S106).

次に、支援サーバ20の制御部21は、終了かどうかについての判定処理を実行する(ステップS107)。具体的には、制御部21の画像加工部211は、同じ認識結果の特徴画像管理レコードのレコード数をカウントする。そして、レコード数が終了条件を満足している場合には、終了と判定する。 Next, the control unit 21 of the support server 20 executes a determination process as to whether or not it is terminated (step S107). Specifically, the image processing unit 211 of the control unit 21 counts the number of records of the feature image management record of the same recognition result. Then, when the number of records satisfies the end condition, it is determined to end.

レコード数が終了条件を満足しておらず、終了でないと判定した場合(ステップS107において「NO」の場合)、支援サーバ20の制御部21は、ランダムにピクセル選定処理(ステップS102)以降の処理を繰り返す。
例えば、図4に示すように、白黒画像510において、ピクセル502を選定し、白黒反転することにより、白黒画像520が生成される。
When it is determined that the number of records does not satisfy the end condition and it is not the end (when "NO" in step S107), the control unit 21 of the support server 20 randomly selects pixels (step S102) and thereafter. repeat.
For example, as shown in FIG. 4, in the black-and-white image 510, the black-and-white image 520 is generated by selecting the pixel 502 and inverting the black-and-white image.

一方、終了と判定した場合(ステップS107において「YES」の場合)、支援サーバ20の制御部21は、特徴画像の取得処理を実行する(ステップS108)。具体的には、制御部21のクラスタ分析部214は、特徴情報記憶部23から、すべての特徴画像管理レコードを抽出し、特徴画像管理レコードに記録された特徴画像を取得する。 On the other hand, when it is determined that the end is completed (when "YES" in step S107), the control unit 21 of the support server 20 executes the feature image acquisition process (step S108). Specifically, the cluster analysis unit 214 of the control unit 21 extracts all the feature image management records from the feature information storage unit 23, and acquires the feature images recorded in the feature image management records.

次に、支援サーバ20の制御部21は、特徴画像のクラスタリング処理を実行する(ステップS109)。具体的には、制御部21のクラスタ分析部214は、特徴画像をクラスタリング処理により、グループ分けを行なう。 Next, the control unit 21 of the support server 20 executes a clustering process of the feature image (step S109). Specifically, the cluster analysis unit 214 of the control unit 21 groups the feature images by clustering processing.

次に、支援サーバ20の制御部21は、クラスタリング結果の出力処理を実行する(ステップS110)。具体的には、制御部21の評価部213は、クラスタリングにより生成した各グループの特徴画像を、ユーザ端末10に出力する。 Next, the control unit 21 of the support server 20 executes the output processing of the clustering result (step S110). Specifically, the evaluation unit 213 of the control unit 21 outputs the feature image of each group generated by clustering to the user terminal 10.

本実施形態によれば、以下のような効果を得ることができる。
(1-1)本実施形態においては、支援サーバ20の制御部21は、ランダムにピクセル選定処理(ステップS102)、ピクセル反転処理(ステップS103)、予測処理(ステップS104)を実行する。これにより、画像を部分的に変化させながら、確からしさを算出して、学習済みモデルを評価することができる。
According to this embodiment, the following effects can be obtained.
(1-1) In the present embodiment, the control unit 21 of the support server 20 randomly executes a pixel selection process (step S102), a pixel inversion process (step S103), and a prediction process (step S104). This makes it possible to evaluate the trained model by calculating the certainty while partially changing the image.

(1-2)本実施形態においては、支援サーバ20の制御部21は、確からしさが基準値以上かどうかについての判定処理を実行する(ステップS105)。そして、確からしさが基準値以上と判定した場合(ステップS105において「YES」の場合)、支援サーバ20の制御部21は、特徴画像の登録処理を実行する(ステップS106)。これにより、確からしさに応じて、認識結果を出力する特徴的な画像を探すことができる。 (1-2) In the present embodiment, the control unit 21 of the support server 20 executes a determination process as to whether or not the certainty is equal to or higher than the reference value (step S105). Then, when it is determined that the certainty is equal to or higher than the reference value (when "YES" in step S105), the control unit 21 of the support server 20 executes the feature image registration process (step S106). This makes it possible to search for a characteristic image that outputs the recognition result according to the certainty.

(1-3)本実施形態においては、支援サーバ20の制御部21は、特徴画像のクラスタリング処理を実行する(ステップS109)。これにより、認識結果に対して、複数の特徴画像を取得した場合にも、クラスタリングによってグループ毎にまとめた特徴を出力することができる。 (1-3) In the present embodiment, the control unit 21 of the support server 20 executes a clustering process of the feature image (step S109). As a result, even when a plurality of feature images are acquired for the recognition result, the features grouped by clustering can be output.

(第2実施形態)
次に、モデル評価システム、モデル評価方法及びモデル評価プログラムの第2実施形態を説明する。第1実施形態では、特徴情報記憶部23に記録された特徴画像についてクラスタリングを行なう。第2実施形態では、特徴画像において特徴的な領域(特徴領域)を特定してクラスタリングを行なうように変更した特徴領域評価処理を実行する。なお、上記第1実施形態と同様の部分については、同一の符号を付し、その詳細な説明を省略する。
(Second Embodiment)
Next, a second embodiment of the model evaluation system, the model evaluation method, and the model evaluation program will be described. In the first embodiment, clustering is performed on the feature images recorded in the feature information storage unit 23. In the second embodiment, the feature area evaluation process is executed in which the feature area (feature area) is specified in the feature image and changed so as to perform clustering. The same parts as those in the first embodiment are designated by the same reference numerals, and detailed description thereof will be omitted.

この場合、制御部21の画像加工部211は、特徴画像の一部のマスキングを行なう処理を実行する。そして、画像加工部211は、マスキング処理の要否を判定するための要否判定条件に関するデータを保持している。要否判定条件として、例えば、各特徴画像の類似性を評価した分散値を用いることができる。この場合、分散値が要否基準値内の場合には、マスク処理は不要と判定する。 In this case, the image processing unit 211 of the control unit 21 executes a process of masking a part of the feature image. Then, the image processing unit 211 holds data regarding the necessity determination condition for determining the necessity of the masking process. As the necessity determination condition, for example, a dispersion value that evaluates the similarity of each feature image can be used. In this case, if the variance value is within the necessity reference value, it is determined that the mask processing is unnecessary.

更に、特徴情報記憶部23には、特徴領域管理レコードを記録する。特徴領域管理レコードは、特徴領域評価処理を実行した場合に記録される。特徴領域管理レコードには、特徴領域画像及び認識結果に関するデータが記録される。 Further, the feature area management record is recorded in the feature information storage unit 23. The feature area management record is recorded when the feature area evaluation process is executed. Data related to the feature area image and the recognition result are recorded in the feature area management record.

特徴領域画像データ領域には、特徴画像の中で認識結果に影響を与える領域の画像に関するデータが記録される。
認識結果データ領域には、特徴領域により認識されるテキスト(ここでは数字)に関するデータが記録される。
In the feature area image data area, data related to an image in a region of the feature image that affects the recognition result is recorded.
In the recognition result data area, data related to the text (here, numbers) recognized by the feature area is recorded.

(特徴領域評価処理)
次に、図5を用いて、特徴領域評価処理を説明する。
まず、支援サーバ20の制御部21は、特徴画像の取得処理を実行する(ステップS201)。具体的には、制御部21の画像加工部211は、特徴情報記憶部23から、すべての特徴画像管理レコードを抽出し、特徴画像管理レコードに記録された特徴画像を取得する。
(Characteristic area evaluation processing)
Next, the feature region evaluation process will be described with reference to FIG.
First, the control unit 21 of the support server 20 executes a feature image acquisition process (step S201). Specifically, the image processing unit 211 of the control unit 21 extracts all the feature image management records from the feature information storage unit 23, and acquires the feature images recorded in the feature image management records.

次に、支援サーバ20の制御部21は、マスキング処理が必要かどうかについての判定処理を実行する(ステップS202)。具体的には、制御部21の画像加工部211は、特徴コンテンツ生成処理におけるクラスタリング結果を取得する。そして、画像加工部211は、各特徴画像の特徴量を比較し、類似性の分散値を算出する。そして、画像加工部211は、分散値と要否基準値とを比較する。 Next, the control unit 21 of the support server 20 executes a determination process as to whether or not the masking process is necessary (step S202). Specifically, the image processing unit 211 of the control unit 21 acquires the clustering result in the feature content generation processing. Then, the image processing unit 211 compares the feature amounts of the feature images and calculates the variance value of the similarity. Then, the image processing unit 211 compares the dispersion value with the necessity reference value.

分散値が要否基準値を超えており、マスキングが必要と判定した場合(ステップS202)、支援サーバ20の制御部21は、特徴画像毎に、以下の処理を繰り返す。 When the dispersion value exceeds the necessity reference value and it is determined that masking is necessary (step S202), the control unit 21 of the support server 20 repeats the following processing for each feature image.

ここでは、まず、支援サーバ20の制御部21は、部分マスキング処理を実行する(ステップS203)。具体的には、制御部21の画像加工部211は、特徴画像のビットマップ全体の1/4のサイズの黒マスクを用いて、特徴画像をマスキングしたマスク画像(マスクコンテンツ)を生成する。例えば、特徴画像の左上に黒マスクを配置したマスク画像を生成する。
図6に示すように、特徴画像600に対して、黒マスクM1を配置したマスク画像610を生成する。
Here, first, the control unit 21 of the support server 20 executes the partial masking process (step S203). Specifically, the image processing unit 211 of the control unit 21 generates a mask image (mask content) that masks the feature image by using a black mask having a size of 1/4 of the entire bitmap of the feature image. For example, a mask image in which a black mask is placed at the upper left of the feature image is generated.
As shown in FIG. 6, a mask image 610 in which the black mask M1 is arranged is generated for the feature image 600.

次に、支援サーバ20の制御部21は、確からしさの算出処理を実行する(ステップS204)。具体的には、制御部21の予測部212は、マスク画像を、評価対象記憶部22に記録された学習済みモデルに入力する。この場合、予測部212は、マスク画像について、認識結果及び確からしさを出力する。 Next, the control unit 21 of the support server 20 executes the calculation process of the certainty (step S204). Specifically, the prediction unit 212 of the control unit 21 inputs the mask image to the trained model recorded in the evaluation target storage unit 22. In this case, the prediction unit 212 outputs the recognition result and the certainty of the mask image.

次に、支援サーバ20の制御部21は、確からしさの低下の仮記憶処理を実行する(ステップS205)。具体的には、制御部21の評価部213は、特徴画像の認識結果について、予測部212が出力したマスク画像の確からしさを取得する。次に、評価部213は、特徴画像の確からしさとマスク画像の確からしさとの差分値を算出する。そして、評価部213は、特徴画像において黒マスクでマスキングされた領域(マスク領域)の画像に関連付けて、確からしさの差分値をメモリに仮記憶する。 Next, the control unit 21 of the support server 20 executes a temporary storage process for reducing the certainty (step S205). Specifically, the evaluation unit 213 of the control unit 21 acquires the certainty of the mask image output by the prediction unit 212 with respect to the recognition result of the feature image. Next, the evaluation unit 213 calculates the difference value between the certainty of the feature image and the certainty of the mask image. Then, the evaluation unit 213 temporarily stores the difference value of the certainty in the memory in association with the image of the area (mask area) masked by the black mask in the feature image.

次に、支援サーバ20の制御部21は、マスキングを終了したかどうかについての判定処理を実行する(ステップS206)。具体的には、制御部21の画像加工部211は、特徴画像におけるすべての配置についてマスキングを行なった場合には、マスキングの終了と判定する。例えば、特徴画像の左上からマスキングを開始した場合には、特徴画像の右下に黒マスクが到達したことにより、マスキングの終了と判定する。 Next, the control unit 21 of the support server 20 executes a determination process as to whether or not masking has been completed (step S206). Specifically, the image processing unit 211 of the control unit 21 determines that the masking is completed when masking is performed for all the arrangements in the feature image. For example, when masking is started from the upper left of the feature image, it is determined that the masking is completed when the black mask reaches the lower right of the feature image.

ここで、マスキングを終了していないと判定した場合(ステップS206において「NO」の場合)、支援サーバ20の制御部21は、部分マスキング処理(ステップS203)以降の処理を実行する。この場合には、黒マスクを1ピクセル(1行又は1列)分、移動させることにより、マスク画像を生成する。 Here, if it is determined that masking has not been completed (in the case of "NO" in step S206), the control unit 21 of the support server 20 executes the partial masking process (step S203) and subsequent processes. In this case, a mask image is generated by moving the black mask by one pixel (one row or one column).

図6に示すように、マスク画像610に対して、黒マスクM1を移動させたマスク画像620を生成する。支援サーバ20の制御部21は、マスク画像620について、ステップS203~206の処理を終了後、更に、順次、マスク画像630の生成を繰り返す。そして、特徴画像600の右下に黒マスクが到達したマスク画像640において、マスキングの終了と判定する。 As shown in FIG. 6, a mask image 620 is generated by moving the black mask M1 with respect to the mask image 610. The control unit 21 of the support server 20 repeats the generation of the mask image 630 sequentially after the processing of steps S203 to 206 is completed for the mask image 620. Then, in the mask image 640 where the black mask reaches the lower right of the feature image 600, it is determined that the masking is completed.

マスキングを終了と判定した場合(ステップS206において「YES」の場合)、支援サーバ20の制御部21は、確からしさの低下が最大の特徴領域の特定処理を実行する(ステップS207)。具体的には、制御部21の評価部213は、メモリに仮記憶された差分値の中で、最大値のマスク領域を特徴領域として特定する。そして、評価部213は、特徴領域の画像を認識結果に関連付けて記録した特徴領域管理レコードを生成し、特徴情報記憶部23に記録する。
そして、支援サーバ20の制御部21は、すべての特徴画像について終了するまで、上記処理を繰り返す。
When it is determined that the masking is finished (when "YES" in step S206), the control unit 21 of the support server 20 executes the specification process of the feature area where the decrease in certainty is the largest (step S207). Specifically, the evaluation unit 213 of the control unit 21 specifies the mask area of the maximum value as the feature area among the difference values temporarily stored in the memory. Then, the evaluation unit 213 generates a feature area management record in which the image of the feature area is associated with the recognition result and is recorded, and records the image in the feature information storage unit 23.
Then, the control unit 21 of the support server 20 repeats the above process until all the feature images are completed.

すべての特徴画像についての繰り返し処理を終了した場合、支援サーバ20の制御部21は、特徴領域の取得処理を実行する(ステップS208)。具体的には、制御部21のクラスタ分析部214は、特徴情報記憶部23から、すべての特徴領域管理レコードを抽出し、特徴領域管理レコードに記録された特徴領域の画像を取得する。 When the iterative processing for all the feature images is completed, the control unit 21 of the support server 20 executes the acquisition process of the feature area (step S208). Specifically, the cluster analysis unit 214 of the control unit 21 extracts all the feature area management records from the feature information storage unit 23, and acquires an image of the feature area recorded in the feature area management record.

次に、支援サーバ20の制御部21は、特徴領域のクラスタリング処理を実行する(ステップS209)。具体的には、制御部21のクラスタ分析部214は、特徴領域画像をクラスタリング処理により、グループ分けを行なう。これにより、共通した認識結果において、類似した特徴領域画像を特定することができる。
ここでは、図7に示すように、特徴領域のクラスタリング処理により、グループG1~G3が生成される。
Next, the control unit 21 of the support server 20 executes a clustering process of the feature area (step S209). Specifically, the cluster analysis unit 214 of the control unit 21 groups the feature area images by clustering processing. This makes it possible to identify similar feature region images in a common recognition result.
Here, as shown in FIG. 7, the groups G1 to G3 are generated by the clustering process of the feature region.

次に、支援サーバ20の制御部21は、クラスタリング結果の出力処理を実行する(ステップS211)。具体的には、制御部21のクラスタ分析部214は、クラスタリングにより生成したグループ毎に特徴領域画像の平均画像を生成する。そして、クラスタ分析部214は、認識結果に関連付けた平均画像を、ユーザ端末10に出力する。 Next, the control unit 21 of the support server 20 executes the output processing of the clustering result (step S211). Specifically, the cluster analysis unit 214 of the control unit 21 generates an average image of the feature region image for each group generated by clustering. Then, the cluster analysis unit 214 outputs the average image associated with the recognition result to the user terminal 10.

ここでは、図7に示すように、各グループG1~G3に属する特徴領域画像の平均画像701~703を生成して、ユーザ端末10に出力する。
一方、マスキング処理は不要と判定した場合(ステップS202において「NO」の場合)、支援サーバ20の制御部21は、ステップS109と同様に、特徴情報記憶部23に記録された特徴画像を用いて、特徴画像のクラスタリング処理を実行する(ステップS210)。
Here, as shown in FIG. 7, average images 701 to 703 of the feature region images belonging to each group G1 to G3 are generated and output to the user terminal 10.
On the other hand, when it is determined that the masking process is unnecessary (when "NO" in step S202), the control unit 21 of the support server 20 uses the feature image recorded in the feature information storage unit 23 as in step S109. , The clustering process of the feature image is executed (step S210).

本実施形態によれば、上記(1-1)~(1-3)の効果に加えて、以下のような効果を、更に得ることができる。
(2-1)本実施形態においては、支援サーバ20の制御部21は、マスキング処理が必要かどうかについての判定処理を実行する(ステップS202)。これにより、特徴画像の生成状況により、特徴領域評価処理の実行の必要性を判定することができる。
According to the present embodiment, in addition to the above-mentioned effects (1-1) to (1-3), the following effects can be further obtained.
(2-1) In the present embodiment, the control unit 21 of the support server 20 executes a determination process as to whether or not the masking process is necessary (step S202). Thereby, it is possible to determine the necessity of executing the feature area evaluation process based on the generation status of the feature image.

(2-2)本実施形態においては、支援サーバ20の制御部21は、部分マスキング処理(ステップS203)、確からしさの算出処理(ステップS204)、確からしさの低下の仮記憶処理(ステップS205)を実行する。これにより、特徴画像の中でも、過去領域の認識結果に与える影響を評価することができる。 (2-2) In the present embodiment, the control unit 21 of the support server 20 has a partial masking process (step S203), a certainty calculation process (step S204), and a temporary storage process for reducing the certainty (step S205). To execute. This makes it possible to evaluate the influence on the recognition result of the past region even in the feature image.

(2-3)本実施形態においては、支援サーバ20の制御部21は、確からしさの低下が最大の特徴領域の特定処理を実行する(ステップS207)。これにより、特徴画像において、学習済みモデルの出力に最も影響を与える領域を特定することができる。 (2-3) In the present embodiment, the control unit 21 of the support server 20 executes the process of specifying the characteristic region having the greatest decrease in certainty (step S207). This makes it possible to identify the region of the feature image that most affects the output of the trained model.

(2-4)本実施形態においては、支援サーバ20の制御部21は、特徴領域のクラスタリング処理を実行する(ステップS209)。これにより、認識結果に対して、複数の特徴領域画像を取得した場合にも、クラスタリングによるグループ毎にまとめた特徴を出力することができる。 (2-4) In the present embodiment, the control unit 21 of the support server 20 executes the clustering process of the feature area (step S209). As a result, even when a plurality of feature area images are acquired for the recognition result, the features grouped by clustering can be output.

本実施形態は、以下のように変更して実施することができる。本実施形態及び以下の変更例は、技術的に矛盾しない範囲で互いに組み合わせて実施することができる。
・上記第1実施形態では、コンテンツとして画像に含まれる文字を認識する学習済みモデルの評価を行なう。本発明の適用対象は、画像認識に限定されるものではない。例えば、音信号をテキストに変換する音声認識や、文章に基づいて、感情を認識する学習済みモデルに適用してもよい。
This embodiment can be modified and implemented as follows. The present embodiment and the following modified examples can be implemented in combination with each other within a technically consistent range.
-In the first embodiment, the trained model that recognizes the characters included in the image as the content is evaluated. The object of application of the present invention is not limited to image recognition. For example, it may be applied to speech recognition that converts a sound signal into text, or a trained model that recognizes emotions based on sentences.

・上記第1実施形態では、支援サーバ20の制御部21は、白黒画像の生成処理を実行する(ステップS101)。最初の画像は白黒画像に限定されるものではない。例えば、全面が白または黒の画像を用いてもよい。また、認識結果の確からしさが高い画像を最初の画像として用いてもよい。 -In the first embodiment, the control unit 21 of the support server 20 executes a black-and-white image generation process (step S101). The first image is not limited to black and white images. For example, an image whose entire surface is white or black may be used. Further, an image with high certainty of the recognition result may be used as the first image.

・上記第1実施形態では、支援サーバ20の制御部21は、ランダムにピクセル選定処理を実行する(ステップS102)。サンプルコンテンツを網羅的に変更できれば、ピクセルの選択はランダムに限定されるものではない。また、選択するピクセルは、1つに限らず、同時期に複数のピクセルを選択してもよい。 -In the first embodiment, the control unit 21 of the support server 20 randomly executes the pixel selection process (step S102). Pixel selection is not limited to random if the sample content can be changed exhaustively. Further, the pixel to be selected is not limited to one, and a plurality of pixels may be selected at the same time.

・上記第1実施形態では、支援サーバ20の制御部21は、ピクセル反転処理を実行する(ステップS103)。網羅的に変化を加えることができれば、ピクセル反転に限定されるものではない。カラー画像を用いて、画像認識を行なう学習済みモデルの場合には、支援サーバ20の制御部21は、例えば、各ピクセルのRGB値を、順次、変更する。 -In the first embodiment, the control unit 21 of the support server 20 executes the pixel inversion process (step S103). If changes can be made comprehensively, it is not limited to pixel inversion. In the case of a trained model that performs image recognition using a color image, the control unit 21 of the support server 20 sequentially changes, for example, the RGB value of each pixel.

また、音声信号をテキストに変換する学習済みモデルの場合には、支援サーバ20の制御部21は、例えば、音声信号を周波数変換し、各周波数の係数をランダムに変更する。
また、文章から何らかの認識結果を取得する自然言語処理を行なう学習済みモデルの場合には、例えば、文章に含まれる単語を変更する。この場合には、複数のサンプルコンテンツを生成するために、単語を記録した辞書記憶部から、文章に含まれる単語を置き換えるために他の単語を取得する。
Further, in the case of a trained model that converts an audio signal into text, the control unit 21 of the support server 20 converts the audio signal into a frequency and randomly changes the coefficient of each frequency, for example.
Further, in the case of a trained model that performs natural language processing to acquire some recognition result from a sentence, for example, the word included in the sentence is changed. In this case, in order to generate a plurality of sample contents, another word is acquired from the dictionary storage unit in which the word is recorded in order to replace the word contained in the sentence.

・上記第1実施形態では、支援サーバ20の制御部21は、終了かどうかについての判定処理を実行する(ステップS107)。ここでは、レコード数が終了条件を満足している場合に、終了と判定する。終了条件は、これに限定されるものではない。例えば、支援サーバ20の制御部21が、白黒画像の生成処理(ステップS101)を繰り返し、この繰り返し回数を終了条件として用いてもよい。この場合には、支援サーバ20の制御部21が、先行して生成したサンプルコンテンツの確からしさと、後続のサンプルコンテンツの確からしさとを比較して、確からしさが低下した場合に、先行のサンプルコンテンツを特徴画像と判定する。そして、再度、白黒画像の生成処理(ステップS101)からの処理を繰り返し、この繰り返し回数が所定回数に到達した場合に、終了と判定する。 -In the first embodiment, the control unit 21 of the support server 20 executes a determination process as to whether or not it is terminated (step S107). Here, when the number of records satisfies the end condition, it is determined to end. The termination condition is not limited to this. For example, the control unit 21 of the support server 20 may repeat the black-and-white image generation process (step S101) and use the number of repetitions as the end condition. In this case, the control unit 21 of the support server 20 compares the certainty of the sample content generated in advance with the certainty of the subsequent sample content, and when the certainty is lowered, the preceding sample is found. Judge the content as a feature image. Then, the process from the black-and-white image generation process (step S101) is repeated again, and when the number of repetitions reaches a predetermined number, it is determined to end.

・上記第2実施形態では、支援サーバ20の制御部21は、マスキングが必要かどうかについての判定処理を実行する(ステップS202)。この判定では、要否基準値を用いる場合に限定されるものではない。例えば、ユーザ端末10における、担当者の判断の入力結果に基づいて、マスキングの要否を判定するようにしてもよい。この場合には、画像加工部211は、ユーザ端末10に、マスク処理の要否を確認する確認画面を出力する。 -In the second embodiment, the control unit 21 of the support server 20 executes a determination process as to whether masking is necessary (step S202). This determination is not limited to the case where the necessity reference value is used. For example, the necessity of masking may be determined based on the input result of the determination of the person in charge at the user terminal 10. In this case, the image processing unit 211 outputs a confirmation screen for confirming the necessity of mask processing to the user terminal 10.

・上記第2実施形態では、支援サーバ20の制御部21は、確からしさの低下の仮記憶処理を実行する(ステップS205)。ここで、確からしさの低下が基準値以上の特徴領域を特徴情報記憶部23に記録するようにしてもよい。この場合には、評価部213に、特徴領域を判定するための低下基準値に関するデータを保持させておく。そして、評価部213は、特徴画像の確からしさとマスク画像の確からしさとの差分値と低下基準値とを比較し、低下基準値以上の差分値の特徴画像を記録する。 -In the second embodiment, the control unit 21 of the support server 20 executes a temporary storage process for reducing the certainty (step S205). Here, the feature area 23 in which the decrease in certainty is equal to or higher than the reference value may be recorded in the feature information storage unit 23. In this case, the evaluation unit 213 holds data on the lowering reference value for determining the characteristic region. Then, the evaluation unit 213 compares the difference value between the certainty of the feature image and the certainty of the mask image and the reduction reference value, and records the feature image having the difference value equal to or higher than the reduction reference value.

・上記第2実施形態では、支援サーバ20の制御部21は、部分マスキング処理を実行する(ステップS203)。具体的には、特徴画像のビットマップ全体の1/4にサイズの黒マスクを用いる。マスクサイズは、これに限定されるものではない。例えば、特徴画像における白黒の分散状況に応じて、マスクサイズを変更してもよい。この場合、分散状況を示す指標値が基準値以下の場合には、マスクサイズを大きくする。 -In the second embodiment, the control unit 21 of the support server 20 executes the partial masking process (step S203). Specifically, a black mask of a size is used for 1/4 of the entire bitmap of the feature image. The mask size is not limited to this. For example, the mask size may be changed according to the black-and-white dispersion situation in the feature image. In this case, if the index value indicating the dispersion status is equal to or less than the reference value, the mask size is increased.

10…ユーザ端末、20…支援サーバ、21…制御部、211…画像加工部、212…予測部、213…評価部、214…クラスタ分析部、22…評価対象記憶部、23…特徴情報記憶部。 10 ... user terminal, 20 ... support server, 21 ... control unit, 211 ... image processing unit, 212 ... prediction unit, 213 ... evaluation unit, 214 ... cluster analysis unit, 22 ... evaluation target storage unit, 23 ... feature information storage unit ..

Claims (4)

学習済みモデルを記録する評価対象記憶部と、
前記学習済みモデルを用いて認識結果を出力する制御部とを備え、前記学習済みモデルを評価するモデル評価システムであって、
前記制御部が、
所定サイズのコンテンツの一部の領域のみをランダムに変更することにより、複数のサンプルコンテンツを生成し、
前記各サンプルコンテンツを、前記評価対象記憶部に記録された学習済みモデルに入力して、前記サンプルコンテンツの認識結果の確からしさを取得し、
前記確からしさが基準値以上の前記サンプルコンテンツを特徴コンテンツとして特定し、前記特徴コンテンツをクラスタリングした結果を、前記特徴コンテンツに関する評価結果として出力することを特徴とするモデル評価システム。
An evaluation target storage unit that records the trained model,
It is a model evaluation system that evaluates the trained model by providing a control unit that outputs a recognition result using the trained model.
The control unit
Generate multiple sample contents by randomly changing only a part of the content of a predetermined size .
Each of the sample contents is input to the trained model recorded in the evaluation target storage unit, and the certainty of the recognition result of the sample contents is acquired.
A model evaluation system characterized in that the sample content whose certainty is equal to or higher than a reference value is specified as a feature content, and the result of clustering the feature content is output as an evaluation result regarding the feature content.
前記制御部が、
前記特徴コンテンツの一部をマスク領域でマスキングしたマスクコンテンツを生成し、
前記マスクコンテンツを、前記評価対象記憶部に記録された学習済みモデルに適用して確からしさを算出し、
前記特徴コンテンツの確からしさと前記マスクコンテンツの確からしさとの差分値を算出し、
前記差分値の大きさに応じて前記マスク領域を特定し、
前記マスク領域をクラスタリングした結果を、更に出力することを特徴とする請求項に記載のモデル評価システム。
The control unit
A mask content is generated by masking a part of the feature content in the mask area.
The mask content is applied to the trained model recorded in the evaluation target storage unit to calculate the certainty.
The difference value between the certainty of the feature content and the certainty of the mask content is calculated.
The mask area is specified according to the magnitude of the difference value, and the mask area is specified.
The model evaluation system according to claim 1 , wherein the result of clustering the mask area is further output.
学習済みモデルを記録する評価対象記憶部と、
前記学習済みモデルを用いて認識結果を出力する制御部とを備え、前記学習済みモデルを評価するモデル評価システムを用いて、前記学習済みモデルを評価する方法であって、
前記制御部が、
所定サイズのコンテンツの一部の領域のみをランダムに変更することにより、複数のサンプルコンテンツを生成し、
前記各サンプルコンテンツを、前記評価対象記憶部に記録された学習済みモデルに入力して、前記サンプルコンテンツの認識結果の確からしさを取得し、
前記確からしさが基準値以上の前記サンプルコンテンツを特徴コンテンツとして特定し、前記特徴コンテンツをクラスタリングした結果を、前記特徴コンテンツに関する評価結果として出力することを特徴とするモデル評価方法。
An evaluation target storage unit that records the trained model,
It is a method of evaluating the trained model by using a model evaluation system that includes a control unit that outputs a recognition result using the trained model and evaluates the trained model.
The control unit
Generate multiple sample contents by randomly changing only a part of the content of a predetermined size .
Each of the sample contents is input to the trained model recorded in the evaluation target storage unit, and the certainty of the recognition result of the sample contents is acquired.
A model evaluation method characterized in that the sample content whose certainty is equal to or higher than a reference value is specified as a feature content, and the result of clustering the feature content is output as an evaluation result regarding the feature content.
学習済みモデルを記録する評価対象記憶部と、
前記学習済みモデルを用いて認識結果を出力する制御部とを備え、前記学習済みモデルを評価するモデル評価システムを用いて、前記学習済みモデルを評価するモデル評価プログラムであって、
前記制御部を、
所定サイズのコンテンツの一部の領域のみをランダムに変更することにより、複数のサンプルコンテンツを生成し、
前記各サンプルコンテンツを、前記評価対象記憶部に記録された学習済みモデルに入力して、前記サンプルコンテンツの認識結果の確からしさを取得し、
前記確からしさが基準値以上の前記サンプルコンテンツを特徴コンテンツとして特定し、前記特徴コンテンツをクラスタリングした結果を、前記特徴コンテンツに関する評価結果として出力する手段として機能させるためのモデル評価プログラム。
An evaluation target storage unit that records the trained model,
It is a model evaluation program that evaluates the trained model by using a model evaluation system that has a control unit that outputs a recognition result using the trained model and evaluates the trained model.
The control unit
Generate multiple sample contents by randomly changing only a part of the content of a predetermined size .
Each of the sample contents is input to the trained model recorded in the evaluation target storage unit, and the certainty of the recognition result of the sample contents is acquired.
A model evaluation program for specifying the sample content whose certainty is equal to or higher than the reference value as the feature content and functioning as a means for outputting the result of clustering the feature content as an evaluation result for the feature content.
JP2020182500A 2020-10-30 2020-10-30 Model evaluation system, model evaluation method and model evaluation program Active JP7085605B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020182500A JP7085605B2 (en) 2020-10-30 2020-10-30 Model evaluation system, model evaluation method and model evaluation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020182500A JP7085605B2 (en) 2020-10-30 2020-10-30 Model evaluation system, model evaluation method and model evaluation program

Publications (2)

Publication Number Publication Date
JP2022072841A JP2022072841A (en) 2022-05-17
JP7085605B2 true JP7085605B2 (en) 2022-06-16

Family

ID=81605045

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020182500A Active JP7085605B2 (en) 2020-10-30 2020-10-30 Model evaluation system, model evaluation method and model evaluation program

Country Status (1)

Country Link
JP (1) JP7085605B2 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015146075A (en) 2014-01-31 2015-08-13 株式会社日本デジタル研究所 accounting data input support system, method, and program
JP2016110373A (en) 2014-12-05 2016-06-20 株式会社デンソー Curve mirror detection device
JP2018109906A (en) 2017-01-05 2018-07-12 住友電気工業株式会社 Image data creation program, image data creation device, and image data creation method
JP2019046390A (en) 2017-09-06 2019-03-22 株式会社東芝 Learning device, method for learning, and program
JP2020024534A (en) 2018-08-07 2020-02-13 日本放送協会 Image classifier and program
JP2020061066A (en) 2018-10-12 2020-04-16 富士通株式会社 Learning program, detection program, learning apparatus, detection apparatus, learning method, and detection method
JP2020119135A (en) 2019-01-22 2020-08-06 株式会社日立ハイテク Image evaluation apparatus and method
US20200327311A1 (en) 2019-03-18 2020-10-15 Shenzhen Sensetime Technology Co., Ltd. Image clustering method and apparatus, electronic device, and storage medium

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015146075A (en) 2014-01-31 2015-08-13 株式会社日本デジタル研究所 accounting data input support system, method, and program
JP2016110373A (en) 2014-12-05 2016-06-20 株式会社デンソー Curve mirror detection device
JP2018109906A (en) 2017-01-05 2018-07-12 住友電気工業株式会社 Image data creation program, image data creation device, and image data creation method
JP2019046390A (en) 2017-09-06 2019-03-22 株式会社東芝 Learning device, method for learning, and program
JP2020024534A (en) 2018-08-07 2020-02-13 日本放送協会 Image classifier and program
JP2020061066A (en) 2018-10-12 2020-04-16 富士通株式会社 Learning program, detection program, learning apparatus, detection apparatus, learning method, and detection method
JP2020119135A (en) 2019-01-22 2020-08-06 株式会社日立ハイテク Image evaluation apparatus and method
US20200327311A1 (en) 2019-03-18 2020-10-15 Shenzhen Sensetime Technology Co., Ltd. Image clustering method and apparatus, electronic device, and storage medium

Also Published As

Publication number Publication date
JP2022072841A (en) 2022-05-17

Similar Documents

Publication Publication Date Title
RU2661750C1 (en) Symbols recognition with the use of artificial intelligence
US20180061439A1 (en) Automatic audio captioning
CN108182437B (en) Click verification code identification method and device and user terminal
CN112329476B (en) Text error correction method and device, equipment and storage medium
CN108959474B (en) Entity relation extraction method
US20220036068A1 (en) Method and apparatus for recognizing image, electronic device and storage medium
CN110245620B (en) Non-maximization inhibition method based on attention
CN114648681B (en) Image generation method, device, equipment and medium
CN111563373A (en) Attribute-level emotion classification method for focused attribute-related text
CN112801085A (en) Method, device, medium and electronic equipment for recognizing characters in image
CN113689514B (en) Theme-oriented image scene graph generation method
CN110717407A (en) Human face recognition method, device and storage medium based on lip language password
CN111783812A (en) Method and device for identifying forbidden images and computer readable storage medium
CN111488927B (en) Classification threshold determining method, device, electronic equipment and storage medium
JP7085605B2 (en) Model evaluation system, model evaluation method and model evaluation program
CN112465805A (en) Neural network training method for quality detection of steel bar stamping and bending
CN114972910B (en) Training method and device for image-text recognition model, electronic equipment and storage medium
CN115546813A (en) Document analysis method and device, storage medium and equipment
US11669949B2 (en) Apparatus and method for inferring contrast score of an image
CN116958615A (en) Picture identification method, device, equipment and medium
CN113610080A (en) Cross-modal perception-based sensitive image identification method, device, equipment and medium
JP7294384B2 (en) Information processing device, information processing method and program
CN113129399A (en) Pattern generation
CN115049899B (en) Model training method, reference expression generation method and related equipment
KR102543461B1 (en) Image adjustment method that selectively changes specific properties using deep learning

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220606

R150 Certificate of patent or registration of utility model

Ref document number: 7085605

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150