JP2022072841A - モデル評価システム、モデル評価方法及びモデル評価プログラム - Google Patents

モデル評価システム、モデル評価方法及びモデル評価プログラム Download PDF

Info

Publication number
JP2022072841A
JP2022072841A JP2020182500A JP2020182500A JP2022072841A JP 2022072841 A JP2022072841 A JP 2022072841A JP 2020182500 A JP2020182500 A JP 2020182500A JP 2020182500 A JP2020182500 A JP 2020182500A JP 2022072841 A JP2022072841 A JP 2022072841A
Authority
JP
Japan
Prior art keywords
evaluation
control unit
trained model
model
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020182500A
Other languages
English (en)
Other versions
JP7085605B2 (ja
Inventor
裕也 根本
Yuya Nemoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mizuho Research and Technologies Ltd
Original Assignee
Mizuho Research and Technologies Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mizuho Research and Technologies Ltd filed Critical Mizuho Research and Technologies Ltd
Priority to JP2020182500A priority Critical patent/JP7085605B2/ja
Publication of JP2022072841A publication Critical patent/JP2022072841A/ja
Application granted granted Critical
Publication of JP7085605B2 publication Critical patent/JP7085605B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】学習済みモデルを評価するためのモデル評価システム、モデル評価方法及びモデル評価プログラムを提供する。【解決手段】支援サーバ20は、学習済みモデルを記録する評価対象記憶部22と、学習済みモデルを用いて認識結果を出力する制御部21とを備える。そして、制御部21が、複数のサンプルコンテンツを生成し、各サンプルコンテンツを、評価対象記憶部22に記録された学習済みモデルに入力して、サンプルコンテンツの認識結果の確からしさを取得し、確からしさに応じたサンプルコンテンツを用いて、学習済みモデルにおける特徴コンテンツに関する評価結果を出力する。【選択図】図1

Description

本発明は、機械学習により生成された学習済みモデルの評価を支援するモデル評価システム、モデル評価方法及びモデル評価プログラムに関する。
近年、深層学習を利用して生成した学習済みモデルを用いて、画像等のコンテンツを、コンピュータによって認識する技術が利用されている。しかしながら、学習済みモデルは、ブラックボックスでの判断になるため、コンピュータが、コンテンツをどのように認識するかについて、判断の根拠の説明が難しい。このため、判断根拠が不明な状況での運用は困難な場合もある。
そこで、判断根拠を説明するための技術も検討されている(非特許文献1、2)。非特許文献1に記載された技術では、CNNベースのモデルの大規模なクラスからの決定に対して「視覚的な説明」を作成し、それらをより透明にする。ここでは、任意のターゲットコンセプトの勾配を使用して、最終的な畳み込み層に流し込み、画像内の重要な領域を強調する粗いローカリゼーションマップを生成して、コンセプトを予測する。
また、非特許文献2に記載された技術では、予測を中心に解釈可能なモデルを局所的に学習することにより、分類器の予測を解釈可能に説明するLIME(Local Interpretable Model-agnostic Explainations)を用いる。
コーネル大学、2016年10月7日、Ramprasaath R.他、「Grad-CAM:Visual Explanations from Deep Networks via Gradient-based Localization」、[online]、arxiv.orgサイト、[令和2年9月22日検索]、インターネット<https://arxiv.org/pdf/1610.02391.pdf> コーネル大学、2016年2月16日、Marco Tulio Ribeiro他、「"Why Should I Trust You":Explaining the Predictions of Any Classifier」、[online]、arxiv.orgサイト、[令和2年9月22日検索]、インターネット<https://arxiv.org/pdf/1602.04938.pdf>
しかしながら、非特許文献1に記載された技術では、深層学習の内部に手を加えているため、既に学習された学習済みモデルには適用できない。また、非特許文献1、2に記載された技術では、着目している領域しか分からない。また、いずれの技術も、画像を人が用意しているため、恣意性を排除できない。
上記課題を解決するモデル評価システムは、学習済みモデルを記録する評価対象記憶部と、前記学習済みモデルを用いて認識結果を出力する制御部とを備える。そして、前記制御部が、複数のサンプルコンテンツを生成し、前記各サンプルコンテンツを、前記評価対象記憶部に記録された学習済みモデルに入力して、前記サンプルコンテンツの認識結果の確からしさを取得し、前記確からしさに応じた前記サンプルコンテンツを用いて、前記学習済みモデルにおける特徴コンテンツに関する評価結果を出力する。
本発明によれば、機械学習により生成された学習済みモデルを評価することができる。
第1実施形態のモデル評価システムの説明図。 第1実施形態のハードウェア構成の説明図。 第1実施形態の処理手順の説明図。 第1実施形態の白黒画像の説明図。 第2実施形態の処理手順の説明図。 第2実施形態のマスキングの説明図。 第2実施形態のクラスタリングの説明図。
(第1実施形態)
図1~図4に従って、モデル評価システム、モデル評価方法及びモデル評価プログラムの第1実施形態を説明する。本実施形態では、教師情報を用いた機械学習により生成され、所定のコンテンツ(画像)を入力して認識結果(テキスト)を出力する学習済みモデルを評価する。
図1に示すように、本実施形態のモデル評価システムは、ネットワークを介して接続されたユーザ端末10、支援サーバ20を用いる。
(ハードウェア構成例)
図2は、ユーザ端末10、支援サーバ20等として機能する情報処理装置H10のハードウェア構成例である。
情報処理装置H10は、通信装置H11、入力装置H12、表示装置H13、記憶装置H14、プロセッサH15を有する。なお、このハードウェア構成は一例であり、他のハードウェアを有していてもよい。
通信装置H11は、他の装置との間で通信経路を確立して、データの送受信を実行するインタフェースであり、例えばネットワークインタフェースや無線インタフェース等である。
入力装置H12は、利用者等からの入力を受け付ける装置であり、例えばマウスやキーボード等である。表示装置H13は、各種情報を表示するディスプレイやタッチパネル等である。
記憶装置H14は、ユーザ端末10、支援サーバ20の各種機能を実行するためのデータや各種プログラムを格納する記憶装置である。記憶装置H14の一例としては、ROM、RAM、ハードディスク等がある。
プロセッサH15は、記憶装置H14に記憶されるプログラムやデータを用いて、ユーザ端末10、支援サーバ20における各処理(例えば、後述する制御部21における処理)を制御する。プロセッサH15の一例としては、例えばCPUやMPU等がある。このプロセッサH15は、ROM等に記憶されるプログラムをRAMに展開して、各種処理に対応する各種プロセスを実行する。例えば、プロセッサH15は、ユーザ端末10、支援サーバ20のアプリケーションプログラムが起動された場合、後述する各処理を実行するプロセスを動作させる。
プロセッサH15は、自身が実行するすべての処理についてソフトウェア処理を行なうものに限られない。例えば、プロセッサH15は、自身が実行する処理の少なくとも一部についてハードウェア処理を行なう専用のハードウェア回路(例えば、特定用途向け集積回路:ASIC)を備えてもよい。すなわち、プロセッサH15は、(1)コンピュータプログラム(ソフトウェア)に従って動作する1つ以上のプロセッサ、(2)各種処理のうち少なくとも一部の処理を実行する1つ以上の専用のハードウェア回路、或いは(3)それらの組み合わせ、を含む回路(circuitry)として構成し得る。プロセッサは、CPU並びに、RAM及びROM等のメモリを含み、メモリは、処理をCPUに実行させるように構成されたプログラムコード又は指令を格納している。メモリすなわちコンピュータ可読媒体は、汎用又は専用のコンピュータでアクセスできるあらゆる利用可能な媒体を含む。
(各情報処理装置の機能)
図1のユーザ端末10は、学習済みモデルを評価する担当者が利用するコンピュータ端末である。
支援サーバ20は、学習済みモデルの評価を支援するためのコンピュータシステムである。この支援サーバ20は、制御部21、評価対象記憶部22、特徴情報記憶部23を備えている。
この制御部21は、後述する処理(画像加工段階、予測段階、評価段階、クラスタ分析段階等を含む処理)を行なう。このためのモデル評価プログラムを実行することにより、制御部21は、画像加工部211、予測部212、評価部213、クラスタ分析部214等として機能する。
画像加工部211は、評価に用いる画像を調整する処理を実行する。画像加工部211は、特徴コンテンツ生成処理を終了する終了条件に関するデータを保持している。終了条件としては、例えば、特徴情報記憶部23に記録された特徴画像の数が所定数になった場合を用いることができる。
予測部212は、学習済みモデルを用いて、予測結果を出力する処理を実行する。
評価部213は、学習済みモデルを評価する処理を実行する。評価部213は、学習済みモデルにより出力された確からしさと比較するための基準値に関するデータを保持している。
クラスタ分析部214は、クラスタリング処理より、特徴画像のグループ分けを行なう処理を実行する。このクラスタリング処理には、例えば、認識結果と特徴画像とを用いたk平均法を用いることができるが、k平均法に限定されるものではない。
評価対象記憶部22には、評価対象の学習済みモデルが記録される。この学習済みモデルは、ユーザ端末10から、評価対象の学習済みモデルを取得した場合に記録される。本実施形態では、評価対象の学習済みモデルとして、深層学習によって生成された予測モデル(ネットワーク)であって、画像に含まれるテキストを認識する文字認識モデルを用いる。ここで、画像に含まれるテキストとしては、例えば、数字「5」を用いることができる。
特徴情報記憶部23には、特徴画像管理レコードが記録される。この特徴画像管理レコードは、特徴コンテンツ生成処理を実行した場合に記録される。特徴画像管理レコードには、特徴画像及び認識結果に関するデータが記録される。
特徴画像データ領域には、認識文字の確からしさが基準値以上となった特徴画像(特徴コンテンツ)に関するデータが記録される。
認識結果データ領域には、特徴画像を、基準値以上の確からしさで認識した文字に関するデータが記録される。例えば、画像において基準値以上の確からしさで「5」を認識した場合、認識結果として数字「5」が記録される。
次に、上記のように構成されたシステムにおいて、学習済みモデルを評価する処理手順を説明する。
(特徴コンテンツ生成処理)
まず、図3を用いて、特徴コンテンツ生成処理を説明する。
ここでは、支援サーバ20の制御部21は、白黒画像の生成処理を実行する(ステップS101)。具体的には、制御部21の画像加工部211は、ユーザ端末10から、学習済みモデルを取得し、評価対象記憶部22に記録する。そして、画像加工部211は、任意の白黒画像(サンプルコンテンツ)を生成する。例えば、所定のサイズのビットマップにおいて、ランダムに白ピクセル及び黒ピクセルを配置した白黒画像を生成する。
例えば、図4に示すように、白黒画像500を生成する場合を想定する。
次に、支援サーバ20の制御部21は、ランダムにピクセル選定処理を実行する(ステップS102)。具体的には、制御部21の画像加工部211は、生成した白黒画像において、ランダムにピクセルを選択する。本実施形態では、ステップS101において生成した白黒画像のビットマップにおいて、1つのピクセルを選択する。
例えば、図4において、白黒画像500のピクセル501を選定する。
次に、支援サーバ20の制御部21は、ピクセル反転処理を実行する(ステップS103)。具体的には、制御部21の画像加工部211は、選択したピクセルの白黒を反転させる。これにより、選択したピクセルが白ピクセルの場合には黒ピクセルに反転させ、黒ピクセルの場合には白ピクセルに反転させた白黒画像(サンプルコンテンツ)が生成される。
ここでは、図4において、黒のピクセル501を白に白黒反転することにより、白黒画像510が生成される。
次に、支援サーバ20の制御部21は、予測処理を実行する(ステップS104)。具体的には、制御部21の予測部212は、生成した白黒画像510を、評価対象記憶部22の学習済みモデルに入力する。そして、予測部212は、学習済みモデルによって出力された認識結果と確からしさを取得する。
次に、支援サーバ20の制御部21は、確からしさが基準値以上かどうかについての判定処理を実行する(ステップS105)。具体的には、制御部21の予測部212は、学習済みモデルにより出力された確からしさと基準値とを比較する。
確からしさが基準値以上と判定した場合(ステップS105において「YES」の場合)、支援サーバ20の制御部21は、特徴画像の登録処理を実行する(ステップS106)。具体的には、制御部21の画像加工部211は、学習済みモデルに入力した白黒画像を特徴画像として、認識結果と関連付けた特徴画像管理レコードを生成し、特徴情報記憶部23に記録する。
一方、確からしさが基準値未満と判定した場合(ステップS105において「NO」の場合)、支援サーバ20の制御部21は、特徴画像の登録処理(ステップS106)をスキップする。
次に、支援サーバ20の制御部21は、終了かどうかについての判定処理を実行する(ステップS107)。具体的には、制御部21の画像加工部211は、同じ認識結果の特徴画像管理レコードのレコード数をカウントする。そして、レコード数が終了条件を満足している場合には、終了と判定する。
レコード数が終了条件を満足しておらず、終了でないと判定した場合(ステップS107において「NO」の場合)、支援サーバ20の制御部21は、ランダムにピクセル選定処理(ステップS102)以降の処理を繰り返す。
例えば、図4に示すように、白黒画像510において、ピクセル502を選定し、白黒反転することにより、白黒画像520が生成される。
一方、終了と判定した場合(ステップS107において「YES」の場合)、支援サーバ20の制御部21は、特徴画像の取得処理を実行する(ステップS108)。具体的には、制御部21のクラスタ分析部214は、特徴情報記憶部23から、すべての特徴画像管理レコードを抽出し、特徴画像管理レコードに記録された特徴画像を取得する。
次に、支援サーバ20の制御部21は、特徴画像のクラスタリング処理を実行する(ステップS109)。具体的には、制御部21のクラスタ分析部214は、特徴画像をクラスタリング処理により、グループ分けを行なう。
次に、支援サーバ20の制御部21は、クラスタリング結果の出力処理を実行する(ステップS110)。具体的には、制御部21の評価部213は、クラスタリングにより生成した各グループの特徴画像を、ユーザ端末10に出力する。
本実施形態によれば、以下のような効果を得ることができる。
(1-1)本実施形態においては、支援サーバ20の制御部21は、ランダムにピクセル選定処理(ステップS102)、ピクセル反転処理(ステップS103)、予測処理(ステップS104)を実行する。これにより、画像を部分的に変化させながら、確からしさを算出して、学習済みモデルを評価することができる。
(1-2)本実施形態においては、支援サーバ20の制御部21は、確からしさが基準値以上かどうかについての判定処理を実行する(ステップS105)。そして、確からしさが基準値以上と判定した場合(ステップS105において「YES」の場合)、支援サーバ20の制御部21は、特徴画像の登録処理を実行する(ステップS106)。これにより、確からしさに応じて、認識結果を出力する特徴的な画像を探すことができる。
(1-3)本実施形態においては、支援サーバ20の制御部21は、特徴画像のクラスタリング処理を実行する(ステップS109)。これにより、認識結果に対して、複数の特徴画像を取得した場合にも、クラスタリングによってグループ毎にまとめた特徴を出力することができる。
(第2実施形態)
次に、モデル評価システム、モデル評価方法及びモデル評価プログラムの第2実施形態を説明する。第1実施形態では、特徴情報記憶部23に記録された特徴画像についてクラスタリングを行なう。第2実施形態では、特徴画像において特徴的な領域(特徴領域)を特定してクラスタリングを行なうように変更した特徴領域評価処理を実行する。なお、上記第1実施形態と同様の部分については、同一の符号を付し、その詳細な説明を省略する。
この場合、制御部21の画像加工部211は、特徴画像の一部のマスキングを行なう処理を実行する。そして、画像加工部211は、マスキング処理の要否を判定するための要否判定条件に関するデータを保持している。要否判定条件として、例えば、各特徴画像の類似性を評価した分散値を用いることができる。この場合、分散値が要否基準値内の場合には、マスク処理は不要と判定する。
更に、特徴情報記憶部23には、特徴領域管理レコードを記録する。特徴領域管理レコードは、特徴領域評価処理を実行した場合に記録される。特徴領域管理レコードには、特徴領域画像及び認識結果に関するデータが記録される。
特徴領域画像データ領域には、特徴画像の中で認識結果に影響を与える領域の画像に関するデータが記録される。
認識結果データ領域には、特徴領域により認識されるテキスト(ここでは数字)に関するデータが記録される。
(特徴領域評価処理)
次に、図5を用いて、特徴領域評価処理を説明する。
まず、支援サーバ20の制御部21は、特徴画像の取得処理を実行する(ステップS201)。具体的には、制御部21の画像加工部211は、特徴情報記憶部23から、すべての特徴画像管理レコードを抽出し、特徴画像管理レコードに記録された特徴画像を取得する。
次に、支援サーバ20の制御部21は、マスキング処理が必要かどうかについての判定処理を実行する(ステップS202)。具体的には、制御部21の画像加工部211は、特徴コンテンツ生成処理におけるクラスタリング結果を取得する。そして、画像加工部211は、各特徴画像の特徴量を比較し、類似性の分散値を算出する。そして、画像加工部211は、分散値と要否基準値とを比較する。
分散値が要否基準値を超えており、マスキングが必要と判定した場合(ステップS202)、支援サーバ20の制御部21は、特徴画像毎に、以下の処理を繰り返す。
ここでは、まず、支援サーバ20の制御部21は、部分マスキング処理を実行する(ステップS203)。具体的には、制御部21の画像加工部211は、特徴画像のビットマップ全体の1/4のサイズの黒マスクを用いて、特徴画像をマスキングしたマスク画像(マスクコンテンツ)を生成する。例えば、特徴画像の左上に黒マスクを配置したマスク画像を生成する。
図6に示すように、特徴画像600に対して、黒マスクM1を配置したマスク画像610を生成する。
次に、支援サーバ20の制御部21は、確からしさの算出処理を実行する(ステップS204)。具体的には、制御部21の予測部212は、マスク画像を、評価対象記憶部22に記録された学習済みモデルに入力する。この場合、予測部212は、マスク画像について、認識結果及び確からしさを出力する。
次に、支援サーバ20の制御部21は、確からしさの低下の仮記憶処理を実行する(ステップS205)。具体的には、制御部21の評価部213は、特徴画像の認識結果について、予測部212が出力したマスク画像の確からしさを取得する。次に、評価部213は、特徴画像の確からしさとマスク画像の確からしさとの差分値を算出する。そして、評価部213は、特徴画像において黒マスクでマスキングされた領域(マスク領域)の画像に関連付けて、確からしさの差分値をメモリに仮記憶する。
次に、支援サーバ20の制御部21は、マスキングを終了したかどうかについての判定処理を実行する(ステップS206)。具体的には、制御部21の画像加工部211は、特徴画像におけるすべての配置についてマスキングを行なった場合には、マスキングの終了と判定する。例えば、特徴画像の左上からマスキングを開始した場合には、特徴画像の右下に黒マスクが到達したことにより、マスキングの終了と判定する。
ここで、マスキングを終了していないと判定した場合(ステップS206において「NO」の場合)、支援サーバ20の制御部21は、部分マスキング処理(ステップS203)以降の処理を実行する。この場合には、黒マスクを1ピクセル(1行又は1列)分、移動させることにより、マスク画像を生成する。
図6に示すように、マスク画像610に対して、黒マスクM1を移動させたマスク画像620を生成する。支援サーバ20の制御部21は、マスク画像620について、ステップS203~206の処理を終了後、更に、順次、マスク画像630の生成を繰り返す。そして、特徴画像600の右下に黒マスクが到達したマスク画像640において、マスキングの終了と判定する。
マスキングを終了と判定した場合(ステップS206において「YES」の場合)、支援サーバ20の制御部21は、確からしさの低下が最大の特徴領域の特定処理を実行する(ステップS207)。具体的には、制御部21の評価部213は、メモリに仮記憶された差分値の中で、最大値のマスク領域を特徴領域として特定する。そして、評価部213は、特徴領域の画像を認識結果に関連付けて記録した特徴領域管理レコードを生成し、特徴情報記憶部23に記録する。
そして、支援サーバ20の制御部21は、すべての特徴画像について終了するまで、上記処理を繰り返す。
すべての特徴画像についての繰り返し処理を終了した場合、支援サーバ20の制御部21は、特徴領域の取得処理を実行する(ステップS208)。具体的には、制御部21のクラスタ分析部214は、特徴情報記憶部23から、すべての特徴領域管理レコードを抽出し、特徴領域管理レコードに記録された特徴領域の画像を取得する。
次に、支援サーバ20の制御部21は、特徴領域のクラスタリング処理を実行する(ステップS209)。具体的には、制御部21のクラスタ分析部214は、特徴領域画像をクラスタリング処理により、グループ分けを行なう。これにより、共通した認識結果において、類似した特徴領域画像を特定することができる。
ここでは、図7に示すように、特徴領域のクラスタリング処理により、グループG1~G3が生成される。
次に、支援サーバ20の制御部21は、クラスタリング結果の出力処理を実行する(ステップS211)。具体的には、制御部21のクラスタ分析部214は、クラスタリングにより生成したグループ毎に特徴領域画像の平均画像を生成する。そして、クラスタ分析部214は、認識結果に関連付けた平均画像を、ユーザ端末10に出力する。
ここでは、図7に示すように、各グループG1~G3に属する特徴領域画像の平均画像701~703を生成して、ユーザ端末10に出力する。
一方、マスキング処理は不要と判定した場合(ステップS202において「NO」の場合)、支援サーバ20の制御部21は、ステップS109と同様に、特徴情報記憶部23に記録された特徴画像を用いて、特徴画像のクラスタリング処理を実行する(ステップS210)。
本実施形態によれば、上記(1-1)~(1-3)の効果に加えて、以下のような効果を、更に得ることができる。
(2-1)本実施形態においては、支援サーバ20の制御部21は、マスキング処理が必要かどうかについての判定処理を実行する(ステップS202)。これにより、特徴画像の生成状況により、特徴領域評価処理の実行の必要性を判定することができる。
(2-2)本実施形態においては、支援サーバ20の制御部21は、部分マスキング処理(ステップS203)、確からしさの算出処理(ステップS204)、確からしさの低下の仮記憶処理(ステップS205)を実行する。これにより、特徴画像の中でも、過去領域の認識結果に与える影響を評価することができる。
(2-3)本実施形態においては、支援サーバ20の制御部21は、確からしさの低下が最大の特徴領域の特定処理を実行する(ステップS207)。これにより、特徴画像において、学習済みモデルの出力に最も影響を与える領域を特定することができる。
(2-4)本実施形態においては、支援サーバ20の制御部21は、特徴領域のクラスタリング処理を実行する(ステップS209)。これにより、認識結果に対して、複数の特徴領域画像を取得した場合にも、クラスタリングによるグループ毎にまとめた特徴を出力することができる。
本実施形態は、以下のように変更して実施することができる。本実施形態及び以下の変更例は、技術的に矛盾しない範囲で互いに組み合わせて実施することができる。
・上記第1実施形態では、コンテンツとして画像に含まれる文字を認識する学習済みモデルの評価を行なう。本発明の適用対象は、画像認識に限定されるものではない。例えば、音信号をテキストに変換する音声認識や、文章に基づいて、感情を認識する学習済みモデルに適用してもよい。
・上記第1実施形態では、支援サーバ20の制御部21は、白黒画像の生成処理を実行する(ステップS101)。最初の画像は白黒画像に限定されるものではない。例えば、全面が白または黒の画像を用いてもよい。また、認識結果の確からしさが高い画像を最初の画像として用いてもよい。
・上記第1実施形態では、支援サーバ20の制御部21は、ランダムにピクセル選定処理を実行する(ステップS102)。サンプルコンテンツを網羅的に変更できれば、ピクセルの選択はランダムに限定されるものではない。また、選択するピクセルは、1つに限らず、同時期に複数のピクセルを選択してもよい。
・上記第1実施形態では、支援サーバ20の制御部21は、ピクセル反転処理を実行する(ステップS103)。網羅的に変化を加えることができれば、ピクセル反転に限定されるものではない。カラー画像を用いて、画像認識を行なう学習済みモデルの場合には、支援サーバ20の制御部21は、例えば、各ピクセルのRGB値を、順次、変更する。
また、音声信号をテキストに変換する学習済みモデルの場合には、支援サーバ20の制御部21は、例えば、音声信号を周波数変換し、各周波数の係数をランダムに変更する。
また、文章から何らかの認識結果を取得する自然言語処理を行なう学習済みモデルの場合には、例えば、文章に含まれる単語を変更する。この場合には、複数のサンプルコンテンツを生成するために、単語を記録した辞書記憶部から、文章に含まれる単語を置き換えるために他の単語を取得する。
・上記第1実施形態では、支援サーバ20の制御部21は、終了かどうかについての判定処理を実行する(ステップS107)。ここでは、レコード数が終了条件を満足している場合に、終了と判定する。終了条件は、これに限定されるものではない。例えば、支援サーバ20の制御部21が、白黒画像の生成処理(ステップS101)を繰り返し、この繰り返し回数を終了条件として用いてもよい。この場合には、支援サーバ20の制御部21が、先行して生成したサンプルコンテンツの確からしさと、後続のサンプルコンテンツの確からしさとを比較して、確からしさが低下した場合に、先行のサンプルコンテンツを特徴画像と判定する。そして、再度、白黒画像の生成処理(ステップS101)からの処理を繰り返し、この繰り返し回数が所定回数に到達した場合に、終了と判定する。
・上記第2実施形態では、支援サーバ20の制御部21は、マスキングが必要かどうかについての判定処理を実行する(ステップS202)。この判定では、要否基準値を用いる場合に限定されるものではない。例えば、ユーザ端末10における、担当者の判断の入力結果に基づいて、マスキングの要否を判定するようにしてもよい。この場合には、画像加工部211は、ユーザ端末10に、マスク処理の要否を確認する確認画面を出力する。
・上記第2実施形態では、支援サーバ20の制御部21は、確からしさの低下の仮記憶処理を実行する(ステップS205)。ここで、確からしさの低下が基準値以上の特徴領域を特徴情報記憶部23に記録するようにしてもよい。この場合には、評価部213に、特徴領域を判定するための低下基準値に関するデータを保持させておく。そして、評価部213は、特徴画像の確からしさとマスク画像の確からしさとの差分値と低下基準値とを比較し、低下基準値以上の差分値の特徴画像を記録する。
・上記第2実施形態では、支援サーバ20の制御部21は、部分マスキング処理を実行する(ステップS203)。具体的には、特徴画像のビットマップ全体の1/4にサイズの黒マスクを用いる。マスクサイズは、これに限定されるものではない。例えば、特徴画像における白黒の分散状況に応じて、マスクサイズを変更してもよい。この場合、分散状況を示す指標値が基準値以下の場合には、マスクサイズを大きくする。
10…ユーザ端末、20…支援サーバ、21…制御部、211…画像加工部、212…予測部、213…評価部、214…クラスタ分析部、22…評価対象記憶部、23…特徴情報記憶部。

Claims (5)

  1. 学習済みモデルを記録する評価対象記憶部と、
    前記学習済みモデルを用いて認識結果を出力する制御部とを備え、前記学習済みモデルを評価するモデル評価システムであって、
    前記制御部が、
    複数のサンプルコンテンツを生成し、
    前記各サンプルコンテンツを、前記評価対象記憶部に記録された学習済みモデルに入力して、前記サンプルコンテンツの認識結果の確からしさを取得し、
    前記確からしさに応じた前記サンプルコンテンツを用いて、前記学習済みモデルにおける特徴コンテンツに関する評価結果を出力することを特徴とするモデル評価システム。
  2. 前記制御部が、
    前記確からしさの変化の大きさが基準値以上の特徴コンテンツを記録し、
    前記記録された特徴コンテンツに基づいて、クラスタリングした結果を、前記評価結果として出力することを特徴とする請求項1に記載のモデル評価システム。
  3. 前記制御部が、
    前記特徴コンテンツの一部をマスク領域でマスキングしたマスクコンテンツを生成し、
    前記マスクコンテンツを、前記評価対象記憶部に記録された学習済みモデルに適用して確からしさを算出し、
    前記マスクコンテンツの確からしさの変化を算出し、
    前記確からしさの変化の大きさが大きいマスク領域を特定し、
    前記マスク領域をクラスタリングした結果を、前記評価結果として出力することを特徴とする請求項1又は2に記載のモデル評価システム。
  4. 学習済みモデルを記録する評価対象記憶部と、
    前記学習済みモデルを用いて認識結果を出力する制御部とを備え、前記学習済みモデルを評価するモデル評価システムを用いて、前記学習済みモデルを評価する方法であって、
    前記制御部が、
    複数のサンプルコンテンツを生成し、
    前記各サンプルコンテンツを、前記評価対象記憶部に記録された学習済みモデルに入力して、前記サンプルコンテンツの認識結果の確からしさを取得し、
    前記確からしさに応じた前記サンプルコンテンツを用いて、前記学習済みモデルにおける特徴コンテンツに関する評価結果を出力することを特徴とするモデル評価方法。
  5. 学習済みモデルを記録する評価対象記憶部と、
    前記学習済みモデルを用いて認識結果を出力する制御部とを備え、前記学習済みモデルを評価するモデル評価システムを用いて、前記学習済みモデルを評価するモデル評価プログラムであって、
    前記制御部を、
    複数のサンプルコンテンツを生成し、
    前記各サンプルコンテンツを、前記評価対象記憶部に記録された学習済みモデルに入力して、前記サンプルコンテンツの認識結果の確からしさを取得し、
    前記確からしさに応じた前記サンプルコンテンツを用いて、前記学習済みモデルにおける特徴コンテンツに関する評価結果を出力する手段として機能させるためのモデル評価プログラム。
JP2020182500A 2020-10-30 2020-10-30 モデル評価システム、モデル評価方法及びモデル評価プログラム Active JP7085605B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020182500A JP7085605B2 (ja) 2020-10-30 2020-10-30 モデル評価システム、モデル評価方法及びモデル評価プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020182500A JP7085605B2 (ja) 2020-10-30 2020-10-30 モデル評価システム、モデル評価方法及びモデル評価プログラム

Publications (2)

Publication Number Publication Date
JP2022072841A true JP2022072841A (ja) 2022-05-17
JP7085605B2 JP7085605B2 (ja) 2022-06-16

Family

ID=81605045

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020182500A Active JP7085605B2 (ja) 2020-10-30 2020-10-30 モデル評価システム、モデル評価方法及びモデル評価プログラム

Country Status (1)

Country Link
JP (1) JP7085605B2 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015146075A (ja) * 2014-01-31 2015-08-13 株式会社日本デジタル研究所 会計データ入力支援システム、方法およびプログラム
JP2016110373A (ja) * 2014-12-05 2016-06-20 株式会社デンソー カーブミラー検出装置
JP2018109906A (ja) * 2017-01-05 2018-07-12 住友電気工業株式会社 画像データ作成プログラム、画像データ作成装置および画像データ作成方法
JP2019046390A (ja) * 2017-09-06 2019-03-22 株式会社東芝 学習装置、学習方法、およびプログラム
JP2020024534A (ja) * 2018-08-07 2020-02-13 日本放送協会 画像分類装置及びプログラム
JP2020061066A (ja) * 2018-10-12 2020-04-16 富士通株式会社 学習プログラム、検出プログラム、学習装置、検出装置、学習方法および検出方法
JP2020119135A (ja) * 2019-01-22 2020-08-06 株式会社日立ハイテク 画像評価装置及び方法
US20200327311A1 (en) * 2019-03-18 2020-10-15 Shenzhen Sensetime Technology Co., Ltd. Image clustering method and apparatus, electronic device, and storage medium

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015146075A (ja) * 2014-01-31 2015-08-13 株式会社日本デジタル研究所 会計データ入力支援システム、方法およびプログラム
JP2016110373A (ja) * 2014-12-05 2016-06-20 株式会社デンソー カーブミラー検出装置
JP2018109906A (ja) * 2017-01-05 2018-07-12 住友電気工業株式会社 画像データ作成プログラム、画像データ作成装置および画像データ作成方法
JP2019046390A (ja) * 2017-09-06 2019-03-22 株式会社東芝 学習装置、学習方法、およびプログラム
JP2020024534A (ja) * 2018-08-07 2020-02-13 日本放送協会 画像分類装置及びプログラム
JP2020061066A (ja) * 2018-10-12 2020-04-16 富士通株式会社 学習プログラム、検出プログラム、学習装置、検出装置、学習方法および検出方法
JP2020119135A (ja) * 2019-01-22 2020-08-06 株式会社日立ハイテク 画像評価装置及び方法
US20200327311A1 (en) * 2019-03-18 2020-10-15 Shenzhen Sensetime Technology Co., Ltd. Image clustering method and apparatus, electronic device, and storage medium

Also Published As

Publication number Publication date
JP7085605B2 (ja) 2022-06-16

Similar Documents

Publication Publication Date Title
CN108628971B (zh) 不均衡数据集的文本分类方法、文本分类器及存储介质
CN108182437B (zh) 一种点选验证码识别方法、装置和用户终端
EP3648014A1 (en) Model training method, data identification method and data identification device
US20180061439A1 (en) Automatic audio captioning
CN112861885B (zh) 图像识别方法、装置、电子设备及存储介质
CN111612081A (zh) 识别模型的训练方法、装置、设备及存储介质
JP2023541527A (ja) テキスト検出に用いる深層学習モデルトレーニング方法及びテキスト検出方法
WO2021034841A1 (en) Apparatus and methods for converting lineless tables into lined tables using generative adversarial networks
CN110968725A (zh) 图像内容描述信息生成方法、电子设备及存储介质
CN114648681B (zh) 一种图像生成方法、装置、设备及介质
CN112801085A (zh) 一种图像中文字的识别方法、装置、介质及电子设备
Tymoshenko et al. Real-Time Ukrainian Text Recognition and Voicing.
CN111563373A (zh) 聚焦属性相关文本的属性级情感分类方法
CN110717407A (zh) 基于唇语密码的人脸识别方法、装置及存储介质
JP7085605B2 (ja) モデル評価システム、モデル評価方法及びモデル評価プログラム
CN115565186B (zh) 文字识别模型的训练方法、装置、电子设备和存储介质
CN114972910B (zh) 图文识别模型的训练方法、装置、电子设备及存储介质
CN116110066A (zh) 票据文本的信息提取方法、装置、设备及存储介质
CN113689514B (zh) 一种面向主题的图像场景图生成方法
CN115546813A (zh) 一种文档分析方法、装置、存储介质及设备
CN111488927B (zh) 分类阈值确定方法、装置、电子设备及存储介质
US11669949B2 (en) Apparatus and method for inferring contrast score of an image
CN115376137A (zh) 一种光学字符识别处理、文本识别模型训练方法及装置
JP7294384B2 (ja) 情報処理装置、情報処理方法およびプログラム
CN115049899B (zh) 模型训练方法、指代表达式生成方法及相关设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220606

R150 Certificate of patent or registration of utility model

Ref document number: 7085605

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150