JP7352369B2 - 予測モデル評価システム、予測モデル評価方法 - Google Patents

予測モデル評価システム、予測モデル評価方法 Download PDF

Info

Publication number
JP7352369B2
JP7352369B2 JP2019067430A JP2019067430A JP7352369B2 JP 7352369 B2 JP7352369 B2 JP 7352369B2 JP 2019067430 A JP2019067430 A JP 2019067430A JP 2019067430 A JP2019067430 A JP 2019067430A JP 7352369 B2 JP7352369 B2 JP 7352369B2
Authority
JP
Japan
Prior art keywords
variable
model
prediction
value
predictive
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019067430A
Other languages
English (en)
Other versions
JP2020166645A (ja
Inventor
紀宏 津嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Systems Ltd
Original Assignee
Hitachi Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Systems Ltd filed Critical Hitachi Systems Ltd
Priority to JP2019067430A priority Critical patent/JP7352369B2/ja
Publication of JP2020166645A publication Critical patent/JP2020166645A/ja
Application granted granted Critical
Publication of JP7352369B2 publication Critical patent/JP7352369B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、予測モデル評価システム、予測モデル評価方法に関する。
従来から、機械学習(ML:Machine Learning)や深層学習(DL:Deep Learning)をはじめとする人工知能(AI:Artificial Intelligence)を用いた学習において、予測モデルの精度や予測結果を説明する手法やアルゴリズムがある。例えば、特許文献1では、機械学習において、説明変数をシミュレーションすることにより、説明変数毎に目的変数に対する影響の度合いを算出している。
特開2018-147280号公報
しかしながら、特許文献1では、シミュレーションという仮想的な実験に基づいて説明変数と目的変数との関係性を算出するため、必ずしも事実を再現しているとは限らない。一般に、人工知能による学習により得られる予測モデルでは、説明変数を入力して目的変数を出力するが、当該予測モデルによってどのような過程を経て目的変数が得られるのかがブラックボックスとなっている。予測モデルの入力となる学習データ自体に、従来の予測モデルの結果となる目的変数が説明変数として設定されていることがあるが、上記のように予測過程がブラックボックスとなっているため、人工知能により学習した予測モデルが事実をどの程度再現しているのか等、予測モデルの再現性について正しく評価できなかった。
本発明は、従来よりも予測モデルの再現性について正しく評価することが可能な予測モデル評価システム、予測モデル評価方法を提供することを目的とする。
本発明にかかる予測モデル評価システムは、評価対象となる学習データの中から、説明変数と、目的変数と、前記説明変数のうち従来予測モデルによる予測結果が設定された従来予測変数とを設定する変数設定部と、前記説明変数と前記目的変数と前記従来予測変数とを含む前記学習データを所定の基準に基づいて訓練データと検証データとに分け、前記訓練データから予測モデルを生成し、前記検証データを前記予測モデルに入力して予測結果を出力する学習部と、前記予測モデルによる予測結果として得られた予測値と、学習データに含まれる目的変数の値と、前記従来予測変数の値との関係を、所定の指標を用いて評価するモデル評価部と、を備えることを特徴とするモデル評価システムとして構成される。
また、本発明は、上記予測モデル評価システムで実行される予測モデル評価方法としても把握される。
本発明によれば、従来よりも予測モデルの再現性について正しく評価することができる。
本実施の形態における予測モデル評価システムの構成例を示す図である。 本システムにおける処理の流れを示す概念図である。 学習データの例を示す図である。 端末から設定される、説明変数、従来予測変数、目的変数の各項目の例を示す図である。 訓練データの例を示す図である。 検証データの例を示す図である。 モデル評価部による評価結果を表示する画面(評価結果画面)の例を示す図である。 本システムで行われる処理(予測モデル評価処理)の処理手順を示すフローチャートである。
以下に添付図面を参照して、本発明にかかる予測モデル評価システム、予測モデル評価方法の実施の形態を詳細に説明する。
図1は、本実施の形態における予測モデル評価システムの構成例を示す図である。図1に示すように、予測モデル評価システム1000は、サーバ100と、端末200とがネットワークNを介して接続された構成となっている。図1では、サーバ100、端末200が、それぞれ1台ずつである構成を例示しているが、サーバ100が複数のサーバによって構成されたり、クラウドとして構成されていてもよい。また、端末200がネットワークNを介してサーバ100に複数接続されていてもよい。
サーバ100は、予測モデルを学習し、学習した予測モデルによる予測結果を評価するためのサーバであり、ハードウェアとしては一般的なコンピュータから構成される。端末200は、上記予測結果を評価するためにユーザが操作するための端末であり、ハードウェアとしては一般的なコンピュータから構成される。ネットワークNは、有線、無線を問わず、インターネット等の一般的な公衆回線網から構成される。なお、以下では、ユーザが端末200を操作して上記予測結果を評価しているが、サーバ100に端末200と同様の機能を備え、サーバ100を操作することで上記予測結果を評価してもよい。また、以下では、各処理をサーバ100が実行する前提で説明しているが、1または複数のサーバがこれらの処理を実行してもよいし、サーバ100の機能を有したクラウドがこれらの処理を実行してもよい。
サーバ100、端末200における各処理は、プログラムの実行により実現される。サーバ100、端末200は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)、NIC(Network Interface Card)といった、通信可能なコンピュータが備える一般的な構成を有し、CPUが、ROMからプログラムを読み出して実行することにより、各処理を実行する各機能部の機能が実現される。上記プログラムは、USB(Universal Serial Bus)メモリ等の記憶媒体から読み出されたり、ネットワークを介した他のコンピュータからダウンロードする等して、サーバ100や端末200に提供されてもよい。
サーバ100は、送受信部101と、変数設定部102と、学習部103と、モデル評価部104と、表示データ生成部105と、記憶部106とを有している。
送受信部101は、端末200から学習データを受信したり、サーバ100が実行した予測モデルによる予測結果や評価結果を端末200に送信する等、本システムで行われる処理に必要な情報を送受信する。
変数設定部102は、端末200から指定された学習データの項目のうち、説明変数とする項目、目的変数とする項目を学習データに設定する。また、変数設定部102は、説明変数のうち、従来の予測モデルにより得られた予測結果が設定されている説明変数を、従来予測変数として学習データの項目に設定する。本実施例において、従来予測変数を設定する理由は、学習データ自体がすでに何らかの予測モデルを用いて得られたものである場合が多いことに着目し、従来予測変数を設定することにより、当該従来予測変数が、学習して得られた予測モデルによる予測結果にどのように影響を与えたのかを判断したり、あるいは学習して得られた予測モデルによる予測結果を従来予測変数の違いにより評価するためである。
学習部103は、端末200から受信された学習データを、所定の基準で訓練データと検証データとに分類し、訓練データから予測モデルを生成するとともに、生成した予測モデルに検証データを入力して得られた予測結果である予測値を出力する。学習モデルの生成については、従来から知られている各種手法を用いることができる。
モデル評価部104は、上記予測値と、上記目的変数の値と、従来予測変数の値とを比較し、これらの関係性を評価する。当該比較、評価の例については後述する。
表示データ生成部105は、モデル評価部104による比較結果、評価結果を端末200に表示させるためのデータを生成する。当該データの例や端末200への表示例については後述する。
記憶部106は、本システムで用いられる学習データ、訓練データ、検証データをはじめ、設定された説明変数、従来予測変数、目的変数の各項目やこれらの値を記憶する。各データの具体例については後述する。
端末200は、入出力部201と、制御部202と、通信部203とを有して構成されている。
入出力部201は、ユーザから学習データの入力、説明変数、従来予測変数、目的変数の指定を受け付けたり、サーバ100による上記比較結果や評価結果を表示部に出力する。
制御部202は、端末200の各部の動作を制御する。
通信部203は、サーバ100との間で本システムに必要な各種データの送受信を司る。
図2は、本システムにおける処理の流れを示す概念図である。まず、サーバ100の送受信部101は、端末200から入力された学習データを受信して、記憶部106に格納21する。
図3は、学習データの例を示す図である。図3に示すように、学習データ1061は、学習データのレコード番号(#)と、項目1~N(図3では項目7)までのN個の項目とが対応付けて記憶されている。例えば、学習データは「与信」を扱うデータである場合、項目1は年収に関する項目、項目2は既婚・未婚の別に関する項目、項目3は年齢に関する項目、項目4は他の借入に関する項目、項目5は会社規模に関する項目、項目6は与信に関する項目、項目7は返済状況(完済したか否か)に関する項目が挙げられる。
端末200の制御部202は、入出力部201がユーザから受け付けた説明変数とする項目、目的変数とする項目をサーバ100に送信22し、サーバ100の変数設定部102は、送受信部101が受信した、端末200から設定された説明変数となる項目、目的変数となる項目を、学習データに対応付けて記憶部106に記憶23する。
図4は、端末200から設定される、説明変数、従来予測変数、目的変数の各項目の例を示す図である。図4では、端末200の入出力部201がタッチパネル等の画面(変数設定画面)401から入力を受け付けて、その結果を表示する様子を示している。
図4に示すように、変数設定画面には、学習データを構成する項目のうち、ユーザが指定した説明変数となる項目1~6と、目的変数となる項目7とが対応付けて表示されている。また、ユーザの判断により、説明変数となる項目のうち、項目6を従来予測変数として設定していることを示している。従来予測変数の設定は、例えば、変数設定画面401の従来予測変数設定欄402を選択(クリック)することにより行われる。
サーバ100の変数設定部102は、記憶部106に記憶された学習データの項目として従来予測変数が設定されているか否かを判定24し、従来予測変数が設定されていると判定した場合、その項目を従来予測変数に設定25し、ユーザに確認させるために、上記変数設定画面を端末200に送信し、端末200の入出力部201が当該画面を表示26aするとともに、設定された従来予測変数を、学習データ、説明変数となる項目、目的変数となる項目に対応付けて記憶部106に記憶26bする。
サーバ100の学習部103は、記憶部106に記憶した学習データ1061を読み出して、訓練データ1062と検証データ1063とに分類し、予測モデルを生成するとともに、当該予測モデルを記憶27する。分類の方法は、処理する学習データの内容等に応じて適宜定めればよい。例えば、学習データのうち全レコードからランダムに7割のレコードを選んで訓練データにして、残りの3割のレコードを検証データに分類すればよい。
図5は、訓練データ1062の例を示す図である。図5に示すように、訓練データ1062は、図3に示した学習データ1061と同様の項目を有している。図5では、レコード番号(#)1~nまでのレコードが訓練データ1062として学習データ1061から抽出されたことを示している。
図6は、検証データ1063の例を示す図である。図6に示すように、検証データ1063は、図3に示した学習データ1061と同様の項目を有している。図6では、レコード番号(#)n+1~Pまでのレコードが検証データ1063として学習データ1061から抽出されたことを示している。
学習部103は、学習データ1061から得られた訓練データ1062を用いてAI学習して生成した予測モデルに、検証データを入力して得られた予測結果である予測値を出力28する。
学習部103は、出力した予測値を記憶部106に記憶29する。その後、モデル評価部104は、学習部103が記憶した予測値の読み出し30を行い、予測モデルによる予測結果の値と目的変数の値と従来予測変数の値とを比較してモデル評価31を開始する。当該評価の具体的な内容については後述する。
モデル評価部104が上記モデル評価31を開始すると、表示データ生成部105は、設定された従来予測変数と、予測モデルに検証データを入力して得られた予測結果である予測値と、目的変数の値とを比較して表示するための表示用データを生成311する。さらに、モデル評価部104は、所定の手法を用いて、上記モデル評価31の値を計算312する。その後、モデル評価部104は、表示データ生成部105が生成した当該評価の結果の表示用データを端末200に送信し、端末200の入出力部201が、当該評価の結果を表示部に表示32する。
図7は、モデル評価部31による評価結果を表示する画面(評価結果画面)の例を示す図である。本例では、評価結果画面を表形式で表示する場合を例示しているが、設定された従来予測変数の値と、目的変数の値と、予測モデルに検証データを入力して得られた予測結果である予測値とを各軸とした3次元空間上にプロットした画面を表示してもよい。これにより、ユーザは、一見して各項目の相関を把握することができる。
図7に示すように、評価結果画面701には、設定された従来予測変数の値と、目的変数の値と、予測結果として得られた予測値と、これらの値がとられたパターンを示す件数とが対応付けられている。図7では、TTTが1000件、TTFが60件、TFTが80件、TFFが600件、FTTが700件、FTFが50件、FFTが70件、FFFが1200件として集計されていることがわかる。
例えば、評価対象となる予測モデルが「与信」に関するモデルである場合、従来予測変数の値において、「○」は、従来の予測方法で「OK(返済能力有り)」と判断されたことを表している。また、「×」は、従来の予測方法で「NG(返済能力無し)」と判断されたことを表している。
さらに、目的変数の値において、「○」は、実際に「OK(借金を返済した)」であったという結果を表している。また、「×」は、実際に「NG(借金を返済できなかった)」であったという結果を表している。
さらに、予測値において、「○」は、検証データを予測モデルに入力して得られた予測結果が「OK(返済能力有り)」と判断されたことを表している。また、「×」は、上記予測結果が「NG(返済能力無し)」と判断されたことを表している。
このような結果が得られると、モデル評価部104は、例えば、従来から知られている評価方法、例えば、正解率、適合率、検出率、F値を算出してその評価を実行し、結果を上記評価結果画面に出力することができる。
例えば、モデル評価部104は、以下の方法により正解率Aを算出することができる。正解率は、目的変数の値と予測値が同じである割合を意味する。
A=(TTT+TFF+FTT+FFF)÷(TTT+TTF+TFT+TFF+FTT+FTF+FFT+FFF)
=(1,000+600+700+1,200)÷(1,000+60+80+600+700+50+70+1,200)
=2,500÷3,760≒0.665=66.5%
また、例えば、モデル評価部104は、以下の方法により適合率Pを算出することができる。適合率は、予測値が「○」と予測したもののうち、目的変数の値が「○」である割合を意味する。
P=(TTT+FTT)÷(TTT+TFT+FTT+FFT)
=(1,000+700)÷(1,000+80+700+70)
=1,700÷1,850≒0.919=91.1%
また、例えば、モデル評価部104は、以下の方法により検出率Rを算出することができる。検出率は、目的変数の値が「○」のもののうち、予測値も「○」と予測した割合を意味する。
R= (TTT+FTT)÷(TTT+TTF+FTT+FTF)
=(1,000+700)÷(1,000+60+700+50)
=1,700÷1,810≒0.939=93.9%
また、例えば、モデル評価部104は、以下の方法によりF値(適合率と検出率の調和平均)を算出することができる。F値は、適合率と検出率の平均値(率)を計算する方法の一つであり、率の平均は調和平均で計算されるのが一般的であるため、当該手法により算出することができる。
1÷F値={(1÷適合率)+(1÷検出率)}÷2
∴ F値=2÷{(1÷適合率)+(1÷検出率)}
=2÷{(1÷0.919)+(1÷0.939)}=0.929=92.9%
さらに、本実施例では、改善率、非改善率、失格率を算出することも可能である。これらの指標は、本システムにおいて新たな評価指標として定義して計算するものであり、主に、予測値を評価する指標を計算することが可能となる。
即ち、予測値がブラックボックスであることに起因する利用者の不安や説明責任について、従来予測変数を利用する本例は、予測値の信頼性を以下のように数値化して説明することができ、また、それによって不安を軽減させる効果がある。モデル評価部104は、上記従来から知られている評価指標の場合と同様に、これらの指標の値を算出してその評価を実行し、結果を上記評価結果画面に出力することができる。
例えば、モデル評価部104は、以下の方法により改善率IRを算出することができる。改善率は、従来予測変数の値と目的変数の値が異なるもののうち、目的変数の値と予測値が同じ値である割合を意味するものとして定義する。これにより、AI学習する際のデータセットの項目のうち、従来予測変数を算出した項目以外の項目が、どの程度効果を発揮したかを把握することができる。
IR=(TFF+FTT)÷(TFT+TFF+FTT+FTF)
=(600+700)÷(80+600+700+50)=1,300÷1,430≒0.91=91%
また、例えば、モデル評価部104は、以下の方法により非改善率NIRを算出することができる。非改善率は、AI学習する際のデータセットの項目のうち、従来予測変数を算出した項目以外の項目が、どの程度効果を発揮しなかったかを示す指標として定義する。これにより、例えば、改善率(IR)と非改善率(NIR)を比して、改善率(IR)が大きい値(率)なら、AI予測モデルは信用できる(改善している)と判断することができる。
NIR=1-IR=1-0.91=0.09=9%
また、例えば、モデル評価部31は、以下の方法により失格率DRを算出することができる。失格率は、従来予測変数の値と目的変数の値が同じもののうち、目的変数の値と予測値が異なる値である割合を意味する指標として定義する。これにより、AI学習する際のアルゴリズム良否や学習データセットの項目不足、もしくはデータ量不足の可能性を判断することができる。
DR=(TTF+FFT)÷(TTT+TTF+FFT+FFF)
=(60+70)÷(1,000+60+70+1,200)
=130÷2,330≒0.056=5.6%
なお、上述した各指標は一例に過ぎず、他の指標を定義することも可能である。例えば、真陰性率、特異度を新たな指標として定義し、算出してもよい。
例えば、適合率Pが、予測値が「○」と予測したもののうち、目的変数の値が「○」である割合であることに対して、真陰性率を、予測値が「×」と予測したもののうち、目的変数の値が「×」である割合として定義してもよい。
さらに、検出率Rが、目的変数の値が「○」のもののうち、予測値も「○」と予測した割合であることに対して、目的変数の値が「×」のもののうち、予測値も「×」と予測した割合として定義してもよい。
続いて、本システムで行われる処理について、フローチャートを用いて説明する。図8は、本システムで行われる処理(予測モデル評価処理)の処理手順を示すフローチャートである。
サーバ100の送受信部101は、端末200から入力された学習データを受信して、記憶部106に格納する(S801)。学習データについては図3において既に説明したため、ここではその説明を省略する。
端末200の制御部202は、入出力部201がユーザから受け付けた説明変数とする項目、目的変数とする項目をサーバ100に送信し、サーバ100の変数設定部102は、送受信部101が受信した、端末200から設定された説明変数となる項目、従来予測変数となる項目、目的変数となる項目を、学習データに対応付けて記憶部106に記憶する(S802)。
サーバ100の変数設定部102は、記憶部106に記憶された学習データの項目として従来予測変数が設定されているか否かを判定し(S803)、従来予測変数が設定されていると判定した場合(S803;Yes)、その項目を従来予測変数として、目的変数の値に対応付けて記憶する(S804、S805)。なお、サーバ100の変数設定部102が、従来予測変数が設定されていると判定した場合は(S803;No)、S804、S805の処理を行わずにS806に進む。
サーバ100の学習部103は、記憶部106に記憶した学習データ1061を読み出して、訓練データ1062と検証データ1063とに分類し、予測モデルを生成するとともに、当該予測モデルを記憶する(S806)。
学習部103は、学習データ1061から得られた訓練データ1062から生成した予測モデルに検証データを入力して予測結果である予測値を出力し(S807)、当該予測値を記憶部106に記憶する(S808)。モデル評価部104は、学習部103が記憶した予測値を読み出し、モデル評価を開始する(S809)。
その後、表示データ生成部105が、設定された従来予測変数と、上記予測値と、目的変数の値とを比較して表示するための表示用データを生成し、モデル評価部104が、上記の各指標を用いた評価値を計算し、当該評価の結果を端末200に送信し、端末200の入出力部201が、当該評価の結果を表示部に表示する(S810)。
このように、本実施例では、上記のような各処理を実行することにより、従来よりも予測モデルの再現性について正しく評価することができる。例えば、予測モデルの入力となる学習データ自体に、従来の予測モデルの結果が説明変数として設定されているような場合でも、従来予測変数の値、目的変数の値、予測値の間の相関関係を可視化することができ、その結果、AI予測の効果や新たな発見(例えば、項目間の新たな相関)の支援を行うことができる。
1000 予測モデル評価システム
100 サーバ
200 端末
N ネットワーク
101 送受信部
102 変数設定部
103 学習部
104 モデル評価部
105 表示データ生成部
106 記憶部
200 端末
201 入出力部
202 制御部
203 通信部

Claims (6)

  1. 評価対象となる学習データの中から、説明変数と、目的変数と、前記説明変数のうち従来予測モデルによる予測結果が設定された従来予測変数とを設定する変数設定部と、
    前記説明変数と前記目的変数と前記従来予測変数とを含む前記学習データを所定の基準に基づいて訓練データと検証データとに分け、前記訓練データから予測モデルを生成し、
    前記検証データを前記予測モデルに入力して予測結果を出力する学習部と、
    前記予測モデルによる予測結果として得られた予測値と、学習データに含まれる目的変数の値と、前記従来予測変数の値との関係を、所定の指標を用いて評価するモデル評価部と、を備え、
    前記モデル評価部は、前記所定の指標として、前記従来予測変数の値と前記目的変数の値が異なるもののうち、前記予測値と前記目的変数の値が同じ値である割合を意味する改善率を用いて、前記評価を行う、
    ことを特徴とするモデル評価システム。
  2. 評価対象となる学習データの中から、説明変数と、目的変数と、前記説明変数のうち従来予測モデルによる予測結果が設定された従来予測変数とを設定する変数設定部と、
    前記説明変数と前記目的変数と前記従来予測変数とを含む前記学習データを所定の基準に基づいて訓練データと検証データとに分け、前記訓練データから予測モデルを生成し、
    前記検証データを前記予測モデルに入力して予測結果を出力する学習部と、
    前記予測モデルによる予測結果として得られた予測値と、学習データに含まれる目的変数の値と、前記従来予測変数の値との関係を、所定の指標を用いて評価するモデル評価部と、を備え、
    前記モデル評価部は、前記所定の指標として、前記学習データの項目のうち、設定された前記従来予測変数以外の項目がどの程度効果を発揮しなかったかを示す非改善率を用いて、前記評価を行う、
    ことを特徴とするモデル評価システム
  3. 評価対象となる学習データの中から、説明変数と、目的変数と、前記説明変数のうち従来予測モデルによる予測結果が設定された従来予測変数とを設定する変数設定部と、
    前記説明変数と前記目的変数と前記従来予測変数とを含む前記学習データを所定の基準に基づいて訓練データと検証データとに分け、前記訓練データから予測モデルを生成し、
    前記検証データを前記予測モデルに入力して予測結果を出力する学習部と、
    前記予測モデルによる予測結果として得られた予測値と、学習データに含まれる目的変数の値と、前記従来予測変数の値との関係を、所定の指標を用いて評価するモデル評価部と、を備え、
    前記モデル評価部は、前記所定の指標として、前記従来予測変数の値と前記目的変数の値が同じもののうち、前記予測値と前記目的変数の値が異なる値である割合を意味する失格率を用いて、前記評価を行う、
    ことを特徴とするモデル評価システム
  4. 変数設定部が、評価対象となる学習データの中から、説明変数と、目的変数と、前記説明変数のうち従来予測モデルによる予測結果が設定された従来予測変数とを設定し、
    学習部が、前記説明変数と前記目的変数と前記従来予測変数とを含む前記学習データを、所定の基準に基づいて訓練データと検証データとに分け、前記訓練データから予測モデルを生成し、前記検証データを前記予測モデルに入力して予測結果を出力し、
    モデル評価部が、前記予測モデルによる予測結果として得られた予測値と、学習データに含まれる目的変数の値と、前記従来予測変数の値との関係を、所定の指標を用いて評価する場合において、
    前記モデル評価部は、前記所定の指標として、前記従来予測変数の値と前記目的変数の値が異なるもののうち、前記予測値と前記目的変数の値が同じ値である割合を意味する改善率を用いて、前記評価を行う、
    ことを特徴とするモデル評価方法。
  5. 変数設定部が、評価対象となる学習データの中から、説明変数と、目的変数と、前記説明変数のうち従来予測モデルによる予測結果が設定された従来予測変数とを設定し、
    学習部が、前記説明変数と前記目的変数と前記従来予測変数とを含む前記学習データを、所定の基準に基づいて訓練データと検証データとに分け、前記訓練データから予測モデルを生成し、前記検証データを前記予測モデルに入力して予測結果を出力し、
    モデル評価部が、前記予測モデルによる予測結果として得られた予測値と、学習データに含まれる目的変数の値と、前記従来予測変数の値との関係を、所定の指標を用いて評価する場合において、
    前記モデル評価部は、前記所定の指標として、前記学習データの項目のうち、設定された前記従来予測変数以外の項目がどの程度効果を発揮しなかったかを示す非改善率を用いて、前記評価を行う、
    ことを特徴とするモデル評価方法
  6. 変数設定部が、評価対象となる学習データの中から、説明変数と、目的変数と、前記説明変数のうち従来予測モデルによる予測結果が設定された従来予測変数とを設定し、
    学習部が、前記説明変数と前記目的変数と前記従来予測変数とを含む前記学習データを、所定の基準に基づいて訓練データと検証データとに分け、前記訓練データから予測モデルを生成し、前記検証データを前記予測モデルに入力して予測結果を出力し、
    モデル評価部が、前記予測モデルによる予測結果として得られた予測値と、学習データに含まれる目的変数の値と、前記従来予測変数の値との関係を、所定の指標を用いて評価する場合において、
    前記モデル評価部は、前記所定の指標として、前記従来予測変数の値と前記目的変数の値が同じもののうち、前記予測値と前記目的変数の値が異なる値である割合を意味する失格率を用いて、前記評価を行う、
    ことを特徴とするモデル評価方法
JP2019067430A 2019-03-29 2019-03-29 予測モデル評価システム、予測モデル評価方法 Active JP7352369B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019067430A JP7352369B2 (ja) 2019-03-29 2019-03-29 予測モデル評価システム、予測モデル評価方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019067430A JP7352369B2 (ja) 2019-03-29 2019-03-29 予測モデル評価システム、予測モデル評価方法

Publications (2)

Publication Number Publication Date
JP2020166645A JP2020166645A (ja) 2020-10-08
JP7352369B2 true JP7352369B2 (ja) 2023-09-28

Family

ID=72717540

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019067430A Active JP7352369B2 (ja) 2019-03-29 2019-03-29 予測モデル評価システム、予測モデル評価方法

Country Status (1)

Country Link
JP (1) JP7352369B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023074183A1 (ja) * 2021-10-28 2023-05-04 パナソニックIpマネジメント株式会社 学習支援システム、外観検査装置、外観検査用ソフトの更新装置及び外観検査用モデルの更新方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005328924A (ja) 2004-05-18 2005-12-02 Toyama Univ 血糖値予測装置、血糖値予測モデル作成装置、およびプログラム
WO2017168458A1 (ja) 2016-03-28 2017-10-05 日本電気株式会社 予測モデル選択システム、予測モデル選択方法および予測モデル選択プログラム
JP2019012555A (ja) 2017-04-10 2019-01-24 株式会社クロスコンパス 人工知能モジュール開発システム及び人工知能モジュール開発統合システム
JP2020533709A (ja) 2017-09-15 2020-11-19 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド ビデオ分類の方法、情報処理の方法及びサーバー

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005328924A (ja) 2004-05-18 2005-12-02 Toyama Univ 血糖値予測装置、血糖値予測モデル作成装置、およびプログラム
WO2017168458A1 (ja) 2016-03-28 2017-10-05 日本電気株式会社 予測モデル選択システム、予測モデル選択方法および予測モデル選択プログラム
JP2019012555A (ja) 2017-04-10 2019-01-24 株式会社クロスコンパス 人工知能モジュール開発システム及び人工知能モジュール開発統合システム
JP2020533709A (ja) 2017-09-15 2020-11-19 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド ビデオ分類の方法、情報処理の方法及びサーバー

Also Published As

Publication number Publication date
JP2020166645A (ja) 2020-10-08

Similar Documents

Publication Publication Date Title
US11574011B2 (en) Merging feature subsets using graphical representation
WO2017140222A1 (zh) 机器学习模型的建模方法及装置
US11651247B2 (en) Method for verifying lack of bias of deep learning AI systems
JP6201792B2 (ja) 情報処理装置及び情報処理プログラム
CN112101572A (zh) 模型优化方法、装置、设备和介质
JP7352369B2 (ja) 予測モデル評価システム、予測モデル評価方法
JP2020095398A (ja) モデルの予測根拠提示システム及びモデルの予測根拠提示方法
JP7207540B2 (ja) 学習支援装置、学習支援方法、及びプログラム
Collaris et al. Strategyatlas: Strategy analysis for machine learning interpretability
JP2021096775A (ja) 学習方法、学習プログラムおよび情報処理装置
Rosli et al. The design of a software fault prone application using evolutionary algorithm
Riazy et al. Systematic literature review of fairness in learning analytics and application of insights in a case study
CN112184059A (zh) 评分分析方法、装置、电子设备及存储介质
US11475467B2 (en) System and method for unsupervised abstraction of sensitive data for realistic modeling
Jannach et al. Adaptive recommendation-based modeling support for data analysis workflows
JP2022068690A (ja) 意思決定支援装置
JP6860602B2 (ja) 汎用人工知能装置及び汎用人工知能プログラム
US11842357B2 (en) Intelligent agent to simulate customer data
JP2020204993A (ja) データ評価システム、データ評価方法
JP2021174330A (ja) 異種機械学習のアンサンブル学習による予測装置
JP2020009502A (ja) 情報処理装置及び情報処理方法
WO2022149372A1 (ja) 情報処理装置、情報処理方法及びプログラム
CN113362179B (zh) 交易数据的预测方法、装置、设备、存储介质及程序产品
Locke Basics of knowledge engineering
WO2024013939A1 (ja) 機械学習プログラム、機械学習方法、および情報処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230915

R150 Certificate of patent or registration of utility model

Ref document number: 7352369

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150