JP6954082B2 - 学習プログラム、予測プログラム、学習方法、予測方法、学習装置および予測装置 - Google Patents

学習プログラム、予測プログラム、学習方法、予測方法、学習装置および予測装置 Download PDF

Info

Publication number
JP6954082B2
JP6954082B2 JP2017241179A JP2017241179A JP6954082B2 JP 6954082 B2 JP6954082 B2 JP 6954082B2 JP 2017241179 A JP2017241179 A JP 2017241179A JP 2017241179 A JP2017241179 A JP 2017241179A JP 6954082 B2 JP6954082 B2 JP 6954082B2
Authority
JP
Japan
Prior art keywords
error
data
learning
data group
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017241179A
Other languages
English (en)
Other versions
JP2019109634A (ja
Inventor
勉 石田
勉 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017241179A priority Critical patent/JP6954082B2/ja
Priority to US16/207,247 priority patent/US11170321B2/en
Publication of JP2019109634A publication Critical patent/JP2019109634A/ja
Application granted granted Critical
Publication of JP6954082B2 publication Critical patent/JP6954082B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • G06Q30/0206Price or cost determination based on market factors

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Operations Research (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Algebra (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明の実施形態は、学習プログラム、予測プログラム、学習方法、予測方法、学習装置および予測装置に関する。
部品を製造するコストは、部品の製造における加工内容により異なる。個別の部品の加工内容は部品の製造時に明確となるため、部品の発注を受けるための価格見積の際には、部品製造コストおよび関連費用を推定した値予測が必要になる。
従来、部品を発注する際の価格見積などの値予測においては、突起の高さ、穴の形状、面積、公差許容限界などの特徴量から予測モデルを用いて見積価格の予測を行っている。この値予測にかかる予測モデル(学習モデルとも呼ぶ)については、予測モデルから出力される予測値の誤差が大きくなった場合に、予測モデルの再学習を行いモデルを更新して予測精度の高い予測モデルを構築するものが知られている。
特開2004−86896号公報 特開2000−259223号公報
しかしながら、上記の従来技術では、学習モデルの精度を高めたとしても、予測対象のデータについて学習モデルを用いて求めた予測値の誤差がどの程度あるかは得られないという問題がある。
例えば、部品の価格見積などにおいては、公差許容限界がある段階を超えると製造工程や加工方法が通常時と異なる場合があり、見積価格の予測値と真値との間に大きな誤差が生じることがある。したがって、学習モデルによる予測値がどの程度信用できるかについては、部品の製造過程を熟知した経験者等の判断を要することとなる。
1つの側面では、学習モデルの学習を行いつつ、学習モデルによる予測値の誤差判定を行うことを可能とする学習プログラム、予測プログラム、学習方法、予測方法、学習装置および予測装置を提供することを目的とする。
第1の案では、学習プログラムは、複数の教師データからテストデータ群を除外したデータの一部である第1の教師データ群を用いて学習モデルの学習を行い、テストデータ群を用いて、学習モデルの予測精度を算出する処理をコンピュータに実行させる。また、学習プログラムは、予測精度が所定の条件を満たす場合は、複数の教師データからテストデータ群、および、第1の教師データ群を除外した残りのデータである第2の教師データ群を用いて、学習モデルによる予測値の誤差が所定の条件を満たすかを判別する誤差推定モデルの学習を行う処理をコンピュータに実行させる。
本発明の1実施態様によれば、学習モデルの学習を行いつつ、学習モデルによる予測値の誤差判定を行うことができる。
図1は、実施形態にかかる学習装置および予測装置の機能構成を例示するブロック図である。 図2は、標本データの一例を示す説明図である。 図3は、教師データの生成を説明する説明図である。 図4は、誤差推定モデルの生成にかかる教師データを説明する説明図である。 図5は、誤差推定モデルによるクラス分類を説明する説明図である。 図6は、予測フェーズによる予測結果を説明する説明図である。 図7は、学習フェーズおよび予測フェーズの処理例を示すフローチャートである。 図8は、学習モデルの精度の違いを説明する説明図である。 図9は、プログラムを実行するコンピュータの一例を示す説明図である。
以下、図面を参照して、実施形態にかかる学習プログラム、予測プログラム、学習方法、予測方法、学習装置および予測装置を説明する。実施形態において同一の機能を有する構成には同一の符号を付し、重複する説明は省略する。なお、以下の実施形態で説明する学習プログラム、予測プログラム、学習方法、予測方法、学習装置および予測装置は、一例を示すに過ぎず、実施形態を限定するものではない。また、以下の各実施形態は、矛盾しない範囲内で適宜組みあわせてもよい。
図1は、実施形態にかかる学習装置および予測装置の機能構成を例示するブロック図である。図1に示すように、学習装置1は、部品の発注実績を蓄積した標本データ10bを複数の教師データとして発注する部品の価格予測にかかる学習モデル13および誤差推定モデル14の学習(生成)を行う装置である。予測装置2は、学習装置1で学習した学習モデル13および誤差推定モデル14を用いて新規部品の特徴を含む予測対象データ20aに対する価格などの予測結果を出力する装置である。
本実施形態では、学習モデル13および誤差推定モデル14の学習を行う学習装置1と、学習装置1により学習した学習モデル13および誤差推定モデル14を用いて予測対象データ20aから予測結果を得る予測装置2とを分離して実現する構成を例示する。なお、学習装置1と、予測装置2とは、分離することなく、学習装置1、予測装置2の機能を統合した情報処理装置として実現してもよい。
また、値予測について、本実施形態では発注する部品の価格を予測するケースに適用する場合を説明するが、特に部品価格の予測に限定するものではない。例えば、発注する部品の納期の予測や株価の予測などの様々な値予測に適用してもよい。
学習装置1は、入力部10、教師データ生成部11およびモデル生成部12を有する。入力部10は、学習モデル13の精度についての閾値10aと、教師データのもととなる標本データ10bと、誤差推定モデル14における誤差についての閾値10cとを入力データとして受け付ける。
閾値10aは、学習モデル13における説明変数が被説明変数(目的変数)をどの程度説明できるかの精度を表す値(例えば決定係数)についての閾値である。
閾値10cは、誤差推定モデル14を学習する際の、誤差の範囲(大小)を定めるための閾値である。例えば、誤差±10%を区切りにして誤差(大)/誤差(小)とする場合は、誤差±10%が閾値10cとなる。
図2は、標本データ10bの一例を示す説明図である。図2に示すように、標本データ10bは、過去に発注して得られた部品ごとの価格およびその部品における特徴量(表面積、穴径、公差上限…)を示すデータである。
教師データ生成部11は、入力部10より入力された標本データ10bに基づいて学習モデル13および誤差推定モデル14の学習を行うための教師データ(群)を生成する。具体的には、教師データ生成部11は、標本データ10bから検証用のテストデータ群を除外したデータを教師用の教師データ(群)とする。そして、教師データ生成部11は、教師データを学習モデル13用の教師データと、誤差推定モデル14用の教師データの2つのグループに分類するデータ分割部11aを有する。なお、教師データ・テストデータの分割については、任意に行うものであってよく、例えば教師データを標本データ10bの80%、テストデータを20%とし、ランダムに振り分ける。
図3は、教師データの生成を説明する説明図である。図3では、部品の特徴量に含まれる公差上限を横軸に、表面積を縦軸にして、標本データ10bにおける全部品のデータ(全教師データ)をプロットしている。
図3に示すように、データ分割部11aは、標本データ10bに含まれる全部品のデータからランダムに選択することで、学習モデル13用の教師データd1と(図中の黒丸)、誤差推定モデル14用の教師データd2と(図中の黒三角)を生成する。
データ分割部11aは、標本データ10bをもとに教師データd1、d2へ分割する割合については、当初は任意に設定された値とする。そして、データ分割部11aは、学習モデル精度評価部12bにより学習モデル13の予測精度が所定の条件を満たさないと評価された場合に、教師データd1側に振り分ける割合を増やして教師データd1、d2の再分割を行う。
モデル生成部12は、学習モデル13および誤差推定モデル14の学習にかかる処理を行う機能部であり、学習モデル生成部12a、学習モデル精度評価部12b、誤差推定モデル生成部12cおよび誤差推定モデル精度評価部12dを有する。
学習モデル生成部12aは、学習モデル13用の教師データd1に含まれる学習データによる教師付き学習により学習モデル13を生成する。具体的には、学習モデル生成部12aは、学習データに示された部品ごとの価格および特徴量による回帰分析、SVR(Support Vector Regression)などの公知の手法を用いて特徴量から価格を予測する学習モデル13を生成する。
例えば、線形回帰の場合、学習モデル生成部12aは、次の式(1)を用いてwおよびCを求める。ここで、pは、目的変数であり、部品(i)の価格である。wは、特徴量(k)に対する重みである。xikは、説明変数であり、部品(i)の特徴量(k)の値である。Cは、定数項である。
Figure 0006954082
学習モデル精度評価部12bは、テストデータを生成された学習モデル13に代入し、学習モデル13における特徴量−価格の再現性(予測精度)を評価する。具体的には、学習モデル精度評価部12bは、テストデータによる交差検証(cross-validation)で学習モデル13の予測精度を示す決定係数(R)を算出する。
そして、学習モデル精度評価部12bは、算出した決定係数(R)が入力された閾値10aを上回るか否かで、学習モデル13の評価を行う。予測精度が閾値10aを上回る場合、学習モデル精度評価部12bは、学習モデル13の予測精度が入力された条件を満たすことを誤差推定モデル生成部12cに通知する。この通知を受けて、誤差推定モデル生成部12cは誤差推定モデル14の生成を行う。
予測精度が閾値10aを上回らない場合、学習モデル精度評価部12bは、学習モデル13の予測精度が所定の条件を満たさないことをデータ分割部11aに通知する。この通知を受けてデータ分割部11aでは、教師データd1の割合を増やすようにして教師データd1、d2の再分割を行う。
誤差推定モデル生成部12cは、標本データ10bに基づく教師データの残り(教師データd2)を用いて、学習モデル13による予測値の誤差が入力された閾値10cの条件を満たすかを判別する誤差推定モデル14を生成する。
具体的には、誤差推定モデル生成部12cは、誤差推定モデル14用の教師データd2に含まれる学習データを学習モデル13に代入して価格を予測する。次いで、誤差推定モデル生成部12cは、学習データが示す真の価格と、学習モデル13による予測値とを比較し、真の価格に対する予測値の誤差を求める。次いで、誤差推定モデル生成部12cは、求めた誤差が閾値10cの範囲内(例えば真の価格の±10%以内)ならば範囲内を示すフラグ(1)を、範囲外ならば範囲外を示すフラグ(0)を付与し、誤差の大・小を判別する。なお、フラグ付けについては、2値に限定するものではなく、多値(±10%以内、±10〜20%、±20〜30%、…)であってもよい。
次いで、誤差推定モデル生成部12cは、誤差の大(0)・小(1)を判別した教師データd2に含まれる学習データを誤差推定モデル14の教師データとする教師付き学習により、2値(誤差の大・小)のクラス分類などを行う誤差推定モデル14を生成する。
図4は、誤差推定モデル14の生成にかかる教師データを説明する説明図である。図4に示すように、誤差推定モデル14の生成にかかる教師データ10dには、学習モデル13による予測値の誤差と、誤差の大(0)・小(1)を判別したフラグが付与されている。
誤差推定モデル生成部12cは、図4に示す誤差を判別したフラグ付きの教師データ10dにより、例えば多層ニューラルネットワークによるディープラーニング(Deep Learning)などの公知の手法を用いて誤差推定モデル14を生成する。
一例として、ディープラーニングでは、教師あり学習において一般的に誤差逆伝播法が用いられる。この誤差逆伝播法では、誤差推定モデル生成部12cは、教師データ10dに含まれる部品ごとの特徴量(表面積、穴径、公差上限…)を誤差推定モデル14に順伝播させて認識を行う。次いで、誤差推定モデル生成部12cは、誤差推定モデル14の出力側から得られる予測値の誤差や誤差の大小を正解(教師データ10d)と比較して誤差(正解との)を求める。そして、誤差推定モデル生成部12cは、認識結果と正解との誤差を認識時と逆方向に誤差推定モデル14に伝播させ、誤差推定モデル14における多層ニューラルネットワークの各階層のパラメータを変更して最適解に近づけていく。
なお、誤差推定モデル14における入力については、部品のCADデータなど、価格予測とは異なる特徴量を用いてもよい。このように、価格予測とは異なる特徴量を用いることで、値予測の学習モデル13とは独立して誤差推定モデル14を学習するようにしてもよい。
図5は、誤差推定モデル14によるクラス分類を説明する説明図である。図5に示すように、誤差推定モデル14を生成することで、特徴量(図示例では表面積、公差上限)に対し、価格の予測値における誤差の大小をクラス分類する境界線Lが求まることとなる。図5の例では、図4の教師データ10dに含まれる部品(C、F、K…)より、価格の予測値における誤差±10%の範囲を示す境界線Lが得られる。
誤差推定モデル精度評価部12dは、テストデータを生成された誤差推定モデル14に代入し、誤差推定モデル14における特徴量−誤差の再現性(誤差の予測精度)を評価する。具体的には、誤差推定モデル精度評価部12dは、テストデータによる交差検証で誤差推定モデル14における誤差の予測精度を示す全体正解率(Accuracy)を算出する。なお、誤差推定モデル14における誤差の予測精度については、本実施形態では全体正解率を算出する構成を例示するが、全体正解率に限定するものではなく、F-measure(F値)などであってもよい。
そして、誤差推定モデル精度評価部12dは、算出した全体正解率が予め設定された閾値を上回るか否かで、誤差推定モデル14の評価を行う。誤差の予測精度が閾値を上回る場合、誤差推定モデル精度評価部12dは、誤差推定モデル14における誤差の予測精度が所定の条件を満たすことを誤差推定モデル生成部12cに通知する。この通知を受けて、誤差推定モデル生成部12cは誤差推定モデル14の生成を終了する。
誤差の予測精度が閾値を上回らない場合、誤差推定モデル精度評価部12dは、誤差推定モデル14における誤差の予測精度が所定の条件を満たさないことを誤差推定モデル生成部12cに通知する。この通知を受けて誤差推定モデル生成部12cでは、誤差の範囲(大小)を定める閾値を変更する。具体的には、誤差推定モデル生成部12cは、誤差推定モデル14の予測精度が所定の条件を満たさない場合は、予測値の誤差の条件を緩和する。一例として、誤差推定モデル生成部12cは、真値に対する誤差の範囲を広くする(例えば±10%から±20%にする)。
予測装置2は、入力部20、予測部21、誤差判別部22および出力部23を有する。入力部20は、予測対象データ20aの入力を受け付ける。
予測部21は、学習装置1で生成(学習)された学習モデル13に予測対象データ20aを入力して、予測値(部品の価格)を取得する。誤差判別部22は、学習装置1で生成された誤差推定モデル14に予測対象データ20aを入力して、予測値の誤差の判定結果(予測した価格にかかる誤差の大小のクラス分類結果)を取得する。
出力部23は、予測部21による予測値および誤差判別部22による予測値の誤差の判定結果について、ディスプレイへの表示出力、紙媒体等への印字出力またはファイル出力などを行う。
図6は、予測フェーズによる予測結果を説明する説明図である。図6に示すように、予測装置2による予測フェーズでは、新規部品(X,Y)についての特徴量を示す予測対象データ20aを予測装置2に入力する。予測装置2は、学習モデル13により新規部品(X,Y)についての価格を取得する。また、予測装置2は、誤差推定モデル14により予測した価格についての誤差の判定結果(誤差10%以内の確度)を取得する。
次いで、予測装置2は、新規部品(X,Y)について、予測した価格(予測値)および誤差の判定結果(誤差10%以内の確度)を含む出力データを出力する。
この出力データ23aにより、ユーザは、予測対象データ20aに対して予測した価格と、予測した価格についての誤差の判定結果とを確認できる。例えば、ユーザは、Xの見積価格は4000円であり、その誤差が10%以内である確度(確率)は0.98と1に近い(高い)ことがわかる。また、ユーザは、Yの見積価格は2000円であり、その誤差が10%以内である確度(確率)は0.23と0に近い(低い)ことがわかる。
なお、誤差の判定結果については、図示例のように誤差10%以内の境界線Lより内側であることの確度(確率)を求めて出力してもよい。または、誤差の大小(例えば誤差10%以内であるか否か)をフラグで示すものであってもよく、特に図示例に限定しない。
ここで、学習装置1における処理(学習フェーズ)と、予測装置2における処理(予測フェーズ)の詳細を説明する。図7は、学習フェーズ(S1)および予測フェーズ(S2)の処理例を示すフローチャートである。
図7に示すように、学習フェーズ(S1)が開始されると、データ分割部11aは、入力された標本データ10bより学習モデル13および誤差推定モデル14用の教師データd1、d2の分割を行う(S10)。次いで、学習モデル生成部12aは、分割された教師データの一方(d1)に含まれる学習データで学習モデル13を生成する(S11)。
次いで、学習モデル精度評価部12bは、テストデータで学習モデル13の精度(決定係数)を評価する(S12)。次いで、学習モデル精度評価部12bは、学習モデル13の精度が閾値10a以上であるか否かを判定する(S13)。
閾値10a以上でない場合(S13:NO)、学習モデル精度評価部12bは、学習モデル13の予測精度が所定の条件を満たさないことをデータ分割部11aに通知してS10へ処理を戻す。これにより、データ分割部11aでは、教師データd1の割合を増やすようにして教師データd1、d2の再分割が行われることとなる。
閾値10a以上である場合(S13:YES)、誤差推定モデル生成部12cは、誤差推定モデル14を生成する際の、誤差の大・小の境界条件を決定する(S14)。
具体的には、誤差推定モデル生成部12cは、入力された閾値10cを誤差の大・小の境界条件とする。または、誤差推定モデル生成部12cは、教師データd2のデータ量(標本数)に基づいて誤差の大・小の境界条件を決定してもよい。例えば、誤差推定モデル生成部12cは、教師データd2に含まれる標本数が所定値以上であり、十分な標本数がある場合は誤差の範囲を狭く(例えば±10%)とする。逆に、誤差推定モデル生成部12cは、教師データd2に含まれる標本数が所定値未満であり、十分な標本数がない場合は誤差の範囲を広く(例えば±20%)とする。
次いで、誤差推定モデル生成部12cは、残りの教師データd2で学習モデル13による予測値の誤差がS14で決定された境界条件を満たすか否かを判別する誤差推定モデル14を生成する(S15)。
次いで、誤差推定モデル精度評価部12dは、テストデータで誤差推定モデル14による全体正解率の推定精度を評価する(S16)。次いで、誤差推定モデル精度評価部12dは、誤差推定モデル14の精度が予め設定された閾値以上であるか否かを判定する(S17)。
閾値以上でない場合(S17:NO)、誤差推定モデル精度評価部12dは、誤差推定モデル14の誤差の予測精度が所定の条件を満たさないことを誤差推定モデル生成部12cに通知してS14へ処理を戻す。これにより、誤差推定モデル生成部12cでは、予測値の誤差の境界条件を緩和する。一例として、誤差推定モデル生成部12cは、真値に対する誤差の範囲を広くする(例えば±10%から±20%にする)。
閾値以上である場合(S17:YES)、モデル生成部12は、生成した学習モデル13および誤差推定モデル14を予測装置2などに出力する(S18)。
予測フェーズ(S2)が開始されると、予測部21は、入力された予測対象データ20aに対し、生成された学習モデル13で予測値(価格)を算出する(S20)。次いで、誤差判別部22は、入力された予測対象データ20aに対し、生成された誤差推定モデル14で予測値の誤差を判定する(S21)。次いで、出力部23は、予測対象データ20aに対する予測値と予測値の誤差を含む出力データ23aを出力する(S22)。
以上のように、学習装置1は、学習モデル生成部12aと、学習モデル精度評価部12bと、誤差推定モデル生成部12cとを有する。学習モデル生成部12aは、複数の教師データからテストデータ群を除外したデータの一部である第1の教師データ(d1)群を用いて学習モデル13の学習を行う。学習モデル精度評価部12bは、テストデータを用いて、学習モデル13の予測精度を算出する。誤差推定モデル生成部12cは、予測精度が所定の条件を満たす場合は、予測精度が所定の条件を満たす場合は、複数の教師データからテストデータ群、および、第1の教師データ群を除外した残りのデータである第2の教師データ(d2)群を用いて学習モデル13による予測値の誤差が所定の条件を満たすかを判別する誤差推定モデル14の学習を行う。このように、入力された複数の教師データより学習モデル13および誤差推定モデル14の学習を行うことで、予測精度が所定の条件を満たすように学習モデル13の学習を行うことができる。また、予測対象のデータについて学習モデル13による予測値の誤差判定を誤差推定モデル14を用いて行うことができる。
また、学習装置1では、予測精度が所定の条件を満たすように学習モデル13の学習を行うことで、誤差推定モデル14における予測値の誤差判定の確度を高めることができる。
図8は、学習モデル13の精度の違いを説明する説明図である。図8において、ケースC1は、予測精度が所定の条件を満たすように学習モデル13の精度を高めたケースである。逆に、ケースC2は、予測精度が所定の条件を満たすように学習モデル13の精度を高めておらず、ケースC1よりも学習モデル13の精度が低いケースである。
図8に示すように、ケースC1では、学習モデル13の精度が高く、学習モデル13による予測値の誤差が小さくなる場合が多くなる。このため、誤差推定モデル14を生成する際の教師データ10dについて、誤差(大)とするラベル(0)または誤差(小)とするラベル(1)を精度よく付与でき、精度の高い誤差推定モデル14を生成できる。よって、予測対象データ20aに対して学習モデル13および誤差推定モデル14を用いた出力データ23aでは、新規部品における予測値(予測価格)と、その予測値における誤差の判別結果を確度のよいものとすることができる。
これに対し、ケースC2では、学習モデル13の精度がケースC1よりも低く、学習モデル13による予測値の誤差が大きくなる場合が多くなる。このため、ケースC2では、誤差推定モデル14を生成する際の教師データ10dについて、誤差(大)とするラベル(0)が多くなり、生成される誤差推定モデル14の精度が低くなる。よって、予測対象データ20aに対して学習モデル13および誤差推定モデル14を用いた出力データ23aでは、予測値における誤差の判別結果の確度が低くなる。
予測装置2は、入力部20と、予測部21と、誤差判別部22と、出力部23とを有する。入力部20は、予測対象データ20aの入力を受け付ける。予測部21は、複数の教師データからテストデータ群を除外したデータの一部である第1の教師データ群を用いて学習した学習モデル13に予測対象データ20aを入力し、入力に対する予測値を取得する。誤差判別部22は、複数の教師データからテストデータ群、および、第1の教師データ群を除外した残りのデータである第2の教師データ群を用いて学習した、学習モデル13による予測値の誤差が所定の条件を満たすかを判別する誤差推定モデル14に予測対象データ20aを入力し、入力に対する予測値の誤差の判定結果を取得する。出力部23は、取得した予測値および予測値の誤差の判定結果を出力する。これにより、ユーザは、予測対象データ20aに対する予測値と、予測値における誤差の判定結果を確認できる。
例えば、部品の価格見積などにおいては、公差許容限界などの特徴によって見積価格の予測値と真値との間に大きな誤差が生じることがあり、部品の製造過程を熟知した経験者等の判断を要する場合があった。これに対し、予測装置2のユーザは、予測対象データ20aに対する予測値についてどの程度信用できるかを、予測値における誤差の判定結果により容易に確認できる。
また、学習モデル生成部12aは、学習モデル精度評価部12bが算出した予測精度が所定の条件を満たさない場合、複数の教師データのうちで学習モデル13の学習に用いる割合を増加する。このように学習モデル13の学習に用いる割合を増加することで、学習モデル13用の教師データに含まれる標本数が多くなることから、学習モデル13の予測精度を高めることができる。
また、誤差推定モデル生成部12cは、第2の教師データ群のデータ量に基づいて予測値の誤差の条件を決定する。例えば、誤差推定モデル生成部12cは、誤差推定モデル14用の教師データd2のデータ量、すなわち標本数が所定値以上の場合は精度の高い誤差推定モデル14を生成できることから、真値に対する誤差の範囲を狭く(例えば±10%)とする。また、モデル生成部12は、誤差推定モデル14用の教師データのデータ量が所定値未満である場合は真値に対する誤差の範囲を広く(例えば±20%)とする。このように、誤差推定モデル生成部12cは、誤差推定モデル14用の教師データのデータ量に基づいて予測値の誤差の条件を変更してもよい。
また、学習装置1は、テストデータを用いて誤差推定モデル14の予測精度を算出する誤差推定モデル精度評価部12dを有する。誤差推定モデル生成部12cは、算出した誤差推定モデル14の予測精度が所定の条件を満たさない場合は、予測値の誤差の条件を変更する。例えば、誤差推定モデル生成部12cは、誤差推定モデル14の予測精度が所定の条件を満たさない場合は、予測値の誤差の条件を緩和する。具体的には、真値に対する誤差の範囲を広くする(例えば±10%から±20%にする)。このように誤差推定モデル14の予測精度が所定の条件を満たさない場合に予測値の誤差の条件を変更することで、例えば誤差を低く判定した結果が外れるような、誤差推定モデル14における予測精度の低減を抑止することができる。
なお、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
学習装置1、予測装置2で行われる各種処理機能は、CPU(またはMPU、MCU(Micro Controller Unit)等のマイクロ・コンピュータ)上で、その全部または任意の一部を実行するようにしてもよい。また、各種処理機能は、CPU(またはMPU、MCU等のマイクロ・コンピュータ)で解析実行されるプログラム上、またはワイヤードロジックによるハードウエア上で、その全部または任意の一部を実行するようにしてもよいことは言うまでもない。また、学習装置1、予測装置2で行われる各種処理機能は、クラウドコンピューティングにより、複数のコンピュータが協働して実行してもよい。
ところで、上記の実施形態で説明した各種の処理は、予め用意されたプログラムをコンピュータで実行することで実現できる。そこで、以下では、上記の実施例と同様の機能を有するプログラムを実行するコンピュータ(ハードウエア)の一例を説明する。図9は、プログラムを実行するコンピュータの一例を示す説明図である。
図9に示すように、コンピュータ3は、各種演算処理を実行するCPU101と、データ入力を受け付ける入力装置102と、モニタ103と、スピーカ104とを有する。また、コンピュータ3は、記憶媒体からプログラム等を読み取る媒体読取装置105と、各種装置と接続するためのインタフェース装置106と、有線または無線により外部機器と通信接続するための通信装置107とを有する。また、コンピュータ3は、各種情報を一時記憶するRAM108と、ハードディスク装置109とを有する。また、コンピュータ3内の各部(101〜109)は、バス110に接続される。
ハードディスク装置109には、上記の実施形態で説明した入力部10、20、教師データ生成部11、モデル生成部12、予測部21、誤差判別部22および出力部23等の機能部における各種処理を実行するためのプログラム111が記憶される。また、ハードディスク装置109には、プログラム111が参照する各種データ112が記憶される。入力装置102は、例えば、コンピュータ3の操作者から操作情報の入力を受け付ける。モニタ103は、例えば、操作者が操作する各種画面を表示する。インタフェース装置106は、例えば印刷装置等が接続される。通信装置107は、LAN(Local Area Network)等の通信ネットワークと接続され、通信ネットワークを介した外部機器との間で各種情報をやりとりする。
CPU101は、ハードディスク装置109に記憶されたプログラム111を読み出して、RAM108に展開して実行することで、入力部10、20、教師データ生成部11、モデル生成部12、予測部21、誤差判別部22および出力部23等にかかる各種の処理を行う。なお、プログラム111は、ハードディスク装置109に記憶されていなくてもよい。例えば、コンピュータ3が読み取り可能な記憶媒体に記憶されたプログラム111を、コンピュータ3が読み出して実行するようにしてもよい。コンピュータ3が読み取り可能な記憶媒体は、例えば、CD−ROMやDVDディスク、USB(Universal Serial Bus)メモリ等の可搬型記録媒体、フラッシュメモリ等の半導体メモリ、ハードディスクドライブ等が対応する。また、公衆回線、インターネット、LAN等に接続された装置にプログラム111を記憶させておき、コンピュータ3がこれらからプログラム111を読み出して実行するようにしてもよい。
以上の実施形態に関し、さらに以下の付記を開示する。
(付記1)複数の教師データからテストデータ群を除外したデータの一部である第1の教師データ群を用いて学習モデルの学習を行い、
前記テストデータ群を用いて、前記学習モデルの予測精度を算出し、
前記予測精度が所定の条件を満たす場合は、前記複数の教師データから前記テストデータ群、および、前記第1の教師データ群を除外した残りのデータである第2の教師データ群を用いて、前記学習モデルによる予測値の誤差が所定の条件を満たすかを判別する誤差推定モデルの学習を行う、
処理をコンピュータに実行させる学習プログラム。
(付記2)前記学習モデルの学習を行う処理は、算出した前記予測精度が所定の条件を満たさない場合、前記複数の教師データのうちで前記第1の教師データ群の割合を増加する、
付記1に記載の学習プログラム。
(付記3)前記誤差推定モデルの学習を行う処理は、前記第2の教師データ群のデータ量に基づいて前記予測値の誤差の条件を決定する、
付記1または2に記載の学習プログラム。
(付記4)前記テストデータ群を用いて前記誤差推定モデルの予測精度を算出する処理を更にコンピュータに実行させ、
前記誤差推定モデルの学習を行う処理は、算出した前記誤差推定モデルの予測精度が所定の条件を満たさない場合は、前記予測値の誤差の条件を変更する、
付記1乃至3のいずれか一に記載の学習プログラム。
(付記5)予測対象の入力データを受け付け、
複数の教師データからテストデータ群を除外したデータの一部である第1の教師データ群を用いて学習した学習モデルに前記予測対象の入力データを入力して当該入力データに対する予測値を取得し、
前記テストデータ群を用いて算出した前記学習モデルの予測精度が所定の条件を満たす場合に前記複数の教師データから前記テストデータ群、および、前記第1の教師データ群を除外した残りのデータである第2の教師データ群を用いて学習した、前記学習モデルによる予測値の誤差が所定の条件を満たすかを判別する誤差推定モデルに、前記予測対象の入力データを入力して当該入力データに対する予測値の誤差の判定結果を取得し、
取得した前記予測値および前記予測値の誤差の判定結果を出力する、
処理をコンピュータに実行させる予測プログラム。
(付記6)複数の教師データからテストデータ群を除外したデータの一部である第1の教師データ群を用いて学習モデルの学習を行い、
前記テストデータ群を用いて、前記学習モデルの予測精度を算出し、
前記予測精度が所定の条件を満たす場合は、前記複数の教師データから前記テストデータ群、および、前記第1の教師データ群を除外した残りのデータである第2の教師データ群を用いて、前記学習モデルによる予測値の誤差が所定の条件を満たすかを判別する誤差推定モデルの学習を行う、
処理をコンピュータが実行する学習方法。
(付記7)前記学習モデルの学習を行う処理は、算出した前記予測精度が所定の条件を満たさない場合、前記複数の教師データのうちで前記第1の教師データ群の割合を増加する、
付記6に記載の学習方法。
(付記8)前記誤差推定モデルの学習を行う処理は、前記第2の教師データ群のデータ量に基づいて前記予測値の誤差の条件を決定する、
付記6または7に記載の学習方法。
(付記9)前記テストデータ群を用いて前記誤差推定モデルの予測精度を算出する処理を更にコンピュータに実行させ、
前記誤差推定モデルの学習を行う処理は、算出した前記誤差推定モデルの予測精度が所定の条件を満たさない場合は、前記予測値の誤差の条件を変更する、
付記6乃至8のいずれか一に記載の学習方法。
(付記10)予測対象の入力データを受け付け、
複数の教師データからテストデータ群を除外したデータの一部である第1の教師データ群を用いて学習した学習モデルに前記予測対象の入力データを入力して当該入力データに対する予測値を取得し、
前記テストデータ群を用いて算出した前記学習モデルの予測精度が所定の条件を満たす場合に前記複数の教師データから前記テストデータ群、および、前記第1の教師データ群を除外した残りのデータである第2の教師データ群を用いて学習した、前記学習モデルによる予測値の誤差が所定の条件を満たすかを判別する誤差推定モデルに、前記予測対象の入力データを入力して当該入力データに対する予測値の誤差の判定結果を取得し、
取得した前記予測値および前記予測値の誤差の判定結果を出力する、
処理をコンピュータが実行する予測方法。
(付記11)複数の教師データからテストデータ群を除外したデータの一部である第1の教師データ群を用いて学習モデルの学習を行う学習モデル生成部と、
前記テストデータ群を用いて、前記学習モデルの予測精度を算出する学習モデル精度評価部と、
前記予測精度が所定の条件を満たす場合は、前記複数の教師データから前記テストデータ群、および、前記第1の教師データ群を除外した残りのデータである第2の教師データ群を用いて、前記学習モデルによる予測値の誤差が所定の条件を満たすかを判別する誤差推定モデルの学習を行う誤差推定モデル生成部と、
を有する学習装置。
(付記12)前記学習モデル生成部は、算出した前記予測精度が所定の条件を満たさない場合、前記複数の教師データのうちで前記第1の教師データ群の割合を増加する、
付記11に記載の学習装置。
(付記13)前記誤差推定モデル生成部は、前記第2の教師データ群のデータ量に基づいて前記予測値の誤差の条件を決定する、
付記11または12に記載の学習装置。
(付記14)前記テストデータ群を用いて前記誤差推定モデルの予測精度を算出する誤差推定モデル精度評価部を更に有し、
前記誤差推定モデル生成部は、算出した前記誤差推定モデルの予測精度が所定の条件を満たさない場合は、前記予測値の誤差の条件を変更する、
付記11乃至13のいずれか一に記載の学習装置。
(付記15)予測対象の入力データを受け付ける入力部と、
複数の教師データの一部のデータを用いて学習した学習モデルに前記予測対象の入力データを入力して当該入力データに対する予測値を取得する予測部と、
前記複数の教師データに含まれるテストデータを用いて算出した前記学習モデルの予測精度が所定の条件を満たす場合に前記複数の教師データの残りのデータを用いて学習した、前記学習モデルによる予測値の誤差が所定の条件を満たすかを判別する誤差推定モデルに、前記予測対象の入力データを入力して当該入力データに対する予測値の誤差の判定結果を取得する誤差判別部と、
取得した前記予測値および前記予測値の誤差の判定結果を出力する出力部と、
を有することを特徴とする予測装置。
1…学習装置
2…予測装置
3…コンピュータ
10、20…入力部
10a、10c…閾値
10b…標本データ
10d、d1、d2…教師データ
11…教師データ生成部
11a…データ分割部
12…モデル生成部
12a…学習モデル生成部
12b…学習モデル精度評価部
12c…誤差推定モデル生成部
12d…誤差推定モデル精度評価部
13…学習モデル
14…誤差推定モデル
20a…予測対象データ
21…予測部
22…誤差判別部
23…出力部
23a…出力データ
101…CPU
102…入力装置
103…モニタ
104…スピーカ
105…媒体読取装置
106…インタフェース装置
107…通信装置
108…RAM
109…ハードディスク装置
110…バス
111…プログラム
112…各種データ
C1、C2…ケース
L…境界線

Claims (9)

  1. 複数の教師データからテストデータ群を除外したデータの一部である第1の教師データ群を用いて学習モデルの学習を行い、
    前記テストデータ群を用いて、前記学習モデルの予測精度を算出し、
    前記予測精度が所定の条件を満たす場合は、前記複数の教師データから前記テストデータ群、および、前記第1の教師データ群を除外した残りのデータである第2の教師データ群を用いて、前記学習モデルによる予測値の誤差が所定の条件を満たすかを判別する誤差推定モデルの学習を行う、
    処理をコンピュータに実行させる学習プログラム。
  2. 前記学習モデルの学習を行う処理は、算出した前記予測精度が所定の条件を満たさない場合、前記複数の教師データのうちで前記第1の教師データ群の割合を増加する、
    請求項1に記載の学習プログラム。
  3. 前記誤差推定モデルの学習を行う処理は、前記第2の教師データ群のデータ量に基づいて前記予測値の誤差の条件を決定する、
    請求項1または2に記載の学習プログラム。
  4. 前記テストデータ群を用いて前記誤差推定モデルの予測精度を算出する処理を更にコンピュータに実行させ、
    前記誤差推定モデルの学習を行う処理は、算出した前記誤差推定モデルの予測精度が所定の条件を満たさない場合は、前記予測値の誤差の条件を変更する、
    請求項1乃至3のいずれか一項に記載の学習プログラム。
  5. 予測対象の入力データを受け付け、
    複数の教師データからテストデータ群を除外したデータの一部である第1の教師データ群を用いて学習した学習モデルに前記予測対象の入力データを入力して当該入力データに対する予測値を取得し、
    前記テストデータ群を用いて算出した前記学習モデルの予測精度が所定の条件を満たす場合に前記複数の教師データから前記テストデータ群、および、前記第1の教師データ群を除外した残りのデータである第2の教師データ群を用いて学習した、前記学習モデルによる予測値の誤差が所定の条件を満たすかを判別する誤差推定モデルに、前記予測対象の入力データを入力して当該入力データに対する予測値の誤差の判定結果を取得し、
    取得した前記予測値および前記予測値の誤差の判定結果を出力する、
    処理をコンピュータに実行させる予測プログラム。
  6. 複数の教師データからテストデータ群を除外したデータの一部である第1の教師データ群を用いて学習モデルの学習を行い、
    前記テストデータ群を用いて、前記学習モデルの予測精度を算出し、
    前記予測精度が所定の条件を満たす場合は、前記複数の教師データから前記テストデータ群、および、前記第1の教師データ群を除外した残りのデータである第2の教師データ群を用いて、前記学習モデルによる予測値の誤差が所定の条件を満たすかを判別する誤差推定モデルの学習を行う、
    処理をコンピュータが実行する学習方法。
  7. 予測対象の入力データを受け付け、
    複数の教師データからテストデータ群を除外したデータの一部である第1の教師データ群を用いて学習した学習モデルに前記予測対象の入力データを入力して当該入力データに対する予測値を取得し、
    前記テストデータ群を用いて算出した前記学習モデルの予測精度が所定の条件を満たす場合に前記複数の教師データから前記テストデータ群、および、前記第1の教師データ群を除外した残りのデータである第2の教師データ群を用いて学習した、前記学習モデルによる予測値の誤差が所定の条件を満たすかを判別する誤差推定モデルに、前記予測対象の入力データを入力して当該入力データに対する予測値の誤差の判定結果を取得し、
    取得した前記予測値および前記予測値の誤差の判定結果を出力する、
    処理をコンピュータが実行することを特徴とする予測方法。
  8. 複数の教師データからテストデータ群を除外したデータの一部である第1の教師データ群を用いて学習モデルの学習を行う学習モデル生成部と、
    前記テストデータ群を用いて、前記学習モデルの予測精度を算出する学習モデル精度評価部と、
    前記予測精度が所定の条件を満たす場合は、前記複数の教師データから前記テストデータ群、および、前記第1の教師データ群を除外した残りのデータである第2の教師データ群を用いて、前記学習モデルによる予測値の誤差が所定の条件を満たすかを判別する誤差推定モデルの学習を行う誤差推定モデル生成部と、
    を有する学習装置。
  9. 予測対象の入力データを受け付ける入力部と、
    複数の教師データからテストデータ群を除外したデータの一部である第1の教師データ群を用いて学習した学習モデルに前記予測対象の入力データを入力して当該入力データに対する予測値を取得する予測部と、
    前記テストデータ群を用いて算出した前記学習モデルの予測精度が所定の条件を満たす場合に前記複数の教師データから前記テストデータ群、および、前記第1の教師データ群を除外した残りのデータである第2の教師データ群を用いて学習した、前記学習モデルによる予測値の誤差が所定の条件を満たすかを判別する誤差推定モデルに、前記予測対象の入力データを入力して当該入力データに対する予測値の誤差の判定結果を取得する誤差判別部と、
    取得した前記予測値および前記予測値の誤差の判定結果を出力する出力部と、
    を有することを特徴とする予測装置。
JP2017241179A 2017-12-15 2017-12-15 学習プログラム、予測プログラム、学習方法、予測方法、学習装置および予測装置 Active JP6954082B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017241179A JP6954082B2 (ja) 2017-12-15 2017-12-15 学習プログラム、予測プログラム、学習方法、予測方法、学習装置および予測装置
US16/207,247 US11170321B2 (en) 2017-12-15 2018-12-03 Learning method, prediction method, learning device, predicting device, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017241179A JP6954082B2 (ja) 2017-12-15 2017-12-15 学習プログラム、予測プログラム、学習方法、予測方法、学習装置および予測装置

Publications (2)

Publication Number Publication Date
JP2019109634A JP2019109634A (ja) 2019-07-04
JP6954082B2 true JP6954082B2 (ja) 2021-10-27

Family

ID=66814570

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017241179A Active JP6954082B2 (ja) 2017-12-15 2017-12-15 学習プログラム、予測プログラム、学習方法、予測方法、学習装置および予測装置

Country Status (2)

Country Link
US (1) US11170321B2 (ja)
JP (1) JP6954082B2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7318646B2 (ja) * 2018-06-27 2023-08-01 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
CN110600081A (zh) * 2019-09-10 2019-12-20 吉林大学 一种端到端的基于深度学习的ncRNA家族识别方法
CN110798227B (zh) * 2019-09-19 2023-07-25 平安科技(深圳)有限公司 模型预测优化方法、装置、设备及可读存储介质
CN113449893A (zh) * 2020-03-25 2021-09-28 中移(成都)信息通信科技有限公司 虫害预测模型训练的方法、虫害预测的方法及装置
CN111461329B (zh) * 2020-04-08 2024-01-23 中国银行股份有限公司 一种模型的训练方法、装置、设备及可读存储介质
CN111863104B (zh) * 2020-07-29 2023-05-09 展讯通信(上海)有限公司 眼图判定模型训练方法、眼图判定方法、装置、设备及介质
WO2022024315A1 (ja) * 2020-07-30 2022-02-03 富士通株式会社 精度推定プログラム、装置、及び方法
CN113762470A (zh) * 2021-08-23 2021-12-07 迟源 预测模型构建方法、预测方法、装置、设备及介质
US20230090727A1 (en) * 2021-09-21 2023-03-23 Spectrum Effect Inc. Classifying rf interference sources using machine learning and operations, administration, and management data
CN115687038B (zh) * 2022-08-23 2023-09-26 江苏臻云技术有限公司 一种基于大数据的硬盘故障预测系统及方法
CN117312806B (zh) * 2023-11-29 2024-03-01 佳源科技股份有限公司 复杂环境下电能表计量误差预测方法及系统

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4046309B2 (ja) 1999-03-12 2008-02-13 株式会社東芝 プラント監視装置
JP2004086896A (ja) 2002-08-06 2004-03-18 Fuji Electric Holdings Co Ltd 適応的予測モデル構築方法及び適応的予測モデル構築システム
JP2005135287A (ja) * 2003-10-31 2005-05-26 National Agriculture & Bio-Oriented Research Organization 予測装置、予測方法および予測プログラム
EP2323081A1 (en) * 2008-08-05 2011-05-18 Fujitsu Limited Method of creating estimation model by means of multiple regression analysis, creation system and creation program
US20120284212A1 (en) * 2011-05-04 2012-11-08 Google Inc. Predictive Analytical Modeling Accuracy Assessment
JP6109037B2 (ja) * 2013-10-23 2017-04-05 本田技研工業株式会社 時系列データ予測装置、時系列データ予測方法、及びプログラム
CN105095614A (zh) * 2014-04-18 2015-11-25 国际商业机器公司 更新预测模型的方法和装置
WO2016152053A1 (ja) * 2015-03-23 2016-09-29 日本電気株式会社 精度推定モデル生成システムおよび精度推定システム
US11593817B2 (en) * 2015-06-30 2023-02-28 Panasonic Intellectual Property Corporation Of America Demand prediction method, demand prediction apparatus, and non-transitory computer-readable recording medium
JP6536295B2 (ja) * 2015-08-31 2019-07-03 富士通株式会社 予測性能曲線推定プログラム、予測性能曲線推定装置および予測性能曲線推定方法

Also Published As

Publication number Publication date
JP2019109634A (ja) 2019-07-04
US11170321B2 (en) 2021-11-09
US20190188598A1 (en) 2019-06-20

Similar Documents

Publication Publication Date Title
JP6954082B2 (ja) 学習プログラム、予測プログラム、学習方法、予測方法、学習装置および予測装置
US10262233B2 (en) Image processing apparatus, image processing method, program, and storage medium for using learning data
Sim et al. Missing values and optimal selection of an imputation method and classification algorithm to improve the accuracy of ubiquitous computing applications
JP5454827B1 (ja) 文書評価装置、文書評価方法、及びプログラム
JP5214760B2 (ja) 学習装置、方法及びプログラム
JP2005524131A (ja) クラシファイアの性能の見積りに関する方法および装置
JP2011209879A (ja) 評価装置および評価プログラム
US11105855B2 (en) Tester and method for testing a device under test and tester and method for determining a single decision function
Buckley et al. A feature extraction & selection benchmark for structural health monitoring
WO2019160003A1 (ja) モデル学習装置、モデル学習方法、プログラム
JP2020170214A (ja) 時系列データ分析方法、時系列データ分析装置及びコンピュータプログラム
JP7276018B2 (ja) 学習方法、推定方法および学習プログラム
EP4068140A1 (en) Method and system for optimizing a simulation model using machine learning
JP2017102906A (ja) 情報処理装置、情報処理方法及びプログラム
WO2020234984A1 (ja) 学習装置、学習方法、コンピュータプログラム及び記録媒体
JP2021071823A (ja) 予測モデル説明方法、予測モデル説明プログラム、予測モデル説明装置
JP7207540B2 (ja) 学習支援装置、学習支援方法、及びプログラム
JP6201556B2 (ja) 予測モデル学習装置、予測モデル学習方法およびコンピュータプログラム
JP6930195B2 (ja) モデル同定装置、予測装置、監視システム、モデル同定方法および予測方法
JP2020086778A (ja) 機械学習モデル構築装置および機械学習モデル構築方法
Talukdar et al. Learning evaluation for intelligence
Olteanu Strategies for the incremental inference of majority-rule sorting models
WO2021044459A1 (ja) 学習装置、予測システム、方法およびプログラム
WO2023073967A1 (ja) 精度判定プログラム、精度判定装置、および精度判定方法
WO2022003824A1 (ja) 学習装置、学習方法および記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200911

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210825

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210831

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210913

R150 Certificate of patent or registration of utility model

Ref document number: 6954082

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150