JP2020004178A - 学習モデルの評価方法、学習方法、装置、及びプログラム - Google Patents

学習モデルの評価方法、学習方法、装置、及びプログラム Download PDF

Info

Publication number
JP2020004178A
JP2020004178A JP2018124226A JP2018124226A JP2020004178A JP 2020004178 A JP2020004178 A JP 2020004178A JP 2018124226 A JP2018124226 A JP 2018124226A JP 2018124226 A JP2018124226 A JP 2018124226A JP 2020004178 A JP2020004178 A JP 2020004178A
Authority
JP
Japan
Prior art keywords
learning
model
learning model
data
probability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018124226A
Other languages
English (en)
Inventor
匡亮 谷本
Masaaki Tanimoto
匡亮 谷本
基 木村
Motoi Kimura
基 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renesas Electronics Corp
Original Assignee
Renesas Electronics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renesas Electronics Corp filed Critical Renesas Electronics Corp
Priority to JP2018124226A priority Critical patent/JP2020004178A/ja
Priority to US16/447,294 priority patent/US20200005183A1/en
Publication of JP2020004178A publication Critical patent/JP2020004178A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01BSOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
    • A01B3/00Ploughs with fixed plough-shares
    • A01B3/02Man-driven ploughs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Algebra (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Mechanical Engineering (AREA)
  • Soil Sciences (AREA)
  • Environmental Sciences (AREA)
  • Debugging And Monitoring (AREA)

Abstract

【課題】学習モデルを適切に評価又は学習することができる装置、方法、プログラムを提供すること。【解決手段】本実施の形態にかかる評価装置は、(A)検証用データを用いて、手本モデルである第1の学習モデルM1に基づく第1の実行結果を求め、(B)検証用データを用いて、第2の学習モデルM2に基づく第2の実行結果を求め、(C)第1及び前記第2の実行結果が、論理式を満たすか否かを判定し、(D)ベイズ統計モデル検査法を用いて、(C)での判定結果に基づいて、第1の学習モデルM1と第2の学習モデルM2との振舞いを比較する。【選択図】図5

Description

本開示は学習モデルの評価方法、学習方法、装置、及びプログラムに関する。
特許文献1には、フットプリントの大きいディープニューラルネットワーク(DNN)をフットプリントの小さいDNNに変換する方法が開示されている
米国特許出願公開2016/0307095号
引用文献1の方法では、手本モデルと学習モデルとが与えられている場合に、学習モデルが、手本モデルの振舞いを維持できているか否かを評価することが困難である。
その他の課題と新規な特徴は、本明細書の記述および添付図面から明らかになるであろう。
一実施の形態によれば、学習モデルの評価方法は、第1の学習モデルと第2の学習モデルとの実行結果が論理式を満たすか否かを判定し、ベイズ統計モデル検査法を用いて、学習モデルの振舞いを比較する。
前記一実施の形態によれば、学習モデルに対して、適切に評価又は学習を行うことができる。
アナログ回路向けのBSMC法の一例を説明するための図である。 アナログ回路向けのBSMC法の一例の処理を示すフローチャートである。 アナログ回路向けのBSMC法の別の例を説明するための図である。 アナログ回路向けのBSMC法の別の例の処理を示すフローチャートである。 実施の形態1の第1の例にかかる評価装置を説明するための図である。 実施の形態1の第2の例にかかる評価装置を説明するための図である。 図5に示す評価装置の処理アルゴリズムの一例を示すフローチャートである。 図6に示す評価装置の処理アルゴリズムの一例を示すフローチャートである。 実施の形態2の第1の例にかかる評価装置を説明するための図である。 実施の形態2の第2の例にかかる評価装置を説明するための図である。 1階差分、及び2階差分での検証プロパティを示す図である。 n階差分での検証プロパティを説明するための図である 図9に示す評価装置の処理アルゴリズムの一例を示すフローチャートである。 図10に示す評価装置の処理アルゴリズムの一例を示すフローチャートである。 実施の形態3にかかる学習装置を説明するための図である。 実施の形態3にかかる学習方法の一例を示すフローチャートである。 図15、図16に示す学習方法に、実施の形態1の評価方法を組み合わせた学習方法を示すフローチャートである。 実施の形態4にかかる学習装置をa説明するための図である。 実施の形態4の変形例1に用いられる手本モデルの出力を説明するための図である。 変形例1に用いられる学習対象モデルの出力を説明するための図である。 変形例1にかかる学習方法の一例を示すフローチャートである。 実施の形態4の変形例2にかかる学習装置を説明するための図である。 変形例2にかかる学習方法の一例を示すフローチャートである。 実施の形態5の第1の例にかかる評価装置を説明するための図である。 実施の形態5の第2の例にかかる評価装置を説明するための図である。 実施の形態6にかかる評価方法を示すフローチャートである。 実施の形態6の変形例1にかかる評価方法を示すフローチャートである。 その他の実施の形態にかかる学習装置を説明するための図である。 本実施の形態にかかる装置の構成を示すブロック図である。
説明の明確化のため、以下の記載及び図面は、適宜、省略、及び簡略化がなされている。また、様々な処理を行う機能ブロックとして図面に記載される各要素は、ハードウェア的には、CPU(Central Processing Unit)、メモリ、その他の回路で構成することができ、ソフトウェア的には、メモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組み合わせによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。なお、各図面において、同一の要素には同一の符号が付されており、必要に応じて重複説明は省略されている。また、各実施の形態において重複する内容については、適宜重複する説明は省略されている。プロセッサがプログラムを実行することで、以下の評価方法、及び学習方法の各処理が実行される。
また、上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
侵入検知フィルタの実装方式で特に機械学習を用いた場合に、攻撃が高度化する中、リプログラミング(プログラムの更新)などでフィルタの更新が行われる事が想定される。ここで、データからの学習ではデグレの有無などの確認が必要となる。しかしながら、デグレの有無を確認するための明確な指標が精度以外に存在しない。例えば、手本(基準)となる手本モデルが与えられており、手本モデルを改善する改善モデル(学習モデル)を学習する場合、手本モデルと学習モデルの振舞いの等価性を比較することが困難である。つまり、予測モデルの精度や真のモデルへの理論的なあてはまりの良さが基準モデルと改善モデルの比較指標となっており、基準モデルとの振舞いの等価性に関する適切な比較指標がない。また、振舞いを可能な限り保存するような学習手法も提案されていない。
そのため、本開示では、学習モデルの比較方法を提供する。さらに、再学習を伴う最適化を行う場合に、よりデグレのない学習を実現するための学習方法を適用する。加えて、Neural Network(NN:ニューラルネットワーク)でAdversarial Example(敵対的サンプル)問題が世界的課題となっている。本実施の形態は、敵対的サンプル耐性を獲得し、かつ、手本となる学習モデルの振舞いを可能な限り維持する学習手法を提供する。
例えば、自動運転技術実現では、ディープラーニングに代表される機械学習による認識・制御モデルや、高度化するセキュリティ攻撃に対処するための侵入検知フィルタ、これらの構築と継続的な改善が必要となる。
侵入検知フィルタの実装方式で、特に機械学習を用いた場合に、攻撃が高度化する中、リプログラミング(プログラムの更新)などでフィルタの更新が行われる事が想定される。ここで、データからの学習ではデグレの有無などの確認が必要となる。これは、認識・制御モデル構築でも同様に必要となる。しかしながら、デグレの確認のための明確な指標がディープラーニングにおいては精度以外に存在しない。統計モデル構築では赤池情報量基準AICやLassoなどスパースな統計的機械学習においては、sAIC(スパース回帰むけ赤池情報量基準)が提案されている。しかしながら、AICやsAICは、真の分布があるとして、その分布への当てはまりの良さを評価する指標である。継続的な改善で必要となる直接的なモデル同士の比較手法では、AICやsAICといった統計量自体に揺らぎがあるため、適切の指標であるとは言い難い。
従って、2つの学習モデルを比較する際に、より的確な評価指標が必要となる。本実施の形態では、学習モデルの比較方法として、ベイズ統計的モデル検査法(Bayesian Statistical Model Checking、以下BSMCと記載)に基づく手法を提案する。ここで、比較方法は、種々の学習モデルに対して適用可能である。例えば、教師なし学習(Unsupervised Learning)、教師あり学習(Supervised Learning)、半教師あり学習(Semi-Supervised Learning)、強化学習(Reinforcement Learning)、これらの組み合わせによる学習のいずれの学習モデルであっても比較することが可能となる。
一方、改善対象の振舞いをできるだけ維持しつつ改善を行う学習手法も必要となる。このため、本開示では、深層学習や回帰を含む教師あり学習全般に対する学習方法を提案する。
本実施形態にかかる学習モデルの比較手法(評価方法)では、2つのモデルから生成される出力トレースの一致を、BSCM法を用いて判定する。この判定では、出力系列の一致を判定するための論理式を予め定義している。論理式は、例えば、BLTL(Bounded Linear Temporal Logic:有界線形自相論理)式(Formula)である。この論理式を用いて有界モデル検査(Bounded Model Checker:BMC)が各出力ペアの成す系列に対して実施される。そして、得られた検査結果系列に対してベイズテストを行う事で、学習モデルの比較を実施する。ここで用いるBSMCは、下記文献[1]、[2]のものを簡素化して用いる。
[1] Ying-Chih Wang, Anvesh Komuravelli, Paolo Zuliani, and Edmund M. Clarke "Analog Circuit Verification by Statistical Model Checking." In Proc. of ASP-DAC, pp.1-6, 2011.
http://www.cs.cmu.edu/~akomurav/publications/analog_smc.pdf
[2] P Zuliani, A Platzer, EM Clarke, “Bayesian statistical model checking with application to Stateflow/Simulink verification,” Formal Methods in System Design, Vol.43, Issue.2, pp.338-367, 2013. http://repository.cmu.edu/cgi/viewcontent.cgi?article=3714&context=compsci
クラスタリング(Clustering)や分類器(Classifier)など、系列のならびに連続性がありその事自体に意味があるといったモデルでない場合には、この手法でも振舞いの等価性検査が可能だと考えられる。BLTL式を工夫する事で、改善・改悪度合いの評価も可能となる。この比較実施では、予め与えられた検査データを用いた交差検証の枠組みで出力系列を生成することができる。文献の手法でのモンテカルロ法の代わりに検査データを復元抽出し繰返し用いても良い。
一方で、回帰モデルや位置推定などの予測モデルの場合、系列の並びに連続性があるなど、系列の並び自体に意味がある。このような場合、系列の並びを考慮した振舞い等価性を検証する必要となる。この検証を行うためには、系列中で現在比較対象としているペアと次のペアの関係が満たすべき条件を規定する必要がある。しかしながら、上記のBSMC法では、BLTL式に次点オペレータ(Next Time Operator)Xを導入する必要がある。次点オペレータを導入しての検証も理論的に可能だが、本開示では、出力系列の与え方を工夫する事で、系列の並びを考慮した振舞い等価性を検証する。
さらに、対象とするペアの系列の長さをNとした場合へ方法を拡張することも可能である。本比較方法での出力系列生成では、検査データセットを復元抽出し繰返し用いる事が可能である。上記の文献でのモンテカルロ法の代わりに復元抽出を用いることで、ベイズテストの確からしさを向上することができる。ただし、文献の交差検証での出力系列生成のみを対象にベイズテストを実施しても良い。
特に上記のBSMC方法を用いた振舞い等価性検証では、用いるべきBLTL式がBLTLのサブセットで記述可能である。このため、2つの学習モデルの出力トレースが振舞い等価性を検証するためのBLTL式を満たすかの判定処理を、より簡素化することが可能である。
振舞いを維持する学習方法に関しては、以下の手法を用いることができる。つまり、更新前モデル(手本モデル)の出力を、ラベルと比較して、適宜修正したデータセットを作成する。そして、このデータセットを教師データとして、改善モデルが学習を行う。特に、ラベル付きデータの修正は、様々な手法が考えられる。このため、学習結果モデルに対する比較検査を実施して適切なモデルを選択する事も可能である。
上記の学習方法を用いた場合、系列の並びに連続性があったり、並び自体に意味があるモデルでは、振舞いを極力維持した学習の実現が困難である事が予想される。そのため、系列中のペアとその次のペアの関係といった、系列の並び方が同じとなるような学習方法を提案する。本学習方法に上記の検証方法を融合した方法も提案する。特に、深層学習手法では、対象とするペアの系列の長さをNとした場合への学習方法の拡張を示す。
手本モデルの振舞いを維持した学習方法は、下記の(a)〜(d)を含む。
(a)新たなラベル付き教師データが得られた事による、セキュリティフィルタなど学習モデル改善。
(b)ラベル付き教師データに変化はなく、学習モデル簡約化や、他のより単純な学習モデルへの置換を伴う学習。
(c)上記(a)と(b)の融合。すなわち、新たなラベル付き教師データが得られ、かつ学習モデル簡約化や他のより単純な学習モデルへの置換を伴う学習。
(d)特にNeural Network学習等において、振舞いを極力維持しつつAdversarial Example耐性を持つよう、学習モデルの簡約化や他の学習モデルへの置換を伴う学習。
なお、本開示においては、説明の簡略化のため、主として、モデルが1対1での例を説明する。例えば、検証方法であれば、1つ手本モデルと1つの検証対象モデルを用いた例を示す。学習方法であれば、1つの教師学習済みモデルと1つの生徒学習対象モデルの例を示す。もちろん、検証方法、及び学習方法は、1対1の例に限らず、1対Nの例に容易に拡張可能である。ここで、Nは2以上の整数である。したがって、本実施形態にかかる方法は、1対Nの評価方法、及び学習方法にも適用可能である。
[アナログ回路向けBSMC法の例1]
図1、図2を用いて、アナログ回路向けBSMC法の例1について説明する。図1は、アナログ回路向けBSMC法を説明するための模式図である。図2は、図1に示すBSMC法のアルゴリズムを示すフローチャートである。
スパイス回路シミュレータ12は、アナログ回路モデルMに対して、製造プロセスの変動情報14を用いたモンテカルロシミュレーションを実行する。モンテカルロ法では、製造プロセスの変動情報をパラメータとして、シミュレーション入力データの系列が構成されている。スパイス回路シミュレータ12は、入力データを用いて、アナログ回路モデルMの回路シミュレーションを実行する。
これにより、アナログ回路モデルMの実行トレースσが取得されている。つまり、アナログ回路モデルMに入力データを入力したときの出力データが実行トレースσとなる。さらに、アナログ回路モデルMが満たすべき性質が論理式φで定義されている。論理式φはBLTL式である。論理式φの望ましい成立確率Θが判定値として定義されている。
有界モデル検査ツール16は、実行トレースσが論理式φを満たすか、すなわち、σ|=φが成立するかをBMC(有界モデル検査)で確認する。有界モデル検査ツール16は、確認結果に基づいて、ベイズ因子Bを算出する。有界モデル検査ツール16は、ベイズ因子Bに基づいて、ベイズ仮説テスト(Bayesian hypothesis testing)17を実施するに足るか否かを判定する。ベイズ仮説テスト17は、σ|=φが成立する確率が、Θ以上であるか否かを判定するためのテストである。
ベイズ仮説テスト17を実施するに足りるまで、モンテカルロシミュレーションを続行して、スパイス回路シミュレータ12が実行トレースσを取得する。有界モデル検査ツール16は、BMCでσ|=φの成立可否をチェックする。ベイズ仮説テストを実施するに足りたら、ベイズ仮説テスト17を実施する。
ベイズ仮説テスト17では、σ|=φの成立確率がΘ以上か否かが判定される。つまり、論理式φを満たす確率が判定値Θ以上であるか否かが判定される。判定値Θは確率に対する閾値である。なお、M|=P≧Θ(φ)は、アナログ回路モデルMが論理式φを満たす確率がΘ以上である事を意味している。一方、M|=P(φ)は、アナログ回路モデルMが論理式φを満たす確率がΘ未満である事を意味している。
図2を用いて、図1に示すアナログ回路向けBSMC法について説明する。図2では、回路シミュレーションの実行トレースσの取得から、ベイズ仮説テスト17での判定までの処理アルゴリズム一例を示す。σ|=φの成立確率をp、σ|=φの望ましい成立確率をΘとする。また、gを二項分布またはベルヌーイ分布の密度関数とし、ベイズ仮説検定で用いるTを1以上の定数とする。
まず、n:=0、x:=0とする(S11)。次に、スパイス回路シミュレータ12でのシミュレーション結果から実行トレースσを取得し、n:=n+1とする(S12)。つまり、アナログ回路モデルMに対して、製造プロセスの変動パラメータを用いたモンテカルロシミュレーションを実行して、実行トレースσを取得する。さらに、nをインクリメントする。
有界モデル検査ツール16は、BMCによって、σ|=φが成立するかを確認する(S13)。つまり、有界モデル検査ツール16は、アナログ回路モデルMが満たすべき性質を記述した論理式φを実行トレースσが満たすか否かを判定する。
σ|=φが成立しない場合(S13のNO)、S15に移行する。σ|=φが成立する場合(S13のYES)、x:x+1として(S14)、S15に移行する。次に、B=BayesFactor(n,x,Θ,g)とする(S15)。つまり、有界モデル検査ツール16は、n、x、Θ、gを関数BayesFactor(n,x,Θ,g)に代入することで、ベイズ因子Bを算出する。関数BayesFactor(n,x,Θ,g)は、図2に記載されている通りである。なお、ベータ分布の形状母数パラメータα、βは予め規定されているものとする。
次に、ベイズ因子Bを用いてベイズ仮説テスト17を行うよう、1/T≦B≦Tか否かを判定する(S16)。1/T≦B≦Tである場合(S16のYES)、S12に戻る。つまり、1/T≦B≦Tである場合、ベイズ仮説テスト17を実施するに足りないため、モンテカルロシミュレーションを続行する。
1/T≦B≦Tでない場合(S16のNO)、ベイズ仮説テスト17を実施するに足りたため、B≧Tであるか否かを判定する(S17)。B≧Tである場合(S17のYES)、P≧Θを採択する(S18)。B≧Tでない場合(S17のNO)、P<Θを採択する(S19)。このようにして処理が終了する。Tは上記の通り1以上の定数である。
[アナログ回路向けBSMC法の例2]
図3、図4を用いて、アナログ回路向けBSMC法の例2について説明する。図3は、他のアナログ回路向けBSMC法を説明するための模式図である。図4は、図3に示すBSMC法のアルゴリズムの一例を示すフローチャートである。
図1と同様に、スパイス回路シミュレータ12は、アナログ回路モデルMに対して、製造プロセスの変動情報14を用いたモンテカルロシミュレーションを実行する。モンテカルロ法では、製造プロセスの変動情報をパラメータとして、シミュレーション入力データの系列が構成されている。スパイス回路シミュレータ12は、入力データを用いて、アナログ回路モデルMの回路シミュレーションを実行する。
これにより、アナログ回路モデルMの実行トレースσが取得される。つまり、アナログ回路モデルMに入力データを入力したときの出力データが実行トレースσとなる。さらに、アナログ回路モデルMが満たすべき性質が論理式φで定義されている。論理式φ成立の望ましい事後確率の最小値が判定値cとして定義されている。判定値cは予め設定された定数である。
有界モデル検査ツール16は、実行トレースσが論理式φを満たすか、すなわち、σ|=φが成立するかをBMC(有界モデル検査)で確認する。有界モデル検査ツール16は、確認結果に基づいて、ベイズ事後確率(Bayesian posterior probability)Iを算出する。有界モデル検査ツール16は、σ|=φが成立する確率の平均を含む信頼区間を算出する。
そして、信頼区間から算出されるベイズ事後確率Iが、c以上であるか否かが判定される。ベイズ事後確率Iがcよりも大きくなるまで、モンテカルロシミュレーションを続行して、スパイス回路シミュレータ12が実行トレースσを取得する。
有界モデル検査ツール16が、BMCでのσ|=φの成立可否をチェックする。これにより、成立確率の平均値と、その信頼区間を更新することができる。ベイズ事後確率Iがcを越えたら、その時点での成立確率の平均値と、その信頼区間(Confidence interval)を出力する。ここで、σ|=φの望ましい成立確率を満たすかに関しては、得られた平均値と信頼区間を用いて別途判定する事となる。
図4では、回路シミュレーションによる実行トレースσの取得から、σ|=φ成立確率の平均値と信頼区間の出力までの処理アルゴリズムの一例を示す。c∈(1/2,1)をベイズ事後確率Iが満たすべき下限値定数、δ∈(0,1/2)を信頼区間を構成するパラメータとする。Fをベータ分布の密度関数、α、βをベータ分布の形状母数の正数パラメータ定数とする。
まず、n:=0、x:=0とする(S21)。次に、スパイス回路シミュレータ12でのシミュレーション結果から実行トレースσを取得し、n:=n+1とする(S22)。つまり、アナログ回路モデルMに対して、製造プロセスの変動パラメータを用いたモンテカルロシミュレーションを実行して、実行トレースσを取得する。さらに、nをインクリメントする。
有界モデル検査ツール16は、BMCによって、σ|=φが成立するかを確認する(S23)。つまり、有界モデル検査ツール16は、アナログ回路モデルMが満たすべき性質を記述した論理式φを実行トレースσが満たすか否かを判定する。
σ|=φが成立しない場合(S23のNO)、S25に移行する。σ|=φが成立する場合(S23のYES)、x:x+1として(S24)、S25に移行する。次に、平均値mean、信頼区間(t0,t1)、ベイズ事後確率Iを算出する(S25)。平均値mean、信頼区間(t0,t1)は、以下の式で求められる。
mean:=(x+α)/(n+α+β)
(t0,t1):=(mean−δ, mean+δ) if 0≦t0 ∧ t1≦1
(1−2×δ,1) if(t1>1)
(0,2×δ) if(t0<0 ∧ t1≦1)
ベイズ事後確率Iは、図4の関数PosteriorProbabilityに、t0、t1,n、x、α、βを代入することで求められる。
次に、I≦cとなるか否かを判定する(S26)。I≦cである場合(S26のYES)、S22に戻る。I≦cでない場合(S26のNO)、平均値mean、信頼区間(t0,t1)を出力する(S27)。このようにして処理が終了する。
[実施の形態1]
(実施の形態1の第1の例)
実施の形態1の第1の例にかかる評価装置、及び評価方法について、図5を用いて説明する。図5は、実施の形態1の第1の例にかかる評価装置を説明するための模式図である。2つの学習モデルの等価性を評価する。図5では、図1と同様に、ベイズ因子Bに基づいて、ベイズ仮説テストを実施している。
図5では、学習済みモデルM1(以下、第1の学習モデルM1とする)を手本となる学習モデル(手本モデル)とし、学習済みモデルM2(以下、第2の学習モデルM2とする)を等価性の検証対象モデルとする例を示している。
プログラム実行環境33には、交差検証用のテストデータ35が入力されている。プログラム実行環境33は、テストデータ35を用いて、第1の学習モデルM1、及び第2の学習モデルM2のプログラムを実行する。すなわち、テストデータ35を入力データとして、プログラム実行環境33は、プログラムである第1の学習モデルM1、及び第2の学習モデルM2を実行する。
これにより、第1の学習モデルM1、及び第2の学習モデルM2の実行トレースσ1,σ2を取得することができる。テストデータ35を用いたプログラムの実行結果が実行トレースσ1となる。テストデータ35を用いた、第2の学習モデルM2に基づく第2の実行結果が実行トレースσ2となる。
また、等価性に関して、第1及び第2の学習モデルM1、M2が満たすべき性質が論理式φにより予め定義されている。論理式φは、例えば、有界線形時相論理式(BLTL)式で記述されている。論理式φの望ましい成立確率が事前に判定値Θとして定義されている。論理式φについては後述する。
有界モデル検査ツール37は、BMCにより、実行トレースσ1,σ2が論理式φを満たすかを確認する。つまり、有界モデル検査ツール37は、σ1||σ2|=φが成立するかをBMCで確認する。有界モデル検査ツール37はBMCでの確認結果に基づいて、ベイズ因子Bを算出する。ここで、σ1||σ2はトレースσ1とトレースσ2からなる並行実行トレースを表す。
有界モデル検査ツール37は、ベイズ因子Bに基づいて、ベイズ仮説テスト38を実施するに足るか否かを判定する。ベイズ仮説テスト38は、σ1||σ2|=φの成立確率が判定値Θ以上であるか否かを判定するためのテストである。プログラム実行環境33は、ベイズ仮説テスト38を実施するに足りるまで、あるいは、テストデータ35が尽きるまで、実行トレースσ1,σ2を取得する。そして、有界モデル検査ツール37は、実行トレースσ1,σ2に基づいて、BMCでのσ1||σ2|=φの成立可否をチェックする。
ベイズ因子Bがベイズ仮説テスト38を実施するに足りた場合、あるいは、テストデータ35が尽きた場合、ベイズ仮説テスト38を実施して、σ1||σ2|=φの成立確率が判定値Θ以上か否かを判定する。なお、テストデータ35が尽きた場合、ベイズ仮説テスト38を実施しなくてもよい。ベイズ因子Bがベイズ仮説テスト38を実施するに足りない場合、σ1||σ2|φの成立確率が判定値Θ以上か否かの判定に失敗する。
従って、十分に長い交差検証用のテストデータ35が予め整備されているものとする。この場合、ベイズ因子Bがベイズ仮説テスト38を実施するに足りたと判定される。有界モデル検査ツール37は、第1の学習モデルM1と第2の学習モデルM2が論理式φをみたす確率がΘ以上であるか否かを判定する。
なお、M1||M2|=P≧Θ(φ)は、第1の学習モデルM1と第2の学習モデルM2が論理式φを満たす確率がΘ以上である事を意味する。つまり、ベイズ因子BがTよりも大きくなっている。M1||M2|=P(φ)は、第1の学習モデルM1と第2の学習モデルM2が論理式φを満たす確率がΘ未満である事を意味する。つまり、ベイズ因子Bが1/Tよりも小さくなっている。なお、Tは1以上の定数である。
(実施の形態1の第2の例)
図6を用いて、実施の形態1の第2の例にかかる評価装置について説明する。図6は、実施の形態1の第2の例にかかる評価装置を説明するための図である。評価装置は、2つの学習モデルの等価性を評価する。図6では、図3と同様に、論理式φが成立する確率の平均を含む信頼区間を算出している。
図6は、図5と同様に、学習済みモデルM1(第1の学習モデルM1とする)を手本となる学習モデル(手本モデル)とし、学習済みモデルM2(第2の学習モデルM2とする)を等価性の検証対象となる学習モデル(対象モデル)とする例を示している。
プログラム実行環境33には、交差検証用のテストデータ35が入力されている。プログラム実行環境33は、テストデータ35を用いて、第1の学習モデルM1、及び第2の学習モデルM2のプログラムを実行する。すなわち、テストデータ35を入力データとして、プログラム実行環境33は、プログラムである第1の学習モデルM1、及び第2の学習モデルM2を実行する。これにより、第1の学習モデルM1、及び第2の学習モデルM2の実行トレースσ1,σ2を取得することができる。
また、等価性に関して、第1及び第2の学習モデルM1、M2が満たすべき性質が論理式φにより予め定義されている。論理式φは、例えば、有界線形時相論理式(BLTL)式で記述されている。論理式φ成立の例については後述する。論理式φ成立の望ましい事後確率の最小値が判定値cとして定義されている。判定値cは予め設定された定数である。
有界モデル検査ツール37は、BMCにより、実行トレースσ1,σ2が論理式φを満たすかを確認する。つまり、有界モデル検査ツール37は、σ1||σ2|=φが成立するかをBMCで確認する。そして、有界モデル検査ツール37は、BMCでの確認結果に基づいて、σ1||σ2|=φが成立する確率の平均を含む信頼区間を算出する。
有界モデル検査ツール37は、信頼区間からベイズ事後確率Iを算出する。有界モデル検査ツール37は、ベイズ事後確率Iが、判定値c以上であるいか否かが判定する。ベイズ事後確率Iが判定値c以上となるまで、あるいは、テストデータ35が尽きるまで、プログラム実行環境33は、実行トレースσ1,σ2を取得する。つまり、ベイズ事後確率Iが判定値c未満である場合、プログラム実行環境33は、次のテストデータ35を用いて、実行トレースσ1、σ2を取得する。
このように、有界モデル検査ツール37が、BMCでσ1||σ2|=φが成立するか否かをチェックする。有界モデル検査ツール37は、チェック結果に基づいて、成立確率の平均値と信頼区間を算出する。有界モデル検査ツール37は、信頼区間等に基づいて、ベイズ事後確率Iを算出する。
ベイズ事後確率Iが判定値c以上となった場合、有界モデル検査ツール37は、成立確率の平均値と信頼区間を出力する。ベイズ事後確率Iが判定値c以上となる前に、テストデータ35が尽きた場合、有界モデル検査ツール37は、成立確率の平均値と信頼区間を参考値として出力する。従って、十分に長い交差検証用データが予め整備されているものとする。これにより、成立確率の平均値と信頼区間を出力することが可能となる。
このように、ベイズ事後確率Iが判定値cを超えた場合、第1の学習モデルM1と第2の学習モデルMが論理式φを満たす成立確率の平均値とその信頼区間が得られる。ここで、 σ1||σ2|=φの望ましい成立確率を満たすかに関しては、得られた平均値と信頼区間を用いて別途判定する事となる。平均値と信頼区間が予め定められた基準を満たすか否かを判定すればよい。
実施の形態1の第1の例、及び第2の例において、学習モデルM1、M2の振舞い等価性検証に用いる論理式φの例1〜8を以下に示す。
Figure 2020004178
実施の形態1の第1の例又は第2の例では、上記の例1〜例8のいずれかの論理式φを用いることができる。例1〜8の[]内のプロパティ式は、上記したものに限らず、上記の記号を用いた命題論理式を構成してよい。
図1、図3に示したようなアナログ回路モデルを対象としたBSMC法では、一般的なBLTL式を扱っている。このため、取得した実行トレースσが論理式(検証プロパティ)φを満たすか否か、即ち、σ|=φを満たすか否かの確認で、BLTLを対象とした有界モデル検査法(BMC)が用いられている。これに対して、実施の形態1にかかる方法では、例1〜例8に示したプロパティのように、時相オペレータを用いない論理式のみからなるBLTL式を用いることができる。このため、下記操作として単純化可能である。
Step1. 論理式が必要とする実行トレースσ1、σ2、即ち、時刻tにおける第1の学習モデルM1からの出力と第2の学習モデルM2からの出力を取得
Step2. 取得した値を命題論理式に代入し、命題論理式が真となれば、YESを返し、偽となれば、NOを返す。
ここで、各学習モデルの出力系列の先頭を時刻0として、最後の時刻をTとしている。図2と図4に対して、上記の修正を実施したものを図7、図8にそれぞれ示す。
図7は、図5に示した評価装置の処理アルゴリズムの一例を示すフローチャートである。図7では、学習済みモデル実行トレースσ1、σ2の取得から、ベイズ仮説テスト37での判定までの処理アルゴリズムが示されている。
交差検証用の入力パターン(テストデータ35)の長さをNとする。σ1||σ2|=φの成立確率をp、σ1||σ1|=φの望ましい成立確率を判定値Θとする。gを二項分布またはベルヌーイ分布の密度関数、ベイズ仮説検定(ベイズ仮説テスト)で用いるTを1以上の定数とする。
まず、n:=0、x:=0とするとする(S31)。第1の学習モデルM1と第2の学習モデルM2を実行して得られた出力値(実行トレースσ1、σ2)のn番目の出力値を取得し、n:=n+1とする(S32)。ここで、出力値の系列は0番目から始まるとする。
出力値を代入した論理式φが真となるか否かを判定する(S33)。すなわち、第1の学習モデルM1と第2の学習モデルM2のn番目の出力値が論理式φを満たすか否かを、判定する。換言すると、n番目の出力値において、σ1||σ2|=φが成立するかを確認する。
論理式φが真の場合(S33のYES)、x:=x+1として(S34)、S35に移行する。論理式φが偽の場合(S33のNO)、S35に移行する。
次に、有界モデル検査ツール37は、ベイズ因子B=BayesFactor(n,x,Θ,g)とする(S35)。つまり、有界モデル検査ツール37は、n、x、Θ、gを関数BayesFactor(n,x,Θ,g)に代入することで、ベイズ因子Bを算出する。関数BayesFactor(n,x,Θ,g)は、以下の通りである。なお、ベータ分布の形状母数パラメータα、βは予め規定されている。
Figure 2020004178

次に、ベイズ因子Bを用いてベイズ仮説テストを行うよう、1/T≦B≦Tか否かを判定する(S36)。1/T≦B≦Tである場合(S36のYES)、n<Nか否かを判定する(S40)。つまり、1/T≦B≦Tである場合、ベイズ仮説テストを実施するに足りないため、テストデータ35が尽きているか否かを判定する。n<Nとなる場合(S40のYES)、S32に戻る。すなわち、テストデータ35が尽きていないため、次のテストデータ35を用いて、プログラム実行環境33がプログラムである学習モデルM1,M2を実行する。
n<Nとならない場合(S40のNO)、テストデータ35が尽きたため、仮説の採択を不可とする(S41)。つまり、成立確率pがΘ以上、あるいは、Θ未満のいずれであるかの判定ができなかったとして処理を終了する。
1/T≦B≦Tでない場合(S36のNO)、B≧Tであるか否かを判定する(S37)。つまり、成立確率pがΘ以上であるか否かを判定する。B≧Tである場合(S37のYES)、成立確率pがΘ以上であるため、P≧Θを採択する(S38)。B≧Tでない場合(S37のNO)、成立確率pがΘ未満であるため、P<Θを採択する(S39)。このようにして処理が終了する。
図8は、図6に示した評価装置の処理アルゴリズムの一例を示すフローチャートである。図8では、学習モデルM1,M2の実行トレースσ1、σ2の取得から、成立確率pの平均値と信頼区間の出力までの処理アルゴリズムが示されている。
Nを交差検証用の入力パターン(テストデータ35)の長さとする。c∈(1/2,1)を事後分布が満たすべき下限値定数、δ∈(0,1/2)を信頼区間を構成するパラメータとする。Fをベータ分布の密度関数、α、βをベータ分布の形状母数の正数パラメータ定数とする。
まず、n:=0、x:=0とする(S51)。次に、第1の学習モデルM1と第2の学習モデルM2を実行して得られた出力値(実行トレースσ1、σ2)のn番目の出力値を取得し、n:=n+1とする(S52)。ここで、出力値の系列は0番目から始まるとする。
出力値を代入した論理式φが真となるか否かを判定する(S53)。すなわち、n番目の出力値が論理式φを満たすか否かを、判定する。換言すると、n番目の出力値において、σ1||σ2|=φが成立するかを確認する。
論理式φが真の場合(S53のYES)、x:=x+1として(S54)、S55に移行する。論理式φが偽の場合(S53のNO)、S55に移行する。
次に、平均値mean、信頼区間(t0,t1)、ベイズ事後確率Iを算出する(S55)。平均値mean、信頼区間(t0,t1)は、以下の式で求められる。
mean:=(x+α)/(n+α+β)
(t0,t1):=(mean−δ, mean+δ) if 0≦t0 ∧ t1≦1
(1−2×δ,1) if(t1>1)
(0,2×δ) if(t0<0 ∧ t1≦1)
ベイズ事後確率Iは、図8の関数PosteriorProbabilityに、t0、t1,n、x、α、βを代入することで求められる。
次に、I≦cとなるか否かを判定する(S56)。I≦cである場合(S56のYES)、n<Nであるか否かを判定する(S58)。I≦cである場合、テストデータ35が尽きているか否かを判定する。n<Nとなる場合(S58のYES)、S52に戻る。すなわち、テストデータ35が尽きていないため、次のテストデータ35を用いて、プログラムである学習モデルM1,M2を実行する。
n<Nとならない場合(S58のNO)、参考情報として、平均値meanと信頼区間(t0,t1)とを出力する。この場合、十分なテストデータ35を用いた結果ではないため、平均値meanと信頼区間(t0,t1)は参考値となる。
I≦cでない場合(S56のNO)、平均値mean、信頼区間(t0,t1)を出力する(S57)。このようにして処理が終了する。
なお、例えば、δ:=1.96×(σ^2/n)^(1/2)、σ:=α×β/{(α+β+1)×(α+β)^2}としてもよい。
本実施の形態によれば、学習モデルの精度や情報量基準だけでは識別できない2つのモデルの振舞いを比較することが可能となる。これにより、学習モデルを適切に評価することができる。
アナログ回路のプロパティ検査を目的とした統計的モデル検査法を、有界線形自相論理式のプロパティ記述例を示すとともに、学習済みモデルの振舞い等価性検証に適用することができる。このとき、入力パターンが交差検証用のテストデータとなり、有限長となっている。このため、テストデータのパターン長が足りない場合の処理を追加する事で、統計的モデル検査法を評価に適用することができる。
また、振舞い等価性を検証するためには、命題論理式を用いたプロパティ記述で十分である。このことから、有界モデル検査法を、命題論理式への値代入による充足可能判定に帰着する事で、統計的モデル検査法を簡素化することができる。つまり、有界モデル検査ツール37を簡素化することが可能となる。これにより、大量の交差検証用のテストデータに対して現実的な時間での振舞い等価性検証を実現可能とすることができる。
本実施の形態にかかる学習装置は、以下の(A)〜(D)を実施してもよい。
(A)検証用データを用いて、手本モデルである第1の学習モデルに基づく第1の実行結果を求める。
(B)前記検証用データを用いて、第2の学習モデルに基づく第2の実行結果を求めている。
(C)前記第1及び前記第2の実行結果が、論理式を満たすか否かを判定する。
(D)ベイズ統計モデル検査法を用いて、(C)での判定結果に基づいて、第1の学習モデルと前記第2の学習モデルとの振舞いを比較する。
対象となる第2の学習モデルが、手本モデルとなる第1の学習モデルの振舞い等価性を維持できているか否かを評価することができる。したがって、例えば、手本モデルよりも小さいフットプリントの対象モデルへの置き換えた場合において、対象モデルが手本モデルの振舞いを維持しているか否かを判定することができる。
第1の例では、(D)において、学習装置は、論理式の成立確率に関する仮説に対してベイズ因子を算出し、成立確率が確率閾値以上であるか否かのベイズ仮説テストを実施している。さらに、学習装置は、前記ベイズ仮説テストの結果に基づいて、前記第1の学習モデルと前記第2の学習モデルとの振舞い等価性を評価する。よって、簡便かつ適切に評価を行うことができる。
第2の例では、(D)において、前記論理式の成立確率を満たす信頼区間を算出し、前記信頼区間に基づいて事後確率を算出し、前記事後確率に基づいて、前記第1の学習モデルと前記第2の学習モデルとの振舞い等価性を評価する。よって、簡便かつ適切に評価を行うことができる。
[実施の形態2]
(実施の形態2の第1の例)
実施の形態1では、学習済みモデルの振舞いでの、特に滑らかさ、即ち出力系列の差分の振舞いの等価性を扱っていない。そこで、実施の形態2では、出力系列の差分を考慮した振舞い等価性検証手法について説明する。なお、上記の内容と共通する内容に付いては適宜説明を省略することもある。
図9は、実施の形態2の第1の例にかかる評価装置を示す図である。図9の評価装置は、2つの学習済みモデルM1,M2(以下、第1の学習モデルM1、第2の学習モデルM2)の振舞い等価性を評価している。図9の評価装置は、BSMC法を用いて、第1及び第2の学習モデルM1,M2の振舞いを評価している。第1の学習モデルM1は、手本モデルとなるプログラムであり、第2の学習モデルM2は、検証対象モデルとなるプログラムである。
プログラム実行環境33には、交差検証用のテストデータ35が入力されている。プログラム実行環境33は、テストデータ35を用いて、第1の学習モデルM1、及び第2の学習モデルM2のプログラムを実行する。すなわち、プログラム実行環境33は、テストデータ35を入力データとして、プログラムである第1の学習モデルM1、及び第2の学習モデルM2を実行する。これにより、第1の学習モデルM1、及び第2の学習モデルM2の実行トレースσ1,σ2を取得することができる。
また、等価性に関して、第1及び第2の学習モデルM1、M2が満たすべき性質が論理式φにより予め定義されている。論理式φは、例えば、有界線形時相論理式(BLTL)式で記述されている。論理式φの望ましい成立確率が事前に判定値Θとして定義されている。論理式φについては後述する。
有界モデル検査ツール37は、BMCにより、実行トレースσ1,σ2が論理式φを満たすかを確認する。つまり、有界モデル検査ツール37は、σ1||σ2|=φが成立するかをBMCで確認する。論理式φは、有界線形時相論理式(BLTL)式で記述されている。論理式φの望ましい成立確率が事前に判定値Θとして定義されている。論理式φについて後述する。
有界モデル検査ツール37はBMCでの確認結果に基づいて、ベイズ因子Bを算出する。有界モデル検査ツール37は、ベイズ因子Bに基づいて、ベイズ仮説テスト38を実施するに足るか否かを判定する。ベイズ仮説テスト38は、σ1||σ2|=φの成立確率が判定値Θ以上であるか否かを判定するためのテストである。
実施の形態2では、実施の形態1とは異なり、ベイズ仮説テスト38を実施するに足りるまで、交差検証用のテストデータ35からの無作為復元抽出で入力データを構成することができる。つまり、テストデータ35の順番を入れ替えることで、入力データを順次生成することができる。そして、テストデータ35を入力データとすることで、プログラム実行環境33は、実行トレースσ1,σ2を取得する。従って、本実施の形態では、入力データが尽きることなく、ベイズ仮説テスト38を実施することができる。ベイズ仮説テスト38では、σ1||σ2|=φの成立確率が判定値Θ以上か否かが判定される。
なお、M1||M2|=P≧Θ(φ)は、第1の学習モデルM1と第2の学習モデルM2が論理式φを満たす確率がΘ以上である事を意味する。M1||M2|=P(φ)は、第1の学習モデルM1と第2の学習モデルM2が論理式φを満たす確率がΘ未満である事を意味する。
(実施の形態2の第2の例)
図10を用いて、実施の形態2の第2の例にかかる評価装置について説明する。図10は、実施の形態2の第2の例にかかる評価装置を説明するための模式図である。評価装置は、2つの学習モデルの等価性を評価する。図10では、図6に示したように、φが成立する確率の平均を含む信頼区間を算出している。
図10では、図9に示す第1の例と同様に、学習済みモデルM1(第1の学習モデルM1とする)を手本となる学習モデル(手本モデル)とし、学習済みモデルM2(第2の学習モデルM2とする)を等価性の検証対象モデルとする例を示している。
プログラム実行環境33には、交差検証用のテストデータ35が入力されている。プログラム実行環境33は、テストデータ35を用いて、第1の学習モデルM1、及び第2の学習モデルM2のプログラムを実行する。すなわち、プログラム実行環境33は、テストデータ35を入力データとして、プログラムである第1の学習モデルM1、及び第2の学習モデルM2を実行する。これにより、第1の学習モデルM1、及び第2の学習モデルM2の実行トレースσ1,σ2を取得することができる。
また、等価性に関して、第1及び第2の学習モデルM1、M2が満たすべき性質が論理式φにより予め定義されている。論理式φは、例えば、有界線形時相論理式(BLTL)式で記述されている。論理式φの例については後述する。論理式φ成立の望ましい事後確率の最小値が判定値cとして定義されている。判定値cは予め設定された定数である。
有界モデル検査ツール37は、BMCにより、実行トレースσ1,σ2が論理式φを満たすかを確認する。つまり、有界モデル検査ツール37は、σ1||σ2|=φが成立するかをBMCで確認する。そして、有界モデル検査ツール37は、BMCでの確認結果に基づいて、σ1||σ2|=φが成立する確率の平均を含む信頼区間を算出する。
有界モデル検査ツール37は、信頼区間からベイズ事後確率Iを算出する。有界モデル検査ツール37は、ベイズ事後確率Iが、判定値c以上であるいか否かが判定する。ベイズ事後確率Iが判定値c以上となるまで、プログラム実行環境33は、実行トレースσ1,σ2を取得する。つまり、ベイズ事後確率Iが判定値c未満である場合、プログラム実行環境33は、次のテストデータ35を用いて、実行トレースσ1,σ2を取得する。
有界モデル検査ツール37が、BMCでσ1||σ2|=φが成立するか否かをチェックする。有界モデル検査ツール37は、チェック結果に基づいて、成立確率の平均値と信頼区間を算出する。
ベイズ事後確率Iが判定値c以上となった場合、有界モデル検査ツール37は、成立確率の平均値と信頼区間を出力する。実施の形態1とは異なり、本実施の形態2では、ベイズ事後確率Iが判定値c以上となるまで、交差検証用のテストデータ35からの無作為復元抽出で入力データを構成している。つまり、テストデータ35の順番を入れ替えることで、入力データを順次生成することができる。そして、テストデータ35を入力データとすることで、プログラム実行環境33は、実行トレースσ1、σ2を取得する。従って、本実施の形態では、入力データが尽きることなく、成立確率の平均値と信頼区間を出力することが可能となる。
このように、第1の学習モデルM1と第2の学習モデルMが論理式φを満たす成立確率の平均値とその信頼区間が得られる。ここで、 σ1||σ2|=φの望ましい成立確率を満たすかに関しては、得られた平均値と信頼区間を用いて別途判定する事となる。
実施の形態2の第1の例、及び第2の例において、学習モデルの滑らかさを考慮した振舞い等価性検証に用いる論理式φの例9〜12を以下に示す。
Figure 2020004178
Xは次点オペレータである。X2はX・XとXを二回適用した2次点オペレータであり、Xnは、Xをn回適用したn次点オペレータである。d2は、出力値系列の1階差分であり、d3は出力値系列の2階差分である。d1〜d3の図表記は図11のようになる。1階差分d2は、連続する2つの出力値d0から求めることができる。2階差分d3は、連続する2つの1階差分d2から求めることができる。例9〜12は、出力値系列の一階以上の差分を考慮したものとなる。
例9〜12の論理式φではd1、d2、又はd3を用いているが、n階(nは1以上の任意の整数)差分を用いることも可能である。さらに、n階までの差分のうち、1つ以上の差分を用いていればよい。n階差分での検証プロパティ例の図表記は図12である。n階差分はn階以下の0階差分までの全てを∧で結合したものとなる。n階までの差分を考慮したラベル一致不一致を対象とした等価性検証プロパティも定義可能である。
なお、d1〜dn+1は同じものであってもよく、異なるものであってもよい。例えば、d1をL1ノルムとし、d2をL2ノルム等としてもよい。あるいは、d1〜dn+1の全てがLpノルムであってもよい。
BLTL式Pr≧Θ[]などに表れる[]内のプロパティ式は、上記の例9〜12に限られるものではない。上記記号と出力に次点オペレータXを0回以上の任意回作用させた項を用いた命題論理式を[]内のプロパティ式として構成してよい。
アナログ回路へのBSMC適用手法では、次点オペレータXを含むBLTL式を直接扱う事が出来ない。そのため、本実施形態にかかる振舞い等価性検証では、例9〜12に示したプロパティを取扱可能とするために、BLTL式に含まれるk次点オペレータXkでのkの最大値を識別している。そして、時刻tから時刻(t+k)までの出力を、時刻が進む度に取得する。BLTL式を時相オペレータを用いない論理式のみからなるBLTL式として扱う事で、σ1||σ2|=φの判定を実施する。この操作は下記操作として定義可能である。
Step1. 論理式に含まれるXkの中で、最大のkを決定し、それをKとする
Step2. 論理式が必要とする実行トレースσ1、σ2、即ち、時刻tから時刻(t+k)までの全時刻に対する第1の学習モデルM1からの出力と第2の学習モデルM2からの出力を取得する。
Step3. 取得した出力値を論理式に代入し、論理式が真となれば、Yesを返し、偽となれば、Noを返す。
ここで、学習モデルの出力系列の先頭を時刻0としている。図9と図10に対して、上記の修正を実施した処理を、それぞれ図13、図14に示す。
図13は、図9に示した第1及び第2の学習モデル向けBSMC法の一例を示すフローチャートである。図13では、特に、実行トレースσ1,σ2の取得から、ベイズ仮説テストでの判定までの処理が示されている。
σ1||σ2|=φの成立確率をp、σ1||σ2|=φの望ましい成立確率をΘ、gを二項分布またはベルヌーイ分布の密度関数、ベイズ仮説検定で用いるTを1以上の定数とする。
n:=0、x:=0とし、論理式φに表れるXkの最大のkをKとする(S61)。学習モデルM1、M2からのn番目から(n+K)番目の連続出力値を取得し、かつ、n:=n+1を実施する(S62)。つまり、第1及び第2の学習モデルM1、M2を実行して、実行トレースσ1、σ2を取得する。そして、実行トレースσ1、σ2のn番目から(n+K)番目までの出力値を連続して取得する。ここで、出力値の系列は0番目から始まるとする。また、交差検証用のテストデータ35が尽きた場合、テストデータ35から無作為非復元抽出を実施する事で入力データを構成することができる。
有界モデル検査ツール37は、出力値を代入した論理式φが真となるか否かを判定する(S63)。すなわち、σ1||σ2|=φが成立するかを有界モデル検査ツール37が確認する。論理式φを満たす場合(S63のYES)、x:=x+1を実施して(S64)、S65に移行する。論理式φを満たさない場合(S63のNO)、S65に移行する。
次に、有界モデル検査ツール37は、ベイズ因子B=BayesFactor(n,x,Θ,g)とする(S65)。つまり、有界モデル検査ツール37は、n、x、Θ、gを関数BayesFactor(n,x,Θ,g)に代入することで、ベイズ因子Bを算出する。関数BayesFactor(n,x,Θ,g)は、図13に記載された通りである。なお、ベータ分布の形状母数パラメータα、βは予め規定されている。
次に、ベイズ因子Bを用いてベイズ仮説テストを行うよう、1/T≦B≦Tか否かを判定する(S66)。1/T≦B≦Tである場合(S66のYES)、S62に戻る。すなわち、テストデータ35から無作為復元抽出で構成した入力データを用いて、プログラム実行環境33がプログラムである学習モデルM1,M2を実行する。そして、上記の処理を繰り返す。
1/T≦B≦Tでない場合(S66のNO)、B≧Tであるか否かを判定する(S67)。つまり、成立確率pがΘ以上であるか否かを判定する。B≧Tである場合(S67のYES)、成立確率pがΘ以上であるため、P≧Θを採択する(S68)。B≧Tでない場合(S67のNO)、成立確率pがΘ未満であるため、P<Θを採択する(S69)。このようにして処理が終了する。
図14は、図10に示した第1及び第2の学習モデル向けBSMC法の一例を示すフローチャートである。図14では、学習モデルM1、M2の実行トレースσ1、σ2の取得から、成立確率pの平均値と信頼区間の出力までの処理アルゴリズムが示されている。
c∈(1/2,1)を事後分布Iが満たすべき下限値定数、δ∈(0,1/2)を信頼区間を構成するパラメータとする。Fをベータ分布の密度関数、α、βをベータ分布の形状母数の正数パラメータ定数とする。
まず、n:=0、x:=0とし、論理式φに表れるXkの最大のkをKとする(S71)。次に、第1の学習モデルM1と第2の学習モデルM2を実行して得られた出力値(実行トレースσ1、σ2)のn番目〜n+K番目の連続出力値を取得し、n:=n+1とする(S72)。ここで、出力値の系列は0番目から始まるとする。また、交差検証用のテストデータ35が尽きた場合、テストデータ35から無作為非復元抽出を実施する事で入力データを構成することができる。
出力値を代入した論理式φが真となるか否かを判定する(S73)。すなわち、σ1||σ2|=φが成立するかを有界モデル検査ツール37が確認する。論理式φを満たす場合(S73のYES)、x:=x+1を実施して(S74)、S75に移行する。論理式φを満たさない場合(S73のNO)、S75に移行する。
次に、平均値mean、信頼区間(t0,t1)、ベイズ事後確率Iを算出する(S75)。平均値mean、信頼区間(t0,t1)は、以下の式で求められる。
mean:=(x+α)/(n+α+β)
(t0,t1):=(mean−δ, mean+δ) if 0≦t0 ∧ t1≦1
(1−2×δ,1) if(t1>1)
(0,2×δ) if(t0<0 ∧ t1≦1)
ベイズ事後確率Iは、図14の関数PosteriorProbabilityに、t0、t1,n、x、α、βを代入することで求められる。
次に、I≦cとなるか否かを判定する(S76)。I≦cである場合(S76のYES)、S72に戻る。テストデータ35から無作為復元抽出で構成した入力データを用いて、プログラムである学習モデルM1,M2を実行する。そして、上記の処理を繰り返す。
I≦cでない場合(S76のNO)、平均値mean、信頼区間(t0,t1)を出力する(S77)。このようにして処理が終了する。
なお、例えば、δ=:1.96×(σ^2/n)^(1/2)、σ:=α×β/{(α+β+1)×(α+β)^2}としてもよい。
本実施の形態によれば、学習済みモデルの滑らかさまでを考慮した振舞い等価性検証を行うことができる。このため、次点オペレータXをBLTL式に導入している。アナログ回路へのBSMC適用手法では次点オペレータXは扱うことができなかったが、本実施の形態では、出力値への次点オペレータ適用のみに利用を制限可能な事に着目し、これを記述可能としている。一方でBLTL式に含まれる次点オペレータXの繰返し回数の最大数をkとしたとき、k個までの出力値を命題論理式へ代入して、論理式の充足判定を実施する。このようにすることで、次点オペレータXを含むBLTL式の充足判定を実施することが可能となる。これにより、学習済みモデルの滑らかさまでを考慮した振舞い等価性検証を現実的な時間で実現可能とすることができる。
実施の形態2では、学習装置が、検証用のテストデータとして系列データを順次入力し、系列データに対応する出力系列データのn(nは1以上の整数)階の差分を求めている。そして、学習装置は、ベイズ統計的モデル検査法において、n階の差分を含む第1及び第2の実行結果が、前記論理式を満たすか否かを判定している。これにより、学習済みモデルの滑らかさまでを考慮した振舞い等価性検証を現実的な時間で実現可能とすることができる。
本実施の形態2では、実施の形態1の(A)、及び(B)において、前記検証用データとして系列データを順次入力し、系列データに対応する出力系列データのn(nは1以上の整数)階までの差分を求める。実施の形態1の(C)において、n階以下の差分のうちの1つ以上の差分を含む第1及び第2の実行結果が、前記論理式を満たすか否かを判定する。これにより、学習済みモデルの滑らかさまでを考慮した振舞い等価性を評価することが可能となる。
[実施の形態3]
本実施の形態では、手本となる学習モデルの振舞いを維持する学習方法について説明する。図15は、振舞い等価性を極力維持することが可能な学習装置の一例を示す図である。ここでの機械学習としては、判別や分類を対象とする。特に、k近傍法、決定木(分類木)、ニューラルネットワーク、ベイジアンネットワーク、サポートベクターマシン、(多項)ロジスティクス回帰など、の教師あり学習全般が対象となる。ここで、図15、及び図16に表れる記号は下記となる。
Figure 2020004178
本実施の形態にかかる学習方法は、生徒教師学習手法を拡張した手法である。即ち、振舞いを維持したい対象である学習済み手本モデル(第1の学習モデルM1と称する)を教師モデルとする。また、振舞いを極力維持した新たな学習を行う対象となる生徒学習モデルを学習対象モデル(第2の学習モデルM2と称する)とする。
教師あり学習データとしてラベル付きデータが与えられているとする。ラベル付きデータである学習用データ101が第1の学習モデルM1に入力される。そして、第1の学習モデルM1の出力out_o(t)を正解ラベルを用いて調整(補正)する。調整後の出力out_o’(t)を、第2の学習モデルM2の学習に用いる。学習では、以下の式(1)が最小となるよう学習を実施する。
Figure 2020004178
第2の学習モデルM2がニューラルネットワークであれば、d1を例えばKL(Kullback-eibler)-Divergenceとし、誤差逆伝搬を実施する。また、必要に応じ正則化項を導入した上で、誤差逆伝搬を実施してもよい。このようにして、生徒学習モデルの学習を実施することができる。
特に、例えばスパース学習や量子化によるビット幅削減、Distillationなど、ニューラルネットワークの学習や再学習での最適化に関する手法を併せて実施しても良い。また、再学習は何度実施しても良い。第2の学習モデルM2が多項ロジスティクス回帰であれば、d1を例えば2乗誤差とし、残差最小化を実施する。必要に応じ正則化項を導入した上で残差最小化を実施してもよい。このようにして、第2の学習モデルM2の学習を実施する。第2の学習モデルM2が決定木など他の学習の場合も、out_o’(t)とout_s(t)を用いて損失関数を算出する。そして、損失関数に基づいて、第2の学習モデルM2の学習を実施すれば良い。
なお、本学習方法において、第1の学習モデルM1と第2の学習モデルM2とが必ずしも同一である必要はない。例えば、第1の学習モデルM1が多項ロジスティクス回帰の学習済みモデルで、第2の学習モデルM2が勾配ブースティング木であっても良い。また、教師モデル構築で用いた学習データに対して、新たに得られたデータを用いた教師あり学習にも対応している。ここで、教師モデル構築では半教師あり学習であっても良い。このことは、図15、図16から明らかである。さらには、第2の学習モデルM2の入力段に平均、中央値、分散、離散コサイン変換や、HOG(Histogram of Oriented Gradients)などの特徴量を抽出する機構を具備していても良い。
図16は、図15に記載した出力調整アルゴリズムの一例を示す。ここで、図16に表れる記号は下記となる。
t:データの順番
l:入力パラメータ、lは1以上の整数
p:入力パラメータ、pは0.5より大きく1.0より小さい実数
なお、本アルゴリズムでは、out_o(t)、out_s(t)は、それぞれ総和が1となるように正規化されていると仮定する。正規化されていない場合は、正規化した後に調整し、総和を掛けて出力を構成するものとする。
図16では、各t番目の出力データに対して以下の処理を実施する。まず、学習用データ101がラベルつきデータであるか否かを確認する(S101)。つまり、学習用データ101が教師ラベルを持つか否か確認する。学習用データ101がラベル付きデータでない場合、out_o‘(t):=out_o(t)を実施する(S102)。次の出力データがあるならS101に移行し、そうでないなら処理を終了する。
学習用データ101がラベル付きデータである場合、S103に移行する。教師あり学習で教師学習済みモデルを構築した場合、全学習用データ101に教師ラベルが付与されるため、S101の判定は、常にYESとなる。
S103では以下の処理を実施する。
(x,i):=(out_o(t)の中の正解の値,そのIndex)
(x,i):=(out_o(t)の中の正解の値,そのIndex)
(y,j):= (out_o(t)の中の最大の値,そのIndex)
(M,I):=(out_o(t)の中で0でないものの数,そのIndex集合-{i})
次に、x==0か否かを判定する(S104)。x==0でない場合(S104のNO)、S106に移行する。x==0の場合(S104のYES)、x:=p*y,out_o(t)[j]:=(1−p)*yを実施する(S105)。
そして、以下の式(2)を実施する(S106)
Figure 2020004178
次の出力データがあるならS101に移行し、そうでないなら処理を終了する。ここで、以下の式(3)より、lを大きくするほど、正解値が強調される事に注意する。上記の学習方法によれば、手本モデルの振舞いを維持した学習を行うことができる。
Figure 2020004178
図17は、図15の学習手法と、実施の形態1に示した振舞い等価性の評価方法とを組み合わせた学習方法を示す。
なお、図17に示す記号l、pは下記となる。
l:図15の出力調整アルゴリズムへの入力パラメータ、lは1以上の整数
p:図15の出力調整アルゴリズムへの入力パラメータ、pは0.5より大きく1.0より小さい実数
ここでは、実施の形態1の第1の例で構成される振舞い等価性検証手法を採用した例を記載するが、第2の例で構成される振舞い等価性検証手法を採用しても良い。つまり、ここでは、ベイズ因子Bに基づいて等価性検証を行っているが、ベイズ事後確率Iに基づいて等価性検証を行ってもよい。また、振舞い等価性維持の機械学習に必要となる入力パラメータl、pは適宜与えられているものとする。
学習モデルM1、M2に対して、図15と図16で構成される振舞い等価性維持の機械学習を実施する(S111)。次に、学習モデルM1、M2に対して、図5と図7で構成される振舞い等価性検証を実施する(S112)。
振舞い等価性検証の結果に基づいて、第1の学習モデルM1と第2の学習モデルM2とが十分な等価性を有しているか否かを判定する(S13)。具体的には、求める確率Θ以上で振舞いが一致するか否か判定する。
十分な等価性を有している場合(S113のYES)、処理を終了する。十分な等価性を有していない場合(S113のNO)、パラメータl,pを調整する(S114)。そして、調整後のパラメータl,pでS111からの処理を実行する。
パラメータの調整では、例えば、l=1とし、pを0.6から0.1刻みに増加させていく。その結果、S113でYESとならなければ、lを1刻みでインクリメントする。lをインクリメントして、同様に、pを0.6から0.1刻みに増加させる。S113でYESとなるまで、パラメータl、pの更新を繰り返すとしても良い。
手本モデルの振舞いを極力維持した対象モデルの学習を実現することができる。手本モデルの振舞いを極力維持しながら、学習モデルを簡素化したり、より単純な学習モデルへ置き換えたりすることが可能となる。対象となる第2の学習モデルが、手本モデルとなる第1の学習モデルの振舞い等価性を維持するように学習を行うことができる。したがって、例えば、手本モデルよりも小さいフットプリントの対象モデルへの置き換えが可能となる。
本実施の形態にかかる学習装置は、以下の(1)〜(4)を実施してもよい。
(1)学習用データを用いて、教師モデルである第1の学習モデルに基づく第1の出力結果を求める。
(2)前記学習用データを用いて、生徒モデルである第2の学習モデルに基づく第2の出力結果を求めている。
(3)前記第1の出力結果と前記第2の出力結果とに基づいて評価用パラメータl,pを定め、前記第2の学習モデルの機械学習を実施する。
(4)前記第1の学習モデルと、学習済みの前記第2の学習モデルとの振舞いを比較する。
(4)において、実施の形態1,2の評価方法を適用してもよい。つまり(4)では、以下の(4−1)〜(4−4)を実施してもよい。
(4−1)検証用データを用いて、第1の学習モデルに基づく第1の実行結果を求める。
(4−2)前記検証用データを用いて、前記第2の学習モデルに基づく第2の実行結果を求める
(4−3)前記第1及び前記第2の実行結果が、論理式を満たすか否かを判定する
(4−4)ベイズ統計モデル検査法を用いて、(4−3)での判定結果に基づいて、第1の学習モデルと前記第2の学習モデルとの振舞い等価性を評価する。
[実施の形態4]
実施の形態4では、振舞いの滑らかさを考慮した等価性を極力維持する学習方法を説明する。図18は、実施の形態4にかかる機械学習方法を説明するための図である。
図18で対象とする機械学習としては、判別や分類を対象とする。実施の形態4では、例えば、k近傍法、決定木(分類木)、ニューラルネットワーク、ベイジアンネットワーク、サポートベクターマシン、(重)回帰、(多項)ロジスティクス回帰など、の教師あり学習全般が対象となる。ここで、図に表れる記号は下記となる。
Figure 2020004178
図18は、出力系列の差分を考慮するように生徒教師学習手法を拡張した手法を示す。図18と図15との主な相違点は以下の通りである。図18では、第1の学習モデルM1の出力とその一階差分をラベル付き教師データとしている。そして、出力の一階差分を考慮した学習が可能となるよう、生徒学習モデル(第2の学習モデルM2)を2つ並べ、出力の一階差分を算出する部分までを生徒学習モデルとしている。加えて、図18では、出力調整を教師学習済みモデルに付加していない点で図15と異なる。一階差分までを考慮した学習では、以下の式(4)が最小となるように学習を行う。
Figure 2020004178
生徒学習モデル(第2の学習モデルM2)がニューラルネットワークであれば、例えばd1を二乗誤差、d2をKL-Divergenceとし、誤差逆伝搬を実施する。また、必要に応じ正則化項を導入した上で誤差逆伝搬を実施してもよい。このように、生徒学習モデルの学習を実施する。特に、例えばスパース学習や量子化によるビット幅削減、Distillationなど、ニューラルネットワークの学習や再学習での最適化に関する手法をプロセッサが併せて実施しても良い。また、再学習は何度実施しても良い。
生徒学習モデルが多項ロジスティクス回帰や重回帰であれば、例えばd1とd2を2乗誤差として、残差最小化を実施する。また、必要に応じ正則化項を導入した上で、残差最小化を実施してもよい。このようにして、生徒学習モデルの学習を実施する。生徒学習モデルが決定木など他の学習の場合も、損失関数を算出する。プロセッサは、損失関数に基づいて、生徒学習モデルの学習を実施すれば良い。損失関数は、out_o(t),out_s(t), d1(out_o(t),out_o(t+1)), d1(out_s(t),out_s(t+1))を用いて算出することができる。
本学習において、教師モデルと生徒学習モデルが必ずしも同一である必要はない。例えば、教師モデルが多項ロジスティクス回帰の学習済みモデルで、生徒学習モデルが勾配ブースティング木であっても良い。また、本実施の形態にかかる学習方法は、学習済み教師モデル構築で用いた学習データに対して、新たに得られたデータを用いた教師あり学習にも対応している。ここで、教師モデル構築では半教師あり学習であっても良い。さらには、生徒学習モデルの初段入力段に平均、中央値、分散、離散コサイン変換やHOG、などの特徴量を抽出する機構を具備していても良い。
(実施の形態4の変形例1)
図18では、一階差分までの振舞いを可能な限り維持する学習装置の例が示されていたが、これをn階差分までを考慮して振舞いを可能な限り維持する学習へと拡張する事は容易である。n階差分までを考慮した教師学習済みモデルを図19に示し、n階差分までを考慮した生徒学習モデルを図20に示す。
図19、図20に示すモデルを図18の対応する部分に当てはめる。具体的には、図18の一点鎖線枠で示された教師モデル(一点鎖線)に図19の教師学習済みモデルを適用する。また、図18の点線枠で示された生徒モデルに図20の生徒学習モデルを適用する。n階以下の差分出力のそれぞれに対して、適切な距離関数や誤差関数等の関数を選ぶ。そして、選んだ関数の出力を構成し、構成した出力のデータ順tの総和を最小化するように学習すれば良い。ここで、差分の算出は、適切な距離関数なり誤差関数なりを選んで構成されているものとする。また、0階差分は、学習モデルM1、M2からの直接出力に対応する。nは0以上の整数とする。
また、図19と図20の構成から、n階以下すべての差分を用いるのではなく、n階以下の幾つかの差分を可能な限り維持する学習を構成する事も容易に実現できることがわかる。実際、選択した差分を用いて損失関数を構成すれば良いだけである。例えば、mを0以上、nより小さい整数とする。図19、図20から、n階差分を考慮した学習モデルは、内部にm階差分を考慮したモデルを含んでいる事は明らかである。損失関数がn階までの差分のうちの1つ以上を用いて構成されていればよい。損失関数を最小化するように、学習を行う。
図21に、図18〜図20に記載した学習手法と実施の形態1又は2の等価性検証方法とを組み合わせた学習方法を示す。本学習方法での考え方の基本は、以下の通りである。(n+k)階差分考慮で学習する事で、より滑らかな振舞い等価性を可能な限り維持する学習を実施する。また、等価性の検証ではより緩和した条件であるn階差分までを考慮した振舞い等価性検証を適用する。そして、検証合格した生徒学習済みモデルの中で、交差検証にて最も精度のよい、即ち、最も尤もらしい、生徒学習済みモデルを構築する。
ここで、図21に表れる記号は下記となる。
n:考慮する差分を表す入力パラメータ、nは0以上の整数
k:考慮する差分のオフセットを表す入力パラメータ、kは0以上の整数
ここでは、実施の形態2の第1の例にかかる振舞い等価性検証手法を採用した例を記載する。もちろん、実施の形態2の第2の例にかかる振舞い等価性検証手法を採用しても良い。また、振舞い等価性検証に必要となる入力パラメータは適宜与えられているものとする。但し、n=0では、実施の形態1の第1の例にかかる振舞い等価性検証を用いるものとする。もちろん、n=0の場合、実施の形態1の第2の例にかかる振舞い等価性検証手法を採用しても良い。
まず、図18〜20で示されたように、(n+k)階差分までを考慮した振舞い等価性維持の機械学習を実施する(S121)。この結果、生徒学習済みモデル151が構築される。生徒学習済みモデル151は、内部に差分未考慮の生徒学習モデルを内部に(n+k+1)個含んでいる。
(n+k+1)個の生徒学習済みモデル151の中から、n階差分モデルを抽出する(S122)。つまり、out_s(t+n+k)からout_s(t+k)までの出力を持つ(n+1)個から成る学習済みモデル152の部分モデルを取得する。
n階差分を考慮した振舞い等価性検証を実施する(S123)。ここでは、図9、図13で示した振舞い等価性検証が実施される。n=0の場合、図5、図7で示した振舞い等価性検証が実施される。
振舞い等価性検証結果に基づいて、十分な等価性を有しているか否かを判定する(S124)。つまり、求める確率Θ以上で振舞いが一致するか否かを判定する。振舞いが一致する確率がΘ以上の場合、十分な等価性を有していると判定し、振舞いが一致する確率がΘ未満の場合、十分な等価性を有していないと判定する。
十分な等価性がないと判定された場合(S124のNO)、S129に移行して、パラメータn,kを調整する。S129の処理については後述する。十分な等価性があると判定された場合(S124のYES)、学習済みモデルを分割する(S125)。これにより、(n+1)個の学習済みモデル153が格納される。
そして、(n+1)個の学習済みモデルのそれぞれに対して交差検証を行う(S126)。(n+1)個の学習済みモデルの中に、精度が十分なモデルがあるか否かを判定する(S127)。精度が十分なモデルがないと判定された場合(S127のNO)、S129に移行する。精度が十分なモデルがあると判定された場合(S127のYES)、最も精度が高い学習済みモデルを選択する(S128)。つまり、論理式φを満たす確率が最も高いモデルが、最も尤もらしい学習済みモデルとして選択される。これにより、手本モデルの振舞い等価性を維持した学習モデルを構築することができる。
S129では、パラメータn,kを調整して、S121に戻る。具体的には、S129のパラメータ調整は、例えば、以下の通り実施される。n=0とし、kを1から1刻みに5まで増加させていく。kが5になるまでにS127の判定がYESしなければ、nをインクリメントする。つまり、nを1増加して、同様にkを1から1刻みに3まで増加させる。こうしたn,kの更新をn=5となるまで繰り返すとしても良い。また、繰返しの結果、十分な等価性が得られなければ、処理を終了するものとして良い。ここで、n,kはstatic変数とする。もちろん、n,kは上記の値に限られるものではない。
(実施の形態4の変形例2)
図22に実施の形態4の変形例2にかかる学習装置、及び方法について説明する。変形例2において、対象とする機械学習としては、判別や分類を対象とする。k近傍法、決定木(分類木)、ニューラルネットワーク、ベイジアンネットワーク、サポートベクターマシン、(重)回帰、(多項)ロジスティクス回帰など、の教師あり学習全般が対象となる。ここで、図22に表れる記号は下記となる。
Figure 2020004178
図22の手法は、n階差分を考慮した上で、生徒教師学習手法を拡張した手法である。図18では、図15,図16などの出力調整が教師学習済みモデルに付加されている。一階差分までを考慮した学習では、以下の式(5)が最小となるように、学習を実施する。
Figure 2020004178
生徒学習モデルがニューラルネットワークであれば、例えばd1を二乗誤差、d2をKL-Divergenceとして、誤差逆伝搬を実施する。このようにして、生徒学習モデルの学習を実施する。なお、必要に応じ正則化項を導入した上で、誤差逆伝搬を実施してもよい。
特に、例えばスパース学習や量子化によるビット幅削減、Distillationなど、ニューラルネットワークの学習や再学習での最適化に関する手法を併せて実施しても良い。再学習は何度実施しても良い。生徒学習モデルが多項ロジスティクス回帰や重回帰であれば、d1とd2を例えば2乗誤差として、残差最小化を実施する。なお、必要に応じ正則化項を導入した上で残差最小化を実施してもよい。このようにして、生徒学習モデルの学習を実施する。
生徒学習モデルが決定木など他の学習の場合も、 out_o’(t), out_s(t), d1(out_o’(t),out_o’(t+1)), d1(out_s(t),out_s(t+1))を用いて損失関数の算出する。そして、損失関数に基づいて、生徒学習モデルの学習を実施すれば良い。
なお、本学習方法において、学習済み教師モデルと生徒学習モデルが必ずしも同一である必要はない。例えば、教師が多項ロジスティクス回帰の学習済みモデルで、生徒が勾配ブースティング木であっても良い。また、学習済み教師モデル構築で用いた学習データに対して、新たに得られたデータを用いた教師あり学習にも対応している。ここで、教師モデル構築では半教師あり学習であっても良い。さらには、生徒学習モデルの初段入力段に平均、中央値、分散、離散コサイン変換やHOG、などの特徴量を抽出する機構を具備していても良い。
図22では、一階差分までの振舞いを可能な限り維持する学習例が示されていたが、これをn階差分までを考慮して振舞いを可能な限り維持する学習へと拡張する事は容易である。図22の対応する部分に、図19、図20のモデルを当てはめればよい。より具体的には、教師モデルについては、図18の学習済みモデル出力の出力調整104を図19に付加して適用すればよい。対象モデルについては、図20に示されている、n階差分までを考慮した生徒学習モデルの構成を、適用すればよい。
n階以下の差分出力のそれぞれに対して、適切な距離関数や誤差関数等の関数を選ぶ。そして、選んだ関数の出力を構成し、構成した出力のデータ順tの総和を最小化するように学習すれば良い。ここで、差分の算出は、適切な距離関数なり誤差関数なりを選んで構成されているものとする。また、0階差分は、学習モデルM1、M2からの直接出力に対応する。nは0以上の整数とする。
また、図19と図20の構成から、n階以下すべての差分を用いるのではなく、n階以下の幾つかの差分を可能な限り維持する学習を構成する事も容易に実現できることがわかる。実際、選択した差分を用いて損失関数を構成すれば良いだけである。
図23を用いて、変形例2にかかる学習方法について説明する。図23では、図22に対して、n階差分を考慮する処理を示すフローチャートである。図23では、図19に示す手本モデルの出力に対して出力調整104が実施されている。さらに、図20の学習対象モデル(第2の学習モデルM2)を適用している。
本手法での考え方の基本は、以下の通りである。出力調整を伴うラベル付き教師データを用いて(n+k)階差分考慮で学習することで、より滑らかな振舞い等価性を可能な限り維持する学習を実施することができる。さらに、等価性の検証では、より緩和した条件であるn階差分までを考慮した振舞い等価性検証を適用する。そして、検証合格した生徒学習済みモデルの中で、交差検証にて最も精度のよい、即ち、最も尤もらしい、生徒学習済みモデルを構築する。
図23に表れる記号は以下の通りである。
n:考慮する差分を表す入力パラメータ、nは0以上の整数
k:考慮する差分のオフセットを表す入力パラメータ、kは0以上の整数
l:出力調整アルゴリズムの入力パラメータ、lは1以上の整数
p:出力調整アルゴリズムの入力パラメータ、pは0.5より大きく1.0より小さい実数
ここでは簡単のため、実施の形態2の第1の例にかかる振舞い等価性検証手法を採用した例を記載するが、第2の例にかかる振舞い等価性検証手法を採用しても良い。また、振舞い等価性検証に必要となる入力パラメータは適宜与えられているものとする。ただし、n=0の場合、実施の形態1の第1の例にかかる振舞い等価性検証が用いられる。もちろん、n=0の場合、実施の形態1の第2の例にかかる振舞い等価性検証手法を採用しても良い。
(n+k)階差分までを考慮した振舞い等価性維持の機械学習を実施する(S141)。ここでは、図19に対して出力調整104を適用した上で、学習が実施される。さらに、図22に対して、図20を適用した上で、学習が実施される。この結果、生徒学習済みモデル151が構築される。生徒学習済みモデル151は、内部に差分未考慮の生徒学習モデルを内部に(n+k+1)個含んでいる。
(n+k+1)個の生徒学習済みモデル151の中から、n階差分モデルを抽出する(S142)。つまり、out_s(t+n+k)からout_s(t+k)までの出力を持つ(n+1)個から成る学習済みモデル152の部分モデルを取得する。
n階差分を考慮した振舞い等価性検証を実施する(S143)。ここでは、図9、図13で示した振舞い等価性検証が実施される。n=0の場合、図5、図7で示した振舞い等価性検証が実施される。
振舞い等価性検証結果に基づいて、十分な等価性を有しているか否かを判定する(S144)。つまり、求める確率Θ以上で振舞いが一致するか否かを判定する。振舞いが一致する確率がΘ以上の場合、十分な等価性を有していると判定し、振舞いが一致する確率がΘ未満の場合、十分な等価性を有していないと判定する。
十分な等価性がないと判定された場合(S144のNO)、S149に移行する。十分な等価性があると判定された場合(S144のYES)、学習済みモデルを分割する(S145)。これにより、(n+1)個の学習済みモデル153が格納される。
そして、(n+1)個の学習済みモデルのそれぞれに対して交差検証を行う(S146)。(n+1)個の学習済みモデルの中に、精度が十分なモデルがあるか否かを判定する(S147)。精度が十分なモデルがないと判定された場合(S147のNO)、S149に移行する。精度が十分なモデルがあると判定された場合(S147のYES)、最も精度が高い学習済みモデルを選択する(S148)。つまり、論理式φを満たす確率が最も高いモデルが、最も尤もらしい学習済みモデルとして選択される。これにより、手本モデルの振舞い等価性を維持した学習モデルを構築することができる。
S149では、パラメータl,p,n,kを調整して、S141に戻る。S149のパラメータ調整は、例えば、以下の通り実施される。n=0とし、kを1から1刻みに5まで増加させていく中で、l=1とし、pを0.6から0.1刻みに増加させていく。この結果、S147の判定がYESとならなければ、lをインクリメントして同様にpを0.6から0.1刻みに増加させる。こうしたl,pの更新をl=5となるか、S147がYESとなるまで繰り返す。
S147の判定がYESとならなければ、nをインクリメントし同様にkを1から1刻みに3まで増加させ、その中でl=1とし、pを0.6から0.1刻みに増加させる。S147の判定がYESとならなければ、lをインクリメントし同様にpを0.6から0.1刻みに増加させる。こうしたl,pの更新をl=5となるか、あるいは、S147の判定がYESとなるまで繰り返す。こうしたl,p,n,kの更新をn=5となるまで繰り返すとしても良い。また、繰返しの結果、S144にて十分な等価性が得られなければ、処理を終了するものとして良い。ここで、l,p,n,kはstatic変数とする。もちろん、l,p,n,kは上記の値に限られるものではない。
このように、実施の形態4では、1階以上の差分を考慮している。このようにすることで、滑らかさまでを考慮した振舞いの等価性を評価することができる。よって、滑らかさを含めた振舞いが手本モデルと等価な学習モデルを構築することができる。
[実施の形態5]
(実施の形態5の第1の例)
実施の形態5では、敵対的サンプル(Adversarial Example)耐性を獲得するための学習手法を開示する。図24は、敵対的サンプル耐性のない学習済みモデル(第1の学習モデルM1)と、検証対象の学習済みモデル(第2の学習モデルM2)との等価性を検証する学習装置を示す。実施の形態5では、実施の形態1〜4と同様にBSMC法を用いている。そして、第2の学習モデルM2が敵対的サンプル特性を獲得できたか否かを判定する。
本実施の形態では、検証用テストデータと各データに対する敵対的サンプルをテストデータ35として用いている。検証用テストデータとそれに含まれる各データに対して敵対的サンプルを構成したデータを追加して、テストデータ35を再構築している。
テストデータ35は、プログラム実行環境33に入力される。プログラム実行環境33は、入力データを用いて、第1の学習モデルM1、及び第2の学習モデルM2を実行する。これにより、実行トレースσ1,σ2が取得される。
また、等価性に関して、第1及び第2の学習モデルM1、M2が満たすべき性質が論理式φにより予め定義されている。論理式φは、例えば、有界線形時相論理式(BLTL)式で記述されている。論理式φの望ましい成立確率が事前に判定値Θとして定義されている。論理式φについては、実施の形態1で示した例5、6を用いることができる。もちろん、他の論理式を用いてもよい。
有界モデル検査ツール37は、BMCにより、実行トレースσ1,σ2が論理式φを満たすかを確認する。つまり、有界モデル検査ツール37は、σ1||σ2|=φが成立するかをBMCで確認する。有界モデル検査ツール37はBMCでの確認結果に基づいて、ベイズ因子Bを算出する。
有界モデル検査ツール37は、ベイズ因子Bに基づいて、ベイズ仮説テスト38を実施するに足るか否かを判定する。ベイズ仮説テスト38は、σ1||σ2|=φの成立確率が判定値Θ以上であるか否かを判定するためのテストである。プログラム実行環境33は、実施の形態2で示したように、テストデータ35からの無作為復元抽出で入力データを構成している。よって、ベイズ仮説テスト38を実施するに足りるまで、実行トレースσ1,σ2を取得することができる。そして、有界モデル検査ツール37は、実行トレースσ1,σ2に基づいて、BMCでのσ1||σ2|=φの成立可否をチェックする。
ベイズ因子Bがベイズ仮説テスト38を実施するに足りた場合、ベイズ仮説テスト38を実施して、σ1||σ2|=φの成立確率が判定値Θ以上か否かを判定する。有界モデル検査ツール37は、第1の学習モデルM1と第2の学習モデルM2が論理式φをみたす確率がΘ以上であるか否かを判定する。
なお、M1||M2|=P≧Θ(φ)は、第1の学習モデルM1と第2の学習モデルM2が論理式φを満たす確率がΘ以上である事を意味する。M1||M2|=P(φ)は、第1の学習モデルM1と第2の学習モデルM2が論理式φを満たす確率がΘ未満である事を意味する。
ここで、Adversarial Example構築では、下記論文を用いても良い。
Synthesizing Robust Adversarial Examples
https://arxiv.org/abs/1707.07397
上記の文献の利用においては、敵対的サンプル構成で実施する確率的勾配法(Stochastic Gradient Decent)の操作を途中で止める事で、必ずしも完全な誤りを出力するわけではない敵対的サンプルを構成しても良い。もちろん、他の手法を用いて、敵対的サンプルを構築してもよい。
(実施の形態5の第2の例)
図25は、実施の形態5の第2の例にかかる評価装置を説明するための図である。図25では、図24と同様に、敵対的サンプル耐性のない学習済みモデル(第1の学習モデルM1)と、検証対象の学習済みモデル(第2の学習モデルM2)との等価性を検証する学習装置を示す。実施の形態5では、実施の形態1〜4と同様にBSMC法を用いている。そして、第2の学習モデルM2が敵対的サンプル特性を獲得できたか否かを判定する。
第2の例においても、第1の例と同様に、検証用テストデータと各データに対する敵対的サンプルをテストデータ35として用いている。検証用テストデータとそれに含まれる各データに対して敵対的サンプルを構成したデータを追加して、テストデータ35を再構築している。
プログラム実行環境33には、テストデータ35が入力されている。プログラム実行環境33は、テストデータ35を用いて、第1の学習モデルM1、及び第2の学習モデルM2のプログラムを実行する。すなわち、プログラム実行環境33は、テストデータ35を入力データとして、プログラムである第1の学習モデルM1、及び第2の学習モデルM2を実行する。これにより、第1の学習モデルM1、及び第2の学習モデルM2の実行トレースσ1,σ2を取得することができる。
また、等価性に関して、第1及び第2の学習モデルM1、M2が満たすべき性質が論理式φにより予め定義されている。論理式φは、例えば、有界線形時相論理式(BLTL)式で記述されている。論理式φについては、実施の形態1で示した例5、6を用いることができる。もちろん、他の論理式を用いてもよい。論理式φ成立の望ましい事後確率の最小値が判定値cとして定義されている。判定値cは予め設定された定数である。
有界モデル検査ツール37は、BMCにより、実行トレースσ1,σ2が論理式φを満たすかを確認する。つまり、有界モデル検査ツール37は、σ1||σ2|=φが成立するかをBMCで確認する。そして、有界モデル検査ツール37は、BMCでの確認結果に基づいて、σ1||σ2|=φが成立する確率の平均を含む信頼区間を算出する。
有界モデル検査ツール37は、信頼区間からベイズ事後確率Iを算出する。有界モデル検査ツール37は、ベイズ事後確率Iが、判定値c以上であるいか否かが判定する。ベイズ事後確率Iが判定値c以上となるまで、プログラム実行環境33は、実行トレースσ1,σ2を取得する。つまり、ベイズ事後確率Iが判定値c未満である場合、プログラム実行環境33は、次のテストデータ35を用いて、実行トレースσ1,σ2を取得する。
有界モデル検査ツール37が、BMCでσ1||σ2|=φが成立するか否かをチェックする。有界モデル検査ツール37は、チェック結果に基づいて、成立確率の平均値と信頼区間を算出する。
ベイズ事後確率Iが判定値c以上となった場合、有界モデル検査ツール37は、成立確率の平均値と信頼区間を出力する。本実施の形態2で示したように、ベイズ事後確率Iが判定値c以上となるまで、交差検証用のテストデータ35からの無作為復元抽出で入力データを構成している。そして、テストデータ35を入力データとすることで、プログラム実行環境33は、実行トレースσ1、σ2を取得する。
このように、第1の学習モデルM1と第2の学習モデルMが論理式φを満たす成立確率の平均値とその信頼区間が得られる。ここで、 σ1||σ2|=φの望ましい成立確率を満たすかに関しては、得られた平均値と信頼区間を用いて別途判定する事となる。
なお、敵対的サンプル構築については、第1の例で示した文献を用いることができる。もちろん、他の手法を用いて、敵対的サンプルを構築してもよい。
構築した敵対的サンプルは本学習において正解ラベルが付与された教師ありデータとなる。その為、第1のモデルM1に対する教師ありデータが存在しない場合、敵対的サンプル以外に対する第1の学習モデルM1の出力を第2の学習モデルM2の教師ありデータとして用いる、とすれば、第1の学習モデルM1は様々な手法で構築することができる。例えば、第1の学習モデルM1は教師なし・教師あり・半教師あり・強化学習、及びこれらの組み合わせで構築された学習済みモデルであるとして良い。特に第1の学習モデルM1に対する教師ありデータが存在しない場合、以下に開示する図26、図27では、敵対的サンプル以外の入力に対する第1の学習モデルM1の全出力をラベル一致した出力として扱う事となる。
実施の形態5によれば、敵対的サンプル耐性のない手本モデルの振舞いを維持しつつ、敵対的サンプル耐性のある学習モデルを構築することができる。よって、敵対的サンプル耐性のない学習モデルを敵対的サンプル耐性のある学習モデルに置き換えることが可能となる。
本実施の形態5の第1及び第2の例においても実施の形態2で示したn階差分を考慮した検証を実施することができる。例えばn階差分考慮の検証では、第1の学習モデルM1でラベル一致したs(t)個(s(t)≦n)の出力系列に対して、s-1階差分を構成する。また、対応する第2の学習モデルM2の出力系列で同様にs(t)-1階差分を構成する。対応するu階差分(0≦u≦s(t))同士の距離なり誤差なり損失関数なりがε以下となるか否かを検証するプロパティを用いて実施すれば良い。これを、敵対的サンプル耐性モデルを対象としたn階差分考慮の振舞い等価性検証とする。ここでtは、データ順である。
[実施の形態6]
実施の形態6では、実施の形態5に記載された評価方法を、実施の形態4の図21等に記載した学習方法に組み合わせている。このようにすることで、手本モデルの振舞い等価性を極力維持しつつ、敵対的サンプル特性を持つモデルを学習することができる。
本実施の形態にかかる学習装置は、(n+k)階差分考慮で学習する事で、より滑らかな振舞い等価性を可能な限り維持する学習を実施する。そして、等価性の検証ではより緩和した条件であるn階差分までを考慮した振舞い等価性検証を適用している。検証合格した生徒学習済みモデルの中で、交差検証にて最も精度のよい、即ち、最も尤もらしい、生徒学習済みモデルを構築する。ただし、敵対的サンプルを入力としての学習では、教師学習済みモデルの出力を用いず、学習用データが持つ教師ラベルを用いて、生徒学習モデルの学習を実施するものとする。
また、n階差分考慮の学習では、第1の学習モデルM1でラベル一致したs(t)個(s(t)≦n)の出力系列に対して、s(t)-1階差分を構成する。また、対応する第2の学習モデルM2の出力系列で同様にs-1階差分を構成し、対応するu階差分(0≦u≦s(t))同士の距離なり誤差なり損失関数を構成して学習するものとする。ここでtは、データ順である。
図26は、本実施の形態にかかる学習方法を示すフローチャートである。図26では、実施の形態5の評価方法を、図18〜図20等に記載された学習方法に適用している。
以下の説明では、実施の形態5の第1に例にかかる評価方法を採用した例を記載するが、第2の例にかかる評価方法を採用しても良い。また、敵対的サンプル耐性モデル向け振舞い等価性検証に必要となる入力パラメータは適宜与えられているものとする。
図26に表れる記号は下記となる。
n:考慮する差分を表す入力パラメータ、nは0以上の整数
k:考慮する差分のオフセットを表す入力パラメータ、kは0以上の整数
まず、図18〜20で示されたように、(n+k)階差分までを考慮した振舞い等価性維持の機械学習を実施する(S221)。この結果、生徒学習済みモデル151が構築される。生徒学習済みモデル151は、内部に差分未考慮の生徒学習モデルを内部に(n+k+1)個含んでいる。
(n+k+1)個のモデルの中から、n階差分モデルを抽出する(S222)。つまり、out_s(t+n+k)からout_s(t+k)までの出力を持つ(n+1)個から成る学習済みモデル152の部分モデルを取得する。
n階差分を考慮した敵対的サンプル向け振舞い等価性検証を実施する(S223)。ここでは、図24又は図25で示した振舞い等価性検証が実施される。つまり、各データに対して敵対的サンプルを構築したテストデータを用いて、等価性が検証されている。
振舞い等価性検証結果に基づいて、十分な等価性を有しているか否かを判定する(S224)。つまり、求める確率Θ以上で振舞いが一致するか否かを判定する。振舞いが一致する確率がΘ以上の場合、十分な等価性を有していると判定し、振舞いが一致する確率がΘ未満の場合、十分な等価性を有していないと判定する。
十分な等価性がないと判定された場合(S224のNO)、S229に移行する。十分な等価性があると判定された場合(S224のYES)、学習済みモデルを分割する(S225)。これにより、(n+1)個の学習済みモデル153が格納される。
そして、(n+1)個の学習済みモデルのそれぞれに対して交差検証を行う(S226)。(n+1)個の学習済みモデルの中に、図24等に示す敵対的サンプル耐性モデル向けの等価性検証に合格し、精度が十分なモデルがあるか否かを判定する(S227)。精度が十分なモデルがないと判定された場合(S227のNO)、S229に移行する。精度が十分なモデルがあると判定された場合(S227のYES)、最も精度が高い学習済みモデルを選択する(S228)。つまり、論理式φを満たす確率が最も高いモデルが、最も尤もらしい学習済みモデルとして選択される。
このようにすることで、敵対的耐性モデル向け振舞い等価性検証に合格する中で、精度が最も高いモデルを出力することができる。これにより、手本モデルの振舞い等価性を維持しつつ、敵対的サンプル耐性を有する学習モデルを構築することができる。また手本モデルが敵対的サンプル耐性を持つ場合には、振舞い等価性を維持しつつ敵対的サンプル耐性を向上する事も出来る。
S229では、パラメータn,kを調整して、S221に戻る。具体的には、S229のパラメータ調整は、例えば、以下の通り実施される。n=0とし、kを1から1刻みに5まで増加させていく。kが5になるまでにS227の判定がYESしなければ、nをインクリメントする。つまり、nを1増加して、同様にkを1から1刻みに3まで増加させる。こうしたn,kの更新をn=5となるまで繰り返すとしても良い。また、繰返しの結果、十分な等価性が得られなければ、処理を終了するものとして良い。ここで、n,kはstatic変数とする。もちろん、n,kは上記の値に限られるものではない。
(実施の形態6の変形例1)
実施の形態6の変形例1では、実施の形態5に記載された評価方法を、実施の形態4の図23等に記載した学習方法に組み合わせている。このようにすることで、手本モデルの振舞い等価性を極力維持しつつ、敵対的サンプル特性を持つモデルを学習することができる。
変形例1にかかる学習装置は、(n+k)階差分考慮で学習する事で、より滑らかな振舞い等価性を可能な限り維持する学習を実施する。そして、等価性の検証ではより緩和した条件であるn階差分までを考慮した振舞い等価性検証を適用している。検証合格した生徒学習済みモデルの中で、交差検証にて最も精度のよい、即ち、最も尤もらしい、生徒学習済みモデルを構築する。ここで、敵対的サンプルのデータ構成段階で、適切な教師ラベルが付加されている。すなわち、敵対的サンプル耐性がある程度備わっている教師学習済みモデルは勿論の事、敵対的サンプル耐性のない教師学習済みモデルの出力は、出力調整により、適切なラベル付き教師データに変換可能である。なお、出力調整では、適切なパラメータp、lを設定している。
図27は、本実施の形態6の変形例1にかかる学習方法を示すフローチャートである。図27では、実施の形態5の評価方法を、図18〜図20等に記載された学習方法に適用している。さらに、図27では、図15〜図17に示された手本モデルの出力調整104が実施されている。
図27に表れる記号は以下の通りである。
n:考慮する差分を表す入力パラメータ、nは0以上の整数
k:考慮する差分のオフセットを表す入力パラメータ、kは0以上の整数
l:出力調整アルゴリズムの入力パラメータ、lは1以上の整数
p:出力調整アルゴリズムの入力パラメータ、pは0.5より大きく1.0より小さい実数
まず、図18〜20で示されたように、(n+k)階差分までを考慮した振舞い等価性維持の機械学習を実施する(S241)。この結果、生徒学習済みモデル151が構築される。生徒学習済みモデル151は、内部に差分未考慮の生徒学習モデルを内部に(n+k+1)個含んでいる。
(n+k+1)個のモデルの中から、n階差分モデルを抽出する(S242)。つまり、out_s(t+n+k)からout_s(t+k)までの出力を持つ(n+1)個から成る学習済みモデル152の部分モデルを取得する。
n階差分を考慮した敵対的サンプル向け振舞い等価性検証を実施する(S243)。ここでは、図24又は図25で示した振舞い等価性検証が実施される。つまり、各データに対して敵対的サンプルを構築したテストデータを用いて、等価性が検証されている。
振舞い等価性検証結果に基づいて、十分な等価性を有しているか否かを判定する(S244)。つまり、求める確率Θ以上で振舞いが一致するか否かを判定する。振舞いが一致する確率がΘ以上の場合、十分な等価性を有していると判定し、振舞いが一致する確率がΘ未満の場合、十分な等価性を有していないと判定する。
十分な等価性がないと判定された場合(S244のNO)、S249に移行する。十分な等価性があると判定された場合(S244のYES)、学習済みモデルを分割する(S245)。これにより、(n+1)個の学習済みモデル153が格納される。
そして、(n+1)個の学習済みモデルのそれぞれに対して交差検証を行う(S246)。(n+1)個の学習済みモデルの中に、図24等に示す敵対的サンプル耐性モデル向けの等価性検証に合格し、精度が十分なモデルがあるか否かを判定する(S247)。精度が十分なモデルがないと判定された場合(S247のNO)、S249に移行する。精度が十分なモデルがあると判定された場合(S247のYES)、最も精度が高い学習済みモデルを選択する(S248)。つまり、論理式φを満たす確率が最も高く最も精度が高いモデルが、最も尤もらしい学習済みモデルとして選択される。
このようにすることで、敵対的耐性モデル向け振舞い等価性検証に合格する中で、精度が最も高いモデルを出力することができる。これにより、手本モデルの振舞い等価性を維持しつつ、敵対的サンプル耐性を有する学習モデルを構築することができる。
S249では、パラメータl,p,n,kを調整して、S241に戻る。S249のパラメータ調整は、例えば、以下の通り実施される。n=0とし、kを1から1刻みに5まで増加させていく中で、l=1とし、pを0.6から0.1刻みに増加させていく。この結果、S247の判定がYESとならなければ、lをインクリメントして同様にpを0.6から0.1刻みに増加させる。こうしたl,pの更新をl=5となるか、S247がYESとなるまで繰り返す。
S247の判定がYESとならなければ、nをインクリメントし同様にkを1から1刻みに3まで増加させ、その中でl=1とし、pを0.6から0.1刻みに増加させる。S247の判定がYESとならなければ、lをインクリメントし同様にpを0.6から0.1刻みに増加させる。こうしたl,pの更新をl=5となるか、あるいは、S247の判定がYESとなるまで繰り返す。こうしたl,p,n,kの更新をn=5となるまで繰り返すとしても良い。また、繰返しの結果、S244にて十分な等価性が得られなければ、処理を終了するものとして良い。ここで、l,p,n,kはstatic変数とする。もちろん、l,p,n,kは上記の値に限られるものではない。
[その他の実施の形態]
図28を用いて、その他の実施の形態にかかる学習装置について説明する。ここでは、手本となる学習アルゴリズムがあり、アルゴリズムの改善を実施した際に、改善アルゴリズムがどの程度の改善を実施しているのかを、検証している。この検証には、上記の振舞い等価性検証が用いられている。ここで、学習対象モデルとそれに対応する学習データ、及び学習済みモデルを対象とした交差検証データの一式が複数用意されているとする。
図28では、先ず学習対象モデル群301とそれに対応する学習データ群302を取得する。さらに、手本学習済みモデル305、学習済みモデル306を対象とした交差検証用のテストデータ群308を取得する。学習対象モデル群301とそれに対応する学習データ群302を用いて、手本学習アルゴリズム303による学習と改善学習アルゴリズム304による学習をそれぞれ実施する。
手本学習アルゴリズムの学習によって、手本学習済みモデル305が構築される。また、改善学習アルゴリズム304の学習によって、改善が期待される学習済みモデル306が構築される。手本学習済みモデル305、及び改善が期待される学習済みモデル306はメモリに格納される。
交差検証用のテストデータ群308を用いて、手本学習済みモデル305、及び改善が期待される学習済みモデル306に対する振舞い等価性検証309を実施する。等価性検証は、図5、又は図6等に記載された手法を用いることができる。振舞い等価性検証309の実行結果である改善/改悪度合いの検証結果310をメモリに格納する。
上記の処理を、繰り返す事で、どういった学習対象モデルに対して、どの程度の改善・改悪があったのかを確認することができる。このため、改善アルゴリズムの検証を実施することが可能となる。
また、本検証自体の確からしさに関しては、個々の学習モデルでの振舞い等価性検証でのアルゴリズム実行とは別に、全学習対象モデルに対して、図7のベイズ仮説テストや図8のベイズ区間推定手法を適用する事で確認しても良い。
ここで、振舞い等価性検証で用いる論理式φとしては、実施の形態1の例5,又は例6を用いることができる。
図29は、本実施の形態にかかる方法を実行するための装置400を示すブロック図である。装置400は、プロセッサ401とメモリ402とを備えたコンピュータである。装置400は、上記したように、学習モデルの振舞いを評価する評価方法を実施する。あるいは、装置400は、学習モデルを学習する学習方法を実施する。
メモリ402には、上記の処理を行うためのプログラムが保持されている。さらに、メモリ402は、評価用のテストデータ等が保持されている。プロセッサ401は、CPUなどであり、リプログラミング(プログラムの更新)を実行する。なお、メモリ402、プロセッサ401は、物理的に単一な装置に限られるものではない。
装置400が、学習モデルを評価する評価装置の場合、プロセッサ401がメモリ402に格納された評価プログラムを実行する。このようにすることで、学習モデルを適切に評価することができる。あるいは、装置400が機械学習を行う学習装置の場合、プロセッサがメモリ402に格納された学習プログラムを実行する。このようにすることで、学習モデルを適切に学習することができる。装置400は、さらに、学習モデルの振る舞いを比較した比較結果や、学習モデルの評価結果を出力してもよい。例えば、装置400は、比較結果や評価結果を表示するためのモニタを備えていてもよい。これにより、学習モデルが振る舞いを維持できているか否か等をユーザが確認することができる。
実施の形態1、2などに示した振舞い等価性検証方法については、手本モデル、及び対象モデルのそれぞれを、教師有り学習、教師無し学習、半教師有り学習、強化学習又はこれらの組み合わせとすることができる。また、手本モデル、及び対象モデルがそれぞれ違う学習方法であってもよく、同じ学習方法であってもよい。例えば、手本モデルが教師なし学習であり、対象モデルが教師有り学習であってもよい。
実施の形態3、4に示した振舞い維持学習方法については、対象モデルを教師有り学習とし、手本モデルを、教師有り学習、教師無し学習、半教師有り学習、強化学習又はこれらの組み合わせとすることができる。
実施の形態5、6に示した敵対的サンプル対応の学習方法については、対象モデルを教師有り学習とし、手本モデルを、教師有り学習、教師無し学習、半教師有り学習、強化学習又はこれらの組み合わせとすることができる。
その他の実施の形態に示した学習アルゴリズムの検査方法については手本モデル、及び対象モデルのそれぞれを、教師有り学習、教師無し学習、半教師有り学習、強化学習又はこれらの組み合わせとすることができる。また、手本モデル、及び対象モデルがそれぞれ違う学習方法であってもよく、同じ学習方法であってもよい。例えば、手本モデルが教師なし学習であり、対象モデルが教師有り学習であってもよい。
本実施の形態によれば、以下の効果を得ることができる。学習モデルの精度や情報量基準だけでは識別できない2つのモデルの振舞いを比較することが可能となる。これにより、学習モデルの適切な選択を実現することが可能となる。さらに、上記の比較方法にて、系列の並びを考慮した比較を行うことができる。系列の並びに意味がある学習モデルの適切な選択を実現することができる。改善前モデルの振舞いを極力維持した学習モデルの改善を実現することができる。改善前モデルの振舞いを極力維持しながら、学習モデルを簡素化したり、より単純な学習モデルへ置き換えたりすることが可能となる。特にNeural Network学習において、改善前モデルの振舞いを極力維持した、Adversarial Example耐性を持つ学習が実現可能となる。
上記実施の形態の一部または全部は、以下の付記のようにも記載され得るが、以下には限られない。
付記
(付記1)
(1)学習用データを用いて、教師モデルである第1の学習モデルに基づく第1の出力結果を求め、
(2)前記学習用データを用いて、生徒モデルである第2の学習モデルに基づく第2の出力結果を求め、
(3)前記第1の出力結果と前記第2の出力結果とに基づく評価用パラメータを用いて、前記第2の学習モデルの学習を実施し、
(4)前記第1の出力結果と、学習済みの前記第2の出力結果との振舞いを比較する、学習装置。
(付記2)
前記(4)では、
(4−1)検証用データを用いて、第1の学習モデルに基づく第1のプログラム演算結果を求め、
(4−2)前記検証用データを用いて、前記第2の学習モデルに基づく第2のプログラム演算結果を求め、
(4−3)前記第1及び前記第2のプログラム演算結果が、論理式を満たすか否かを判定し、
(4−4)ベイズ統計モデル検査法を用いて、(4−3)での判定結果に基づいて、第1の学習モデルと前記第2の学習モデルとの振舞い等価性を評価する付記1に記載の学習装置。
(付記3)
前記学習用データがラベル付きデータであり、
前記(1)では、調整用パラメータを用いて、前記第1の出力結果を前記ラベルに基づいて調整し
前記(3)では、調整済みの第1の出力結果と、前記第2の出力結果とに基づく評価用パラメータを用いて、前記第2の学習モデルの学習を実施し、
前記(4)において、前記振舞いが所定の基準を満たさない場合に、前記調整用パラメータを変更する付記1に記載の学習装置。
(付記4)
前記(1)、及び(2)では、
前記学習用パラメータとして系列データを順次入力し、
系列データに対応する出力系列データの(n+k)(nは0以上の整数、kは0以上の整数)階までの差分を算出し、
前記(3)では、
(n+k)階までの差分を含む前記第1の出力結果と前記第2の出力結果とに基づく評価用パラメータを用いて、前記第2の学習モデルの学習を実施することで、(n+k+1)個の学習済みモデルを構築し、
前記(4)では、
(n+k+1)個の学習済みモデルから、n階までの差分を含む部分モデルを取得し、
(4−1)系列データである検証用データを用いて、前記第1の学習モデルに基づく第1の実行結果を求め、
(4−2)前記検証用データを用いて、前記部分モデルに基づく第2の実行結果を求め、
(4−3)前記n階の差分を含む第1及び第2の実行結果が、論理式を満たすか否かを判定し、
(4−4)ベイズ統計モデル検査法を用いて、(4−3)での判定結果に基づいて、第1の学習モデルと前記第2の学習モデルとの振舞い等価性を評価し、
(4−5)前記(4−4)において、前記振舞い等価性が所定の基準を満たす場合、(n+1)個の学習モデルから最も精度の高い学習モデルを選択する付記1に記載の学習装置。
(付記5)
前記(4−4)において、前記振舞い等価性が所定の基準を満たさない場合、前記n、及びkの少なくとも一方を変更する付記4に記載の学習装置。
(付記6)
前記(4)では、敵対的サンプルを構成するラベル付きデータを含む検証用データが用いられている付記1に記載の学習装置。
(付記7)
学習用データを用いて、手本学習アルゴリズムによる学習を行うことで、手本学習モデルを構築し、
学習用データを用いて、改善学習アルゴリズムによる学習を行うことで、改善学習モデルを構築し、
検証用データを用いて、手本学習モデルに基づく第1の実行結果を求め、
前記検証用データを用いて、改善学習モデルに基づく第2の実行結果を求め、
前記第1及び前記第2の実行結果が、論理式を満たすか否かを判定し、
ベイズ統計モデル検査法を用いて、前記論理式を満たすか否かの判定結果に基づいて、前記改善学習アルゴリズムを評価する評価方法。
以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は既に述べた実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において種々の変更が可能であることはいうまでもない。
M1 第1の学習モデル
M2 第2の学習モデル
33 プログラム実行環境
35 テストデータ
37 有界モデル検査ツール
38 ベイズ仮説テスト
400 装置
401 プロセッサ
402 メモリ

Claims (16)

  1. メモリとプロセッサを用いて、
    (A)検証用データを用いて、手本モデルである第1の学習モデルに基づく第1の実行結果を求め、
    (B)前記検証用データを用いて、第2の学習モデルに基づく第2の実行結果を求め、
    (C)前記第1及び前記第2の実行結果が、論理式を満たすか否かを判定し、
    (D)ベイズ統計モデル検査法を用いて、(C)での判定結果に基づいて、第1の学習モデルと前記第2の学習モデルとの振舞いを比較する学習モデルの評価方法。
  2. 前記(D)において
    前記論理式の成立確率に関する仮説に対してベイズ因子を算出し、
    前記成立確率が確率閾値以上であるか否かのベイズ仮説テストを実施し、
    前記ベイズ仮説テストの結果に基づいて、前記第1の学習モデルと前記第2の学習モデルとの振舞い等価性を評価する請求項1に記載の学習モデルの評価方法。
  3. 前記(D)において、
    前記論理式の成立確率を満たす信頼区間を算出し、
    前記信頼区間に基づいて事後確率を算出し、
    前記事後確率に基づいて、前記第1の学習モデルと前記第2の学習モデルとの振舞い等価性を評価する請求項1に記載の学習モデルの評価方法。
  4. 前記(A)、及び(B)では、
    前記検証用データとして系列データを順次入力し、
    系列データに対応する出力系列データのn(nは1以上の整数)階までの差分を求め、
    (C)では、n階以下の差分のうちの1つ以上の差分を含む第1及び第2の実行結果が、前記論理式を満たすか否かを判定する請求項1に記載の学習モデルの評価方法。
  5. (A)検証用データを用いて、手本モデルである第1の学習モデルに基づく第1の実行結果を求め、
    (B)前記検証用データを用いて、第2の学習モデルに基づく第2の実行結果を求め、
    (C)前記第1及び前記第2の実行結果が、論理式を満たすか否かを判定し、
    (D)ベイズ統計モデル検査法を用いて、(C)での判定結果に基づいて、第1の学習モデルと前記第2の学習モデルとの振舞いを比較する、
    学習モデルの評価装置。
  6. 前記(D)において
    前記論理式の成立確率に関する仮説に対してベイズ因子を算出し、
    前記成立確率が確率閾値以上であるか否かのベイズ仮説テストを実施し、
    前記ベイズ仮説テストの結果に基づいて、前記第1の学習モデルと前記第2の学習モデルとの振舞い等価性を評価する請求項5に記載の学習モデルの評価装置。
  7. 前記(D)において
    前記論理式の成立確率を満たす信頼区間を算出し、
    前記信頼区間に基づいて事後確率を算出し、
    前記事後確率に基づいて、前記第1の学習モデルと前記第2の学習モデルとの振舞い等価性を評価する請求項5に記載の学習モデルの評価装置。
  8. 前記(A)、及び(B)では、
    前記検証用データとして系列データを順次入力し、
    系列データに対応する出力系列データのn(nは1以上の整数)階までの差分を含み、
    (C)では、n階以下の差分のうちの1つ以上の差分を含む第1及び第2の実行結果が、前記論理式を満たすか否かを判定する請求項5に記載の学習モデルの評価装置。
  9. 請求項1に記載の学習モデルの評価方法をコンピュータに対して実行させるプログラム。
  10. メモリとプロセッサとを用いて、
    (1)学習用データを用いて、教師モデルである第1の学習モデルに基づく第1の出力結果を求め、
    (2)前記学習用データを用いて、生徒モデルである第2の学習モデルに基づく第2の出力結果を求め、
    (3)前記第1の出力結果と前記第2の出力結果とに基づく評価用パラメータを用いて、前記第2の学習モデルの学習を実施し、
    (4)前記第1の学習モデルと、学習済みの前記第2の学習モデルとの振舞いを比較する、学習方法。
  11. 前記(4)では、
    (4−1)検証用データを用いて、第1の学習モデルに基づく第1の実行結果を求め、
    (4−2)前記検証用データを用いて、前記第2の学習モデルに基づく第2の実行結果を求め、
    (4−3)前記第1及び前記第2の実行結果が、論理式を満たすか否かを判定し、
    (4−4)ベイズ統計モデル検査法を用いて、(4−3)での判定結果に基づいて、第1の学習モデルと前記第2の学習モデルとの振舞い等価性を評価する請求項10に記載の学習方法。
  12. 前記学習用データがラベル付きデータであり、
    前記(1)では、調整用パラメータを用いて、前記第1の出力結果を前記ラベルに基づいて調整し
    前記(3)では、調整済みの第1の出力結果と、前記第2の出力結果とに基づく評価用パラメータを用いて、前記第2の学習モデルの学習を実施し、
    前記(4)において、前記振舞いが所定の基準を満たさない場合に、前記調整用パラメータを変更する請求項10に記載の学習方法。
  13. 前記(1)、及び(2)では、
    前記学習用パラメータとして系列データを順次入力し、
    系列データに対応する出力系列データの(n+k)(nは0以上の整数、kは0以上の整数)階までの差分を算出し、
    前記(3)では、
    (n+k)階までの差分を含む前記第1の出力結果と前記第2の出力結果とに基づく評価用パラメータを用いて、前記第2の学習モデルの学習を実施することで、(n+k+1)個の学習済みモデルを構築し、
    前記(4)では、
    (n+k+1)個の学習済みモデルから、n階までの差分を含む部分モデルを取得し、
    (4−1)系列データである検証用データを用いて、前記第1の学習モデルに基づく第1の実行結果を求め、
    (4−2)前記検証用データを用いて、前記部分モデルに基づく第2の実行結果を求め、
    (4−3)前記n階の差分を含む第1及び第2の実行結果が、論理式を満たすか否かを判定し、
    (4−4)ベイズ統計モデル検査法を用いて、(4−3)での判定結果に基づいて、第1の学習モデルと前記第2の学習モデルとの振舞い等価性を評価し、
    (4−5)前記(4−4)において、前記振舞い等価性が所定の基準を満たす場合、(n+1)個の学習モデルから最も精度の高い学習モデルを選択する請求項10に記載の学習方法。
  14. 前記(4−4)において、前記振舞い等価性が所定の基準を満たさない場合、前記n、及びkの少なくとも一方を変更する請求項13に記載の学習方法。
  15. 前記(4)では、敵対的サンプルを構成するラベル付きデータを含む検証用データが用いられている請求項10に記載の学習方法。
  16. 請求項10に記載の学習方法をコンピュータに対して実行させるプログラム。
JP2018124226A 2018-06-29 2018-06-29 学習モデルの評価方法、学習方法、装置、及びプログラム Pending JP2020004178A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018124226A JP2020004178A (ja) 2018-06-29 2018-06-29 学習モデルの評価方法、学習方法、装置、及びプログラム
US16/447,294 US20200005183A1 (en) 2018-06-29 2019-06-20 Evaluation method for learning models, training method, device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018124226A JP2020004178A (ja) 2018-06-29 2018-06-29 学習モデルの評価方法、学習方法、装置、及びプログラム

Publications (1)

Publication Number Publication Date
JP2020004178A true JP2020004178A (ja) 2020-01-09

Family

ID=69008224

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018124226A Pending JP2020004178A (ja) 2018-06-29 2018-06-29 学習モデルの評価方法、学習方法、装置、及びプログラム

Country Status (2)

Country Link
US (1) US20200005183A1 (ja)
JP (1) JP2020004178A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021166157A1 (ja) * 2020-02-20 2021-08-26 三菱電機株式会社 物体認識システム検証装置
WO2021181963A1 (ja) * 2020-03-13 2021-09-16 オムロン株式会社 学習用データ生成装置、学習装置、制御装置、学習用データ生成方法、学習方法、制御方法、学習用データ生成プログラム、学習プログラム、及び制御プログラム
WO2021220658A1 (ja) * 2020-04-30 2021-11-04 ソニーグループ株式会社 情報処理装置およびプログラム
EP4024296A1 (en) 2021-01-04 2022-07-06 Fujitsu Limited Information processing program, information processing method, and information processing device
WO2022185444A1 (ja) * 2021-03-03 2022-09-09 日本電気株式会社 互換性評価装置、互換性評価方法、及び、記録媒体
JP7471044B1 (ja) 2024-02-08 2024-04-19 株式会社エクサウィザーズ 情報処理方法、プログラム及び情報処理システム

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7059220B2 (ja) * 2019-02-15 2022-04-25 株式会社日立製作所 機械学習プログラム検証装置および機械学習プログラム検証方法
US20210019635A1 (en) * 2019-07-15 2021-01-21 Ramot At Tel Aviv University Group specific decision tree
WO2021153477A1 (ja) * 2020-01-30 2021-08-05 ソニーグループ株式会社 情報処理装置、情報処理方法および情報処理プログラム
CN113326913A (zh) * 2020-02-28 2021-08-31 上海商汤智能科技有限公司 神经网络模型的转换方法、模型精度定位方法及装置
CN112132279B (zh) * 2020-09-23 2023-09-15 平安科技(深圳)有限公司 卷积神经网络模型压缩方法、装置、设备及存储介质
US20220180232A1 (en) * 2020-12-08 2022-06-09 Intuit Inc. Forecasting based on bernoulli uncertainty characterization
US11823381B2 (en) * 2020-12-27 2023-11-21 Ping An Technology (Shenzhen) Co., Ltd. Knowledge distillation with adaptive asymmetric label sharpening for semi-supervised fracture detection in chest x-rays
CN112951413B (zh) * 2021-03-22 2023-07-21 江苏大学 一种基于决策树和改进smote算法的哮喘病诊断系统
CN114331238B (zh) * 2022-03-17 2022-07-08 北京航天晨信科技有限责任公司 智能模型算法优选方法、系统、存储介质及计算机设备

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021166157A1 (ja) * 2020-02-20 2021-08-26 三菱電機株式会社 物体認識システム検証装置
JPWO2021166157A1 (ja) * 2020-02-20 2021-08-26
WO2021181963A1 (ja) * 2020-03-13 2021-09-16 オムロン株式会社 学習用データ生成装置、学習装置、制御装置、学習用データ生成方法、学習方法、制御方法、学習用データ生成プログラム、学習プログラム、及び制御プログラム
JP2021144660A (ja) * 2020-03-13 2021-09-24 オムロン株式会社 学習用データ生成装置、学習装置、制御装置、学習用データ生成方法、学習方法、制御方法、学習用データ生成プログラム、学習プログラム、及び制御プログラム
JP7487502B2 (ja) 2020-03-13 2024-05-21 オムロン株式会社 学習用データ生成装置、学習装置、制御装置、学習用データ生成方法、学習方法、制御方法、学習用データ生成プログラム、学習プログラム、及び制御プログラム
WO2021220658A1 (ja) * 2020-04-30 2021-11-04 ソニーグループ株式会社 情報処理装置およびプログラム
EP4024296A1 (en) 2021-01-04 2022-07-06 Fujitsu Limited Information processing program, information processing method, and information processing device
WO2022185444A1 (ja) * 2021-03-03 2022-09-09 日本電気株式会社 互換性評価装置、互換性評価方法、及び、記録媒体
JP7471044B1 (ja) 2024-02-08 2024-04-19 株式会社エクサウィザーズ 情報処理方法、プログラム及び情報処理システム

Also Published As

Publication number Publication date
US20200005183A1 (en) 2020-01-02

Similar Documents

Publication Publication Date Title
JP2020004178A (ja) 学習モデルの評価方法、学習方法、装置、及びプログラム
US10885435B2 (en) System and method for training neural networks
Garg et al. What can transformers learn in-context? a case study of simple function classes
US20210390416A1 (en) Variable parameter probability for machine-learning model generation and training
US20200210847A1 (en) Ensembling of neural network models
US11100403B2 (en) Cooperative execution of a genetic algorithm with an efficient training algorithm for data-driven model creation
Galelli et al. An evaluation framework for input variable selection algorithms for environmental data-driven models
US20190122119A1 (en) Adjusting automated neural network generation based on evaluation of candidate neural networks
CN110334208B (zh) 基于贝叶斯信念网络的lkj故障预测诊断方法和系统
US20220129708A1 (en) Segmenting an image using a neural network
Alam et al. Addressing temporal variations in qubit quality metrics for parameterized quantum circuits
Reddy et al. A concise neural network model for estimating software effort
WO2020188971A1 (ja) 特徴推定方法、特徴推定装置、プログラム及び記録媒体
Abdelkarim et al. Tcp-net: Test case prioritization using end-to-end deep neural networks
CN112668706A (zh) 在低功率控制器上执行遗传算法
US11989656B2 (en) Search space exploration for deep learning
Ollivier Riemannian metrics for neural networks II: recurrent networks and learning symbolic data sequences
US20200327393A1 (en) Optimization system and control method for optimization system
CN117785522A (zh) 利用经训练机器学习模型执行根本原因分析的方法和系统
JP2023046213A (ja) 破滅的忘却の発生を抑えつつ、転移学習を行う方法、情報処理装置及びプログラム
US11783194B1 (en) Evolutionary deep learning with extended Kalman filter for modeling and data assimilation
Meinhardt et al. Quantum Hopfield neural networks: A new approach and its storage capacity
Slivka et al. Combining co-training with ensemble learning for application on single-view natural language datasets
US20240160976A1 (en) Backtesting Quantum Device Calibration
Semenkina A SELF-CONFIGURING GENETIC ALGORITHM FOR THE AUTOMATED DESIGN OF SEMI-SUPERVISED ARTIFICIAL NEURAL NETWORKS.