JPWO2020090821A1 - 解析装置、機械学習装置、解析システム、解析方法およびプログラム - Google Patents

解析装置、機械学習装置、解析システム、解析方法およびプログラム Download PDF

Info

Publication number
JPWO2020090821A1
JPWO2020090821A1 JP2020553941A JP2020553941A JPWO2020090821A1 JP WO2020090821 A1 JPWO2020090821 A1 JP WO2020090821A1 JP 2020553941 A JP2020553941 A JP 2020553941A JP 2020553941 A JP2020553941 A JP 2020553941A JP WO2020090821 A1 JPWO2020090821 A1 JP WO2020090821A1
Authority
JP
Japan
Prior art keywords
value
parameter value
evaluation target
case
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020553941A
Other languages
English (en)
Other versions
JP7117686B2 (ja
Inventor
慶一 木佐森
慶一 木佐森
雄斗 小森
雄斗 小森
鷲尾 隆
隆 鷲尾
義男 亀田
義男 亀田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
NEC Corp
National Institute of Advanced Industrial Science and Technology AIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp, National Institute of Advanced Industrial Science and Technology AIST filed Critical NEC Corp
Publication of JPWO2020090821A1 publication Critical patent/JPWO2020090821A1/ja
Application granted granted Critical
Publication of JP7117686B2 publication Critical patent/JP7117686B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2113Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Feedback Control In General (AREA)

Abstract

解析装置は、更新パラメータ値に応じて設定される更新後パラメータ値の複数の候補の各々について、前記更新対象パラメータ値とその候補とを複数の機械学習結果に適用して、前記更新対象パラメータ値の場合の評価対象値に対する、その候補の場合の評価対象値の相違の程度を示す情報を機械学習結果毎に取得する相違情報取得手段と、前記候補毎、かつ、前記機械学習結果毎に、前記評価対象値の相違の程度と、前記更新対象パラメータ値の場合の前記評価対象値とに基づいて、その候補の場合の評価対象値を算出する評価対象値算出手段と、前記候補毎に、前記機械学習結果毎の前記評価対象値のばらつきを用いて選択指標値を算出し、前記複数の候補各々の前記選択指標値を比較し、前記比較の結果に基づき前記複数の候補から候補を選択し、前記更新対象パラメータ値、前記更新対象パラメータ値の場合の評価対象値を、それぞれ、前記選択した候補、前記選択した候補の場合の評価対象値に更新する、更新後パラメータ値選択手段とを備える。

Description

本発明は、解析装置、機械学習装置、解析システム、解析方法および記録媒体に関する。
シミュレーションを用いた解析技術など幾つかの解析技術が提案されている。
例えば、特許文献1には、シミュレーションの複数の試行の中から分析対象の試行を抽出するための抽出方法が記載されている。この抽出方法では、店舗のレジの待ち時間を短縮したい等の主題(検討課題)に対し、レジの台数およびレイアウト等の施策(主題に対する対策)、および、来店客の行動等の不確実性を有する要素に基づく環境要素を変えてシミュレーションを複数回実行する。特許文献1では、個々のシミュレーションの実行を試行と呼んでいる。特許文献1に記載の抽出方法では、他の試行と評価値が乖離している試行を分析対象の試行として抽出する。
また、特許文献2には、プラントで発生するイベントを解析するためのイベント解析装置が記載されている。このイベント解析装置は、イベント毎に発生の有無を時系列で示すイベントマトリクスに基づいてイベントをグルーピングし、得られた関連イベントグループについて、イベントマトリックスに基づいてベイジアンネットワークによる確率付き因果関係モデルを構築する。このイベント解析装置は、イベント毎の確率付きモデルのうち、設定された改善候補パターンのいずれかに合致する確率付き因果関係モデルを抽出する。
また、特許文献3には、セクタアンテナを用いたマイクロダイバーシティにおける基地局の配置場所とセルの配置パターンを決定するための、配置場所および配置パターン計算装置が記載されている。この配置場所および配置パターン計算装置は、セルを示す凸多角形が所定の二次元平面上に重複及び隙間がないように配置されるという条件のもとで、基地局の配置およびセルの配置パターンを決定する。
また、特許文献4には、画像検索の精度を向上させるための判定装置が記載されている。この判定装置は、関連性の判定対象となる3つの画像を距離空間上に対応付け、3つの画像が有する関連性を、距離空間上で3つの画像により定義付けられる角度として判定する。
日本国特開2016−157173号公報 日本国特開2016−099930号公報 日本国特開2016−091400号公報 日本国特開2017−167987号公報
解析装置が解としてのパラメータ値の探索を行う場合、局所解に陥る可能性があり、なるべく評価の高い解を検出できることが好ましい。解析装置が評価対象値を算出して解の探索を行う場合、評価対象値を評価する指標を得られれば、評価の高い解の検出に役立てることができる。特に、評価対象値のばらつきをパラメータ値(解)の評価に反映させることができれば、評価対象値が大きい(評価が高い)探索領域を検知できると期待される。
本発明の目的の一例は、上述の課題を解決することのできる解析装置、機械学習装置、解析システム、解析方法および記録媒体を提供することである。
本発明の第1の態様によれば、解析装置は、更新パラメータ値に応じて設定される更新後パラメータ値の複数の候補の各々について、前記更新対象パラメータ値とその候補とを複数の機械学習結果に適用して、前記更新対象パラメータ値の場合の評価対象値に対する、その候補の場合の評価対象値の相違の程度を示す情報を機械学習結果毎に取得する相違情報取得手段と、前記候補毎、かつ、前記機械学習結果毎に、前記評価対象値の相違の程度と、前記更新対象パラメータ値の場合の前記評価対象値とに基づいて、その候補の場合の評価対象値を算出する評価対象値算出手段と、前記候補毎に、前記機械学習結果毎の前記評価対象値のばらつきを用いて選択指標値を算出し、前記複数の候補各々の前記選択指標値を比較し、前記比較の結果に基づき前記複数の候補から候補を選択し、前記更新対象パラメータ値、前記更新対象パラメータ値の場合の評価対象値を、それぞれ、前記選択した候補、前記選択した候補の場合の評価対象値に更新する、更新後パラメータ値選択手段と、を備える。
本発明の第2の態様によれば、機械学習装置は、更新対象パラメータ値および更新後パラメータ値とのセットを複数取得するパラメータ値取得手段と、前記複数のセット毎に、前記更新対象パラメータ値の場合の評価対象値と、前記更新後パラメータ値の場合の評価対象値とをシミュレーションで算出するシミュレーション実行手段と、前記複数のセット毎に、前記更新対象パラメータ値の場合の評価対象値に対する、前記更新後パラメータ値の場合の評価対象値の相違の程度を算出する相違算出手段と、前記複数のセットの前記更新対象パラメータ値、前記更新後パラメータ値、および、前記評価対象値の相違の程度を用いて、前記更新対象パラメータ値および前記更新後パラメータ値と、前記評価対象値の相違の程度との関係の機械学習結果を複数取得する機械学習処理手段と、を備える。
本発明の第3の態様によれば、解析システムは、機械学習装置と解析装置とを備える。前記機械学習装置は、更新対象パラメータ値および更新後パラメータ値とのセットを複数取得するパラメータ値取得手段と、前記複数のセット毎に、前記更新対象パラメータ値の場合の評価対象値と、前記更新後パラメータ値の場合の評価対象値とをシミュレーションで算出するシミュレーション実行手段と、前記複数のセット毎に、前記更新対象パラメータ値の場合の評価対象値に対する、前記更新後パラメータ値の場合の評価対象値の相違の程度を算出する相違算出手段と、前記複数のセットの前記更新対象パラメータ値、前記更新後パラメータ値、および、前記評価対象値の相違の程度を用いて、前記更新対象パラメータ値および前記更新後パラメータ値と、前記評価対象値の相違の程度との関係の機械学習結果を複数取得する機械学習処理手段と、を備える。前記解析装置は、更新パラメータ値に応じて設定される更新後パラメータ値の複数の候補の各々について、前記更新対象パラメータ値とその候補とを複数の機械学習結果に適用して、前記更新対象パラメータ値の場合の評価対象値に対する、その候補の場合の評価対象値の相違の程度を示す情報を機械学習結果毎に取得する相違情報取得手段と、前記候補毎、かつ、前記機械学習結果毎に、前記評価対象値の相違の程度と、前記更新対象パラメータ値の場合の前記評価対象値とに基づいて、その候補の場合の評価対象値を算出する評価対象値算出手段と、前記候補毎に、前記機械学習結果毎の前記評価対象値のばらつきを用いて選択指標値を算出し、前記複数の候補各々の前記選択指標値を比較し、前記比較の結果に基づき前記複数の候補から候補を選択し、前記更新対象パラメータ値、前記更新対象パラメータ値の場合の評価対象値を、それぞれ、前記選択した候補、前記選択した候補の場合の評価対象値に更新する、更新後パラメータ値選択手段と、を備える。
本発明の第4の態様によれば、解析方法は、コンピュータによって実施され、更新パラメータ値に応じて設定される更新後パラメータ値の複数の候補の各々について、前記更新対象パラメータ値とその候補とを複数の機械学習結果に適用して、前記更新対象パラメータ値の場合の評価対象値に対する、その候補の場合の評価対象値の相違の程度を示す情報を機械学習結果毎に取得し、前記候補毎、かつ、前記機械学習結果毎に、前記評価対象値の相違の程度と、前記更新対象パラメータ値の場合の前記評価対象値とに基づいて、その候補の場合の評価対象値を算出し、前記候補毎に、前記機械学習結果毎の前記評価対象値のばらつきを用いて選択指標値を算出し、前記複数の候補各々の前記選択指標値を比較し、前記比較の結果に基づき前記複数の候補から候補を選択し、前記更新対象パラメータ値、前記更新対象パラメータ値の場合の評価対象値を、それぞれ、前記選択した候補、前記選択した候補の場合の評価対象値に更新する、ことを含む。
本発明の第5の態様によれば、記録媒体は、コンピュータに、更新パラメータ値に応じて設定される更新後パラメータ値の複数の候補の各々について、前記更新対象パラメータ値とその候補とを複数の機械学習結果に適用して、前記更新対象パラメータ値の場合の評価対象値に対する、その候補の場合の評価対象値の相違の程度を示す情報を機械学習結果毎に取得し、前記候補毎、かつ、前記機械学習結果毎に、前記評価対象値の相違の程度と、前記更新対象パラメータ値の場合の前記評価対象値とに基づいて、その候補の場合の評価対象値を算出し、前記候補毎に、前記機械学習結果毎の前記評価対象値のばらつきを用いて選択指標値を算出し、前記複数の候補各々の前記選択指標値を比較し、前記比較の結果に基づき前記複数の候補から候補を選択し、前記更新対象パラメータ値、前記更新対象パラメータ値の場合の評価対象値を、それぞれ、前記選択した候補、前記選択した候補の場合の評価対象値に更新する、ことを実行させるためのプログラムを記憶する。
この発明の実施形態によれば、評価対象値のばらつきをパラメータ値の評価に反映させることができる。
第1実施形態に係る解析システムの装置構成の例を示す概略構成図である。 第1実施形態に係る解析システムによる解析の対象の例を示す図である。 第1実施形態に係る解析システムによる解析の対象におけるパラメータの設定例を示す図である。 第1実施形態に係る解析システムにおけるパラメータ値の更新の例を示す図である。 第1実施形態に係る解析装置によるパラメータ値の探索の例を示す図である。 第1実施形態に係る機械学習装置の機能構成の例を示す概略ブロック図である。 第1実施形態に係る解析装置の機能構成の例を示す概略ブロック図である。 第1実施形態に係る機械学習装置が更新前後のパラメータ値と評価対象値の差分の割合Yとの関係を学習する処理手順の例を示すフローチャートである。 第1実施形態に係る機械学習装置が訓練データを生成する処理手順の例を示すフローチャートである。 第1実施形態に係る解析装置がパラメータ値を検索する処理手順の例を示すフローチャートである。 第2実施形態に係る更新後パラメータ値選択部による更新後パラメータ値の候補の選択の例を示す図である。 第2実施形態に係る機械学習装置が更新前後のパラメータ値と評価対象値の差分の割合との関係を学習する処理手順の例を示すフローチャートである。 第2実施形態に係る解析装置がパラメータ値を検索する処理手順の例を示すフローチャートである。 第3実施形態に係る解析装置の構成の例を示す図である。 第4実施形態に係る機械学習装置の構成の例を示す図である。 第5実施形態に係る解析システムの構成の例を示す図である。
以下、本発明の実施形態を説明するが、以下の実施形態は請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
<第1実施形態>
図1は、第1実施形態に係る解析システム1の装置構成の例を示す概略構成図である。図1に示す構成で、解析システム1は、機械学習装置100と、解析装置200とを備える。
解析システム1は、パラメータを用いて表されている解析対象(例えば、設計対象)と、パラメータ値に応じて定まる評価対象値との関係を機械学習し、評価対象値が所定の条件を満たすためのパラメータ値を探索する。ここでいう評価対象値は、解析装置200が探索にて取得するパラメータ値を、探索の解として評価するために用いられる値である。言い換えると、評価対象値は、解析対象に関して生じる事象のうち、注目している事象(注目事象)が定量的に評価された値を表す。また、パラメータは、例えば、解析対象に関する状態、または、解析対象における状態を表す情報である。解析対象は、例えば、図2に示すような流速問題である。注目している事象は、例えば、領域A12における流速である。図2の例の詳細については、後述する。
機械学習装置100は、解析対象のパラメータ値と評価対象値との関係を機械学習する。機械学習装置100は、解析対象のパラメータ値の入力を受けて評価対象値を出力するシミュレータを用いて訓練データ(Training Data)を取得して機械学習を行う。
解析装置200は、機械学習にて得られた解析対象のパラメータ値と評価対象値との関係を用いて、評価対象値が所定の条件を満たすためのパラメータ値を探索する。所定の条件は、例えば、解析対象(例えば、設計対象)に関する所望の条件を定量的に表した数値である。解析装置200を設計に適用する場合、所定の条件は、設計対象に関して所望の設計を行う場合に、注目している事象が定量的に評価された指標が満たしている条件を表す。
機械学習装置100及び解析装置200は、いずれも、例えばパソコン(Personal Computer;PC)またはワークステーション(Workstation)等のコンピュータ(情報処理装置)を用いて構成される。機械学習装置100と解析装置200とが同一の装置として構成されていてもよいし、別々の装置として構成されていてもよい。
図2は、解析システム1による解析の対象の例を示す図である。図2は、円柱C11の配置を決定する設計問題を示している。
図2に示す設計問題では、領域A11内に所定数(例えば、6個)の円柱C11を配置する。この設計問題では、矢印B11で示すように流体が流れており、領域A11の背後の領域A12における流体の平均流速が最大となるような円柱C11の配置を決定する。すなわち、この例では、所望の設計は、領域A12における流体の平均流速が最大となる場合における円柱の配置を求める設計である。
図3は、解析システム1による解析の対象におけるパラメータの設定例を示す図である。図2の領域A11内に格子を設定し、図3に示すように格子点に円柱C11を配置する。格子点毎にバイナリ(Binary、「1」または「0」の2値)のパラメータ変数を設定し、このパラメータ変数を用いて格子点毎に円柱C11の有無を示すことで、円柱C11の配置を示すことができる。この例では、「1」は、格子点に円柱が配置されていることを表す。また、「0」は、格子点に円柱が配置されていないことを表す。
図2及び図3に示す設計問題を解くために、領域A11内における円柱C11の配置を決定した場合の、領域A12における流体の平均流速を算出するシミュレータを使用可能であるとする。
この場合、設計問題を解く方法の1つとして、円柱C11の全ての配置それぞれについて、領域A12における流体の平均流速をシミュレータで算出して、平均流速が最大となる配置を求める、いわば全解探索法が考えられる。しかしながらこの方法では、格子点の数が増えるにつれて、いわゆる組み合わせ爆発が生じてシミュレーションの実行回数が膨大になり、現実的な時間内に設計問題を解けないことが考えられる。
そこで、解析システム1では、機械学習装置100が、シミュレーションにおける入力と出力との関係を機械学習する。解析装置200が、機械学習装置100による学習結果(学習モデル、スコア関数等)を用いることで、解析装置200の処理実行時にはシミュレーションの実行が不要となる。これにより、解析システム1全体の処理時間を短縮することができる。学習結果(学習モデル、スコア関数等)は、シミュレーションにおける入力と出力との関係性を表す。たとえば、学習結果(学習モデル、スコア関数等)は、あらかじめ、シミュレーションにおける入力と、シミュレーションにおける出力とに対して機械学習アルゴリズムを適用することによって、作成される。機械学習アルゴリズムとして、たとえば、ニューラルネットワーク、サポートベクターマシン等の手法を用いることができる。
解析システム1は、パラメータで表現可能、かつ、シミュレーションの実行を機械学習可能ないろいろな問題を扱うことができ、この点で、解析システム1の処理対象が広い。上記の設計問題のように、解析システム1を設計に用いることができるが、これに限定されない。
図4は、解析システム1におけるパラメータ値の更新の例を示す図である。
上記のように所定の個数の円柱C11を格子点に配置した状態で、円柱C11の配置変更の1ステップでは、1つの円柱C11の配置を変更する。この変更は、図4において、矢印B12によって表されている。この1ステップは、格子点毎のパラメータのうち、円柱C11が配置されていた格子点のパラメータ値を「1」から「0」に変更し、円柱C11が新たに配置される格子点のパラメータ値を「0」から「1」に変更することで示される。
図5は、解析装置200によるパラメータ値の探索の例を示す図である。
図5における丸の各々は、パラメータ値によって示される解析対象の状態を示している。パラメータ値によって示される解析対象の状態を、単に状態と称する。パラメータ値と状態とは一対一に対応付けられる。図5では、状態s1〜s13が示されている。
解析装置200は、初期設定において、所定の個数の円柱C11を格子点に例えばランダムに配置する。図5では、この初期設定における状態を状態s1で示している。
解析装置200は、上述した円柱C11の配置変更の1ステップの条件を満たすように円柱C11の配置をランダムに変更して、更新後の状態の候補を複数生成する。更新後の状態の候補は、更新後のパラメータ値の候補と一対一に対応付けられる。以下では、更新後の状態の候補と更新後のパラメータ値の候補とを同一視し、単に候補とも称する。
図5では、解析装置200が更新後の状態の候補を3つずつ生成する場合の例を示している。解析装置200は、状態s1からの更新の候補として、状態s2、s3、s4の3つの状態を生成している。
解析装置200は、生成した候補の各々について、機械学習装置100による機械学習結果を用いて評価対象値を算出し、得られた評価対象値を選択指標値として用いて、候補のうち何れか1つを選択する。ここでいう選択指標値は、解析装置200が候補のうち何れか1つを選択するために用いられる値である。解析装置200は、候補毎に選択指標値を算出する。図5の例では、解析装置200は、状態s2、s3、s4のうち状態s2を選択している。
第1実施形態では、解析装置200は、生成した候補のうち選択指標値での評価が最も高い候補を選択する。上記の設計問題の場合、領域A12における流体の平均流速が評価対象値となっている。この例では、選択指標値が評価対象値であるため、解析装置200は、この平均流速が最も速い候補を選択する。
解析装置200は、更新後の状態の候補の生成および選択を繰り返すことでパラメータ値の探索を行う。解析装置200は更新後の状態の候補の生成および選択を、所定の終了条件が成立するまで繰り返す。例えば上記の設計問題で、解析装置200は、領域A12における流体の平均流速が所定の閾値以上になるまで更新後の状態の候補の生成および選択を繰り返す。
図5の例では、状態s11において終了条件が成立しており、解析装置200は、状態s11におけるパラメータ値を処理結果として取得している。
図6は、機械学習装置100の機能構成の例を示す概略ブロック図である。図6に示す構成で、機械学習装置100は、学習側通信部110と、学習側記憶部180と、学習側制御部190とを備える。学習側制御部190は、パラメータ値取得部191と、シミュレーション実行部192と、相違算出部193と、機械学習処理部194とを備える。
学習側通信部110は、他の装置と通信を行う。学習側通信部110が、機械学習装置100による学習結果を、解析装置200へ送信するようにしてもよい。
学習側記憶部180は、各種データを記憶する。学習側記憶部180は、機械学習装置100が備える記憶デバイスを用いて構成される。
学習側制御部190は、機械学習装置100の各部を制御して各種処理を行う。学習側制御部190の機能は、機械学習装置100が備えるCPU(Central Processing Unit、中央処理装置)が、学習側記憶部180からプログラムを読み出して実行することで実行可能になる。
パラメータ値取得部191は、更新対象パラメータ値および更新後パラメータ値を取得する。更新対象パラメータ値、更新後パラメータ値の何れも、解析装置200が対象としている問題におけるパラメータが取り得る値である。更新対象パラメータ値および更新後パラメータ値は、機械学習装置100が機械学習を行うための訓練データの一部となる。
パラメータ値取得部191が、パラメータ値設定の条件に従って更新対象パラメータ値をランダムに設定するようにしてもよい。また、パラメータ値取得部191が、パラメータ値更新の条件に従って、更新対象パラメータ値をランダムに更新して更新後パラメータ値を生成するようにしてもよい。
あるいは、パラメータ値取得部191が、予め定められている更新対象パラメータ値及び更新後パラメータ値を取得するようにしてもよい。例えば、学習側記憶部180が、ユーザ設定による更新対象パラメータ値及び更新後パラメータ値を記憶しておき、パラメータ値取得部191が、学習側記憶部180から更新対象パラメータ値及び更新後パラメータ値を読み出すようにしてもよい。
シミュレーション実行部192は、更新対象パラメータ値、更新後パラメータ値それぞれの場合の評価対象値をシミュレーションで算出する。この場合、評価対象値はシミュレーション出力(シミュレーションによる予測結果)として得られる。
相違算出部193は、更新対象パラメータ値の場合の評価対象値に対する、更新後パラメータ値の場合の評価対象値の相違(差異)の程度を算出する。具体的には、相違算出部193は、例えば、更新後パラメータ値の場合の評価対象値から更新対象パラメータ値の場合の評価対象値を減算した差分を算出する。さらに、相違算出部193は、算出した差分を、更新対象パラメータ値の場合の評価対象値で除算することで正規化(normalization、規格化)を行う。正規化後の値を、評価対象値の差分の割合と称する。
機械学習処理部194は、更新対象パラメータ値および更新後パラメータ値と、評価対象値の相違の程度との関係を機械学習する。具体的には、機械学習処理部194は、更新対象パラメータ値および更新後パラメータ値と、評価対象値の差分の割合との関係を機械学習する。
機械学習処理部194が用いる機械学習手法は、特定の手法に限定されない。例えば、機械学習処理部194が、いわゆる深層学習(Deep Learning)等の手法によって機械学習を行うようにしてもよいが、これに限定されない。
図7は、解析装置200の機能構成の例を示す概略ブロック図である。図7に示す構成で、解析装置200は、解析側通信部210と、解析側記憶部280と、解析側制御部290とを備える。解析側制御部290は、初期値取得部291と、更新後候補設定部292と、相違情報取得部293と、評価対象値算出部294と、更新後パラメータ値選択部295と、終了条件判定部296とを備える。
解析側通信部210は、他の装置と通信を行う。解析側通信部210が、学習側通信部110が送信する機械学習装置100による学習結果を受信するようにしてもよい。
解析側記憶部280は、各種データを記憶する。解析側記憶部280は、解析装置200が備える記憶デバイスを用いて構成される。
解析側制御部290の機能は、解析装置200の各部を制御して各種処理を行う。解析側制御部290は、解析装置200が備えるCPUが、解析側記憶部280からプログラムを読み出して実行することで実行可能になる。
初期値取得部291は、更新対象パラメータ値と、その更新対象パラメータ値の場合の評価対象値とを取得する。初期値取得部291が取得する更新対象パラメータ値は、解析装置200がパラメータ値を探索する際の、パラメータの初期値として用いられる。初期値取得部291が取得する更新対象パラメータ値の場合の評価対象値は、機械学習装置100による学習結果から得られる評価対象値の差分の割合を評価対象値に換算するために用いられる。初期値取得部291は、例えば、機械学習装置100のシミュレーション実行部192によるシミュレーションを利用して、更新対象パラメータ値の場合の評価対象値を取得する。
初期値取得部291が、更新対象パラメータ値と、その更新対象パラメータ値の場合の評価対象値との組み合わせを複数取得するようにしてもよい。
解析装置200が、これら複数の更新対象パラメータ値の各々について、その更新対象パラメータ値をパラメータの初期値としてパラメータ値の探索を行うことで、一部の探索で局所解に陥った場合でも、他の探索で、評価対象値による評価がより高い解(パラメータ値)を得られると期待される。
更新後候補設定部292は、更新後パラメータ値の候補を複数設定する。更新後候補設定部292は、パラメータ値更新の条件に従い、例えば、更新対象パラメータ値をランダムに更新して更新後パラメータ値の候補を設定する。
相違情報取得部293は、更新後パラメータ値の候補毎に、更新対象パラメータ値とその更新後パラメータ値の候補とを機械学習装置100による機械学習結果に適用して、更新対象パラメータ値の場合の評価対象値に対する、その更新後パラメータ値の候補の場合の評価対象値の相違の程度を示す情報を取得する。具体的には、相違情報取得部293は、例えば、評価対象値の差分の割合を取得する。但し、ここでの評価対象値の相違の程度は、評価対象値の差分の割合に限定されない。例えば、相違情報取得部293が、評価対象値の相違の程度を示す情報として、更新後パラメータ値の候補の場合の評価対象値から、更新対象パラメータ値の候補の場合の評価値を減算した差分を示す情報を取得するようにしてもよい。あるいは、相違情報取得部293が、評価対象値の相違の程度を示す情報として、更新後パラメータ値の候補の場合の評価対象値を、更新対象パラメータ値の候補の場合の評価値で除算した比を示す情報を取得するようにしてもよい。
更新対象パラメータ値の場合の評価対象値に対する、更新後パラメータ値の候補の場合の評価対象値の相違の程度を示す情報を、相違情報と称する。
評価対象値算出部294は、更新後パラメータ値の候補毎に、評価対象値の差分の割合と、更新対象パラメータ値の場合の評価対象値とに基づいて、その更新後パラメータ値の候補の場合の評価対象値を算出する。
更新後パラメータ値選択部295は、更新後パラメータ値の候補のうち、評価対象値が目標に最も合致する候補を選択し、更新対象パラメータ値、更新対象パラメータ値の場合の評価対象値を、それぞれ、選択した候補、選択した候補の場合の評価対象値に更新する。言い換えると、更新後パラメータ値選択部295は、候補に関して算出した評価対象値を比較し、比較結果に基づき候補を選択し、更新対象パラメータ値、更新対象パラメータ値の場合の評価対象値を、それぞれ、選択した候補、選択した候補の場合の評価対象値に更新する。
終了条件判定部296は、更新対象パラメータ値の場合の評価対象値が所定の終了条件を満たすか否かを判定する。
解析側制御部290は、繰り返し制御部の例に該当し、更新対象パラメータ値の場合の評価対象値が所定の終了条件を満たさないと終了条件判定部296が判定した場合、更新後候補設定部292の処理およびそれ以降の処理を繰り返し行わせる。
ここでいう更新後候補設定部292の処理およびそれ以降の処理は、図10を参照して後述するように、以下の処理(1A)〜(6A)を含む。
(1A)更新後候補設定部292が、更新後パラメータ値の候補を複数設定する。
(2A)相違情報取得部293が、更新後パラメータ値の候補毎に、更新対象パラメータ値と、その更新後パラメータ値の候補とを機械学習結果に適用して、更新対象パラメータ値の場合の評価対象値に対する、その更新後パラメータ値の候補の場合の評価対象値の相違の程度を示す情報を取得する。
(3A)評価対象値算出部294が、更新後パラメータ値の候補毎に、評価対象値の相違の程度と、更新対象パラメータ値の場合の評価対象値とに基づいて、その更新後パラメータ値の候補の場合の評価対象値を算出する。
(4A)更新後パラメータ値選択部295が、更新後パラメータ値の候補のうち、選択指標値(この例では、評価対象値)が目標に最も合致する候補を選択し、更新対象パラメータ値、更新対象パラメータ値の場合の評価対象値を、それぞれ、選択した更新後パラメータ値の候補、選択した更新後パラメータ値の候補の場合の評価対象値に更新する。
(5A)終了条件判定部296が、更新対象パラメータ値の場合の評価対象値が所定の終了条件を満たすか否かを判定する。
(6A)解析側制御部290が、上記(5A)で終了条件判定部296が、更新対象パラメータ値の場合の評価対象値が所定の終了条件を満たすと判定するまで(1A)〜(6A)の処理を繰り返し行わせる。
ここで、解析システム1が行う処理を定式化する。
解析対象が有するパラメータの値をXで示す。パラメータ値Xは複数のパラメータ値の組み合わせであってもよく、ベクトルで示される。パラメータ値Xの要素、すなわち、個々のパラメータ値をb、b、・・・、b(nは、パラメータの個数を示す正の整数)と表記する。パラメータ値Xは、式(1)のようにベクトルで示される。
Figure 2020090821
シミュレーション実行部192のシミュレータにパラメータ値Xを入力した場合のシミュレーション出力をYsimと表記する。シミュレーション出力Ysimは、式(2)のように示される。
Figure 2020090821
simは、シミュレーション実行部192が実行するシミュレーションを関数として模式的に表したものである。
パラメータ値Xを更新したパラメータ値をパラメータ値X’と表記する。パラメータ値Xは、更新対象パラメータ値に該当する。パラメータ値X’は、更新後パラメータ値に該当する。パラメータ値X’は、パラメータ値の更新について予め定められている更新の条件(制約条件)に従って、パラメータ値Xを更新して得られる。
パラメータ値X’は、パラメータ値Xの場合と同様、ベクトルで示される。パラメータ値X’の要素、すなわち、個々のパラメータ値をb’、b’、・・・、b’(nは、パラメータの個数を示す正の整数)と表記する。パラメータ値X’は、式(3)のようにベクトルで示される。
Figure 2020090821
シミュレーション実行部192のシミュレータにパラメータ値X’を入力した場合のシミュレーション出力をY’simと表記する。シミュレーション出力Y’simは、式(4)のように示される。
Figure 2020090821
シミュレーション出力Ysimに対するシミュレーション出力Y’simの差分は、例えば、Y’sim−Ysimと表される。
この差分をYsimで除算することで正規化した値を、評価対象値の差分の割合Yと表記する。評価対象値の差分の割合Yは、式(5)のように示される。
Figure 2020090821
機械学習処理部194が行う学習結果に基づく予測値をμsurと表記する。μsurは、式(6)のように示される。予測値μsurとして、評価対象値の差分の割合が得られる。
Figure 2020090821
surは、相違情報取得部293が用いる学習結果を関数として表したものである。式(6)は、パラメータ値X及び更新後のパラメータ値X’を学習結果(学習モデル、スコア関数)に入力して、予測値μsurを得られることを示している。
以上の定式化を用いて、図3〜図5の設計問題の例を式で示す。
上記のように、この場合のパラメータ値Xの要素(個々のパラメータ値b)としてバイナリを用いる。「1≦i≦n(nはパラメータの個数を示す正の整数)」として、個々のパラメータ値bは、式(7)のように示される。
Figure 2020090821
個々のパラメータ値bは、「i」で示される位置(この例では格子点)における円筒の有無を示す。bの値が0である場合(b=0)、「i」で示される位置に円筒が配置されていないことを示す。bの値が1である場合(b=1)、「i」で示される位置に円筒が配置されていることを示す。
「i」で示される位置を、iの位置と表記する。
円筒の個数が一定であるとの制約条件は、式(8)のように示される。
Figure 2020090821
Mは、円筒の個数を示す正の整数定数である。
ここでは、パラメータ値を更新する際の制約条件は、円筒のうちいずれか1つを移動させることである。iの位置の円筒をjの位置に移動させた場合、更新後のパラメータ値X’は、式(9)のように示される。
Figure 2020090821
式(1)と、式(9)とを比較すると、bとbとが、この移動に応じて入れ換えられている。このように設計問題など解析対象を、パラメータを用いて表すことで、解析システム1が解析を行うことができる。
次に、図8〜図10を参照して、解析システム1の動作について説明する。
図8は、機械学習装置100が更新前後のパラメータ値と評価対象値の差分の割合Yとの関係を学習する処理手順の例を示すフローチャートである。
図8の処理で、学習側制御部190は、予め定められている訓練データの個数の分だけ処理を繰り返すループL11を開始する(ステップS111)。
ループL11の処理で、学習側制御部190は、訓練データを生成する(ステップS112)。
ステップS112の後、学習側制御部190は、ループL11の終端処理を行う(ステップS113)。具体的には、学習側制御部190は、ループL11の処理の繰り返し回数が、予め定められている訓練データの個数分に到達したか否かを判定する。繰り返し回数が訓練データの個数分に到達していないと判定した場合、学習側制御部190は、引き続きループL11の処理を繰り返す。一方、繰り返し回数が訓練データの個数分に到達したと判定した場合、学習側制御部190は、ループL11を終了する。
ループL11を終了した場合、学習側制御部190は、訓練データの個数の分だけ処理を繰り返すループL12を開始する(ステップS114)。
ループL12の処理で、機械学習処理部194は、得られた訓練データを用いて機械学習を行う(ステップS115)。
ステップS115の後、学習側制御部190は、ループL12の終端処理を行う(ステップS116)。具体的には、学習側制御部190は、ループL12の処理の繰り返し回数が、予め定められている訓練データの個数分に到達したか否かを判定する。繰り返し回数が訓練データの個数分に到達していないと判定した場合、学習側制御部190は、引き続きループL12の処理を繰り返す。一方、繰り返し回数が訓練データの個数分に到達したと判定した場合、学習側制御部190は、ループL12を終了する。
ループL12の処理の終了後、機械学習装置100は、図8の処理を終了する。
図9は、機械学習装置100が訓練データを生成する処理手順の例を示すフローチャートである。機械学習装置100は、図8のステップS112で図9の処理を行う。
図9の処理で、パラメータ値取得部191は、パラメータ値Xを取得する(ステップS211)。パラメータ値取得部191が、パラメータ値Xをランダムに設定するなど、パラメータ値Xを自動生成するようにしてもよい。あるいは、パラメータ値Xを入力するユーザ操作に基づいて、パラメータ値取得部191がパラメータ値Xを生成するようにしてもよい。あるいは、パラメータ値取得部191が、学習側通信部110を介して他の装置からパラメータ値Xを取得するようにしてもよい。
次に、パラメータ値取得部191は、パラメータ値X’を取得する(ステップS212)。パラメータ値取得部191が、パラメータ値の更新の条件の範囲内でパラメータ値Xをランダムに更新するなど、パラメータ値X’を自動生成するようにしてもよい。あるいは、パラメータ値X’を入力するユーザ操作に基づいて、パラメータ値取得部191がパラメータ値X’を生成するようにしてもよい。あるいは、パラメータ値取得部191が、学習側通信部110を介して他の装置からパラメータ値X’を取得するようにしてもよい。
次に、シミュレーション実行部192は、パラメータ値Xを用いてシミュレーションを実行する(ステップS213)。具体的には、シミュレーション実行部192は、シミュレーション実行部192自らが有するシミュレータにパラメータ値Xを入力してシミュレーションを実行し、パラメータ値Xの場合のシミュレーション出力Ysimを算出する。
さらに、シミュレーション実行部192は、パラメータ値X’を用いてシミュレーションを実行する(ステップS214)。具体的には、シミュレーション実行部192は、シミュレーション実行部192自らが有するシミュレータにパラメータ値X’を入力してシミュレーションを実行し、パラメータ値X’の場合のシミュレーション出力Y’simを算出する。
次に、相違算出部193は、評価対象値の差分の割合Yを算出する(ステップS215)。具体的には、相違算出部193は、シミュレーション出力Ysim及びシミュレーション出力Y’simを用いて上記の式(5)の演算を行って、評価対象値の差分の割合Yを算出する。
そして、学習側制御部190は、パラメータ値X、パラメータ値X’、及び評価対象値の差分の割合Yを1つに纏めた訓練データを生成する(ステップS216)。
ステップS216の後、機械学習装置100は、図9の処理を終了し、図8の処理へ戻る。
図10は、解析装置200がパラメータ値を検索する処理手順の例を示すフローチャートである。
図10の処理で、初期値取得部291は、パラメータの初期値を設定する(ステップS311)。初期値取得部291は、例えばパラメータの初期値をランダムに設定するなど、パラメータの初期値を自動設定する。あるいは、パラメータの初期値を入力するユーザ操作に基づいて、初期値取得部291がパラメータの初期値を設定するようにしてもよい。あるいは、初期値取得部291が、解析側通信部210を介して他の装置からパラメータの初期値を取得するようにしてもよい。
パラメータの初期値は、更新対象パラメータ値として用いられる。
次に、更新後候補設定部292は、更新後パラメータ値の候補を複数設定する(ステップS312)。更新後候補設定部292は、パラメータ値の更新の条件の範囲内で更新対象パラメータ値をランダムに更新するなど、更新後パラメータ値の候補を自動生成する。
次に、解析側制御部290は、更新後パラメータ値の候補毎に処理を行うループL31を開始する(ステップS313)。
ループL31の処理で、相違情報取得部293は、更新対象パラメータ値の場合の評価対象値に対する、更新後パラメータ値の候補の場合の評価対象値の相違の程度を示す情報を取得する(ステップS314)。具体的には、相違情報取得部293は、更新対象パラメータ値と更新後パラメータ値の候補とを機械学習結果に適用して、評価対象値の差分の割合を取得する。
さらに評価対象値算出部294は、得られた評価対象値の差分の割合と、更新対象パラメータ値の場合の評価対象値とに基づいて、更新後パラメータ値の候補の場合の評価対象値を算出する(ステップS315)。
次に、解析側制御部290は、ループL31の終端処理を行う(ステップS316)。具体的には、解析側制御部290は、更新後パラメータ値の候補全てに対してループL31の処理を行ったか否かを判定する。未処理の候補があると判定した場合、解析側制御部290は、引き続きループL31の処理を繰り返す。一方、全ての候補に対してループL31の処理を実行済であると判定した場合、解析側制御部290は、ループL31を終了する。
ループL31を終了した場合、更新後パラメータ値選択部295は、更新後パラメータ値の候補のうちいずれかを選択する(ステップS317)。例えば、更新後パラメータ値選択部295は、相違情報取得部293が更新後パラメータ値の候補毎に算出した評価対象値(この例では、選択指標値)に基づいて、評価対象値(この例では、選択指標値)が予め定められた目標値を満たす候補、または、評価対象値が目標値に最も近い候補を1つ選択する。
次に、終了条件判定部296は、パラメータ値の探索の終了条件が成立しているか否かを判定する(ステップS318)。例えば、終了条件判定部296は、ステップS317で選択されたパラメータ値の場合の評価対象値が目標値を満たすか否かを判定し、目標値を満たすと判定した場合に、パラメータ値の探索の終了条件が成立していると判定する。
パラメータ値の探索の終了条件が成立していないと終了条件判定部296が判定した場合(ステップS318:NO)、処理がステップS312へ遷移する。
一方、パラメータ値の探索の終了条件が成立していると終了条件判定部296が判定した場合(ステップS318:YES)、解析装置200は、処理結果を出力する(ステップS319)。具体的には、解析装置200は、目標値を満たす評価対象値と、そのときのパラメータ値とを処理結果としてユーザに提示する。
解析装置200が処理結果を出力する方法は、特定の方法に限定されない。例えば、解析装置200が表示装置を備えて、処理結果を表示するようにしてもよい。あるいは解析側通信部210が、処理結果を他の装置へ送信するようにしてもよい。
ステップS319の後、解析装置200は、図10の処理を終了する。
以上のように、相違情報取得部293は、更新対象パラメータ値に応じて設定される複数の更新後パラメータ値の候補の各々について、更新対象パラメータ値とその更新後パラメータ値の候補とを機械学習結果に適用して、更新対象パラメータ値の場合の評価対象値に対する、その更新後パラメータ値の候補の場合の評価対象値の相違の程度を示す情報を取得する。評価対象値算出部294は、更新後パラメータ値の候補毎に、評価対象値の相違の程度と、更新対象パラメータ値の場合の評価対象値とに基づいて、その候補の場合の評価対象値を算出する。更新後パラメータ値選択部295は、更新後パラメータ値の候補のうち、評価対象値(この例では、評価対象値を選択指標値として用いる)が目標に最も合致する候補を選択し、更新対象パラメータ値、更新対象パラメータ値の場合の評価対象値を、それぞれ、選択した候補、選択した候補の場合の評価対象値に更新する。言い換えると、更新後パラメータ値選択部295は、更新後パラメータ値の候補に関して算出された評価対象値を比較し、比較結果に基づき候補を選択し、更新対象パラメータ値、更新対象パラメータ値の場合の評価対象値を、それぞれ、選択した候補、選択した候補の場合の評価対象値に更新する。
このように、解析装置200によれば、パラメータ値の設定による複数のパターンの中から評価の高いものを選択する場合に機械学習結果を用いて候補の選択を行うことで、候補の選択の際にシミュレーションを実行する必要がない。解析装置200によれば、この点で、複数のパターンの中から評価の高いものを選択する解析を、効率的に行うことができる。特に、解析装置200が機械学習結果を用いて評価対象値を取得する点で、シミュレーションを実行する場合よりも処理時間が短くて済む。
また、解析装置200は、パラメータ値の更新前後における評価対象値の相違の程度を示す情報を機械学習結果から取得する。解析装置200は、パラメータを有するいろいろな解析対象に対して解析を行うことができ、汎用性が比較的高い。また、解析装置200が、評価対象値の相違の程度という相対的な値を機械学習結果から取得する点で、更新後パラメータ値の候補の場合の評価対象値を算出する際に、更新対象パラメータ値の場合の評価対象値を反映させることができる。パラメータ値の更新前後の評価対象値の相違の程度には比較的強い関係性(例えば、相関性)があると考えられ、解析装置200によれば、この点で、評価対象値をより高精度に算出することができ、解析をより高精度に行うことができる。
また、相違情報取得部293は、評価対象値の相違の程度を示す情報として、更新対象パラメータ値の場合の評価対象値に対する更新後パラメータ値の候補の場合の評価対象値の差分を、更新対象パラメータ値の場合の評価対象値で除算する正規化を行った値を取得する。
解析装置200が、正規化された評価対象値の差分を用いて更新後パラメータ値の候補の場合の評価対象値を算出することで、正規化されていないデータを用いる場合よりも、更新対象パラメータ値の場合の評価対象値の大きさを、更新後パラメータ値の候補の場合の評価対象値の大きさに、より強く反映させることができる。パラメータ値の更新前後の評価対象値には比較的強い関係性(例えば、相関性)があると考えられ、解析装置200によれば、この点で、評価対象値をより高精度に算出することができる。
但し、解析システム1が、更新対象パラメータ値の場合の評価対象値に対する、更新後パラメータ値の候補の場合の評価対象値の相違の程度を示す情報として、更新対象パラメータ値の場合の評価対象値に対する更新後パラメータ値の候補の場合の評価対象値の差分を、更新対象パラメータ値の場合の評価対象値で除算する正規化を行った値以外の値を用いるようにしてもよい。
例えば、解析システム1が、更新対象パラメータ値の場合の評価対象値に対する、更新後パラメータ値の候補の場合の評価対象値の相違の程度を示す情報として、更新対象パラメータ値の場合の評価対象値と、更新後パラメータ値の候補の場合の評価対象値との比を用いるようにしてもよい。
あるいは、解析システム1が、更新対象パラメータ値の場合の評価対象値に対する、更新後パラメータ値の候補の場合の評価対象値の相違の程度を示す情報として、更新対象パラメータ値の場合の評価対象値と、更新後パラメータ値の候補の場合の評価対象値との差分を用いるようにしてもよい。
また、パラメータ値取得部191は、更新対象パラメータ値および更新後パラメータ値を取得する。シミュレーション実行部192は、更新対象パラメータ値、更新後パラメータ値それぞれの場合の評価対象値をシミュレーションで算出する。相違算出部193は、更新対象パラメータ値の場合の評価対象値に対する、更新後パラメータ値の場合の評価対象値の相違の程度を算出する。機械学習処理部194は、更新対象パラメータ値および更新後パラメータ値と、評価対象値の相違の程度との関係を機械学習する。
このように機械学習装置100が、評価対象値の相違の程度について機械学習を行うことで、評価対象値の相違の程度を出力する機械学習結果を解析装置200に提供できる。
解析装置200は、この機械学習結果を用いて、上記のように解析を行うことができる。
<第2実施形態>
第2実施形態における解析システム1、機械学習装置100、解析装置200の各々の構成は第1実施形態の場合と同様である。
第2実施形態では、解析装置200の更新後パラメータ値選択部295が、更新後パラメータ値の候補のうち何れか1つを選択する方法が第1実施形態の場合と異なる。第2実施形態に係る更新後パラメータ値選択部295は、更新後パラメータ値の候補毎に評価対象値のばらつきを算出し、得られたばらつきを用いて選択指標値を算出して候補の選択を行う。以下では、更新後パラメータ値選択部295が、評価対象値のばらつきとして分散を用いる場合を例に説明するが、これに限定されない。例えば、更新後パラメータ値選択部295が、評価対象値のばらつきとして標準偏差を用いるようにしてもよい。
更新後パラメータ値選択部295による候補の選択方法を実現するために、機械学習装置100は、複数の学習モデルを生成する。
ここでいう学習モデルは、機械学習の結果である。機械学習装置100が生成する学習モデルの各々が、更新前のパラメータ値および更新後パラメータ値の入力を受けて、評価対象値の差分の割合を出力する。
また、更新後パラメータ値選択部295による候補の選択方法を実現するために、相違情報取得部293は、機械学習装置100が生成した学習モデル毎に評価対象値の差分の割合を取得する。
それ以外の点では、第2実施形態に係る解析システム1は、第1実施形態の場合と同様である。
機械学習装置100は、複数の学習モデルを生成するために、異なる訓練データセットを生成する。ここでいう訓練データセットは、1つの学習モデルに用いられる訓練データの一纏まりである。機械学習装置100が、1つの訓練データセットに関して、相互に異なる複数の学習モデルを作成するようにしてもよい。このような機械学習装置100は、例えば、与えられた訓練データセットから訓練サンプルをランダムに複数選び出し、選び出した複数の訓練サンプルについて学習モデルを作成するという処理を複数回繰り返すことによって実現することができる。
訓練データセットに含まれる個々の訓練データは、訓練データセット毎に異なる。これにより、機械学習装置100が生成する複数の学習モデルは、同じ値の入力を受けて学習モデル毎に異なる値を出力する。これにより学習モデルの出力の分散を算出することができ、この分散を更新後パラメータ値の候補から何れかを選択するために用いることができる。
機械学習装置100が生成する訓練データの数は、学習モデル毎に異なっていてもよい。あるいは、機械学習装置100が、全ての学習モデル用に同数の訓練データを生成するようにしてもよい。
図11は、第2実施形態に係る更新後パラメータ値選択部295による更新後パラメータ値の候補の選択の例を示す図である。
図11において、iは、パラメータ値の更新回数にて探索の進行を示す。パラメータの更新回数をL()で示す。例えば、i回目のパラメータ値の更新を「L(i)」と表記する。
図11において、jは、同じパラメータ値の更新回数における状態を識別するためのインデックスである。上述したように状態の各々は、パラメータ値が設定された状態であり、パラメータ値と対応付けられる。
図11は、状態si−1,1におけるパラメータ値から、状態si,1におけるパラメータ値および状態si,2におけるパラメータ値のうち何れかに更新する場合の例を示している。
また、図11は、パラメータ値の更新の先読みを行って、L(i)における状態の選択を、L(i+2)における状態の情報に基づいて行う場合の例を示している。
以下では、状態選択対象となるパラメータ値の更新回数を深さL(i)と表記する。従って、パラメータ値の更新前における更新回数は深さL(i−1)と示される。また、先読みの対象となるパラメータ値の更新回数を深さL(N)で表す。図11の例では、「L(N)=L(i+2)」である。
第2実施形態では、相違情報取得部293は、1つの状態におけるパラメータ値について、複数の学習モデルを用いて学習モデルの個数分だけ評価対象値の差分の割合を算出する。先読み先の状態が複数ある場合、相違情報取得部293は、「状態数×学習モデル」の個数の評価対象値の差分の割合を算出する。
評価対象値算出部294は、相違情報取得部293が算出する評価対象値の差分の割合毎に、評価対象値を算出する。評価対象値算出部294は、評価対象値の差分の割合に、親ノードに相当する状態における評価対象値を乗算することで、差分の割合を差分に換算する。そして、評価対象値算出部294は、得られた差分を親ノードに相当する状態における評価対象値に加算することで、評価対象値を算出する。ここでいう親ノードに相当する状態は、深さ方向(iの方向)における直前の状態である。
相違情報取得部293が差分の割合を算出する場合に、評価対象値算出部294が評価対象値を算出する処理は、式(10)のように示される。
Figure 2020090821
G(Si,j)は、算出対象の評価対象値(例えば、更新後パラメータ値の候補の場合の評価対象値)を示す。G(Si−1,L)は、評価対象値算出対象の状態の親ノードに相当する状態における評価対象値(例えば、更新対象パラメータ値の場合の評価対象値)を示す。Lは、何らかの定数を示す。
μsur(si−1,L,Si,j)は、評価対象値の差分の割合を示す。
評価対象値算出部294が評価対象値を算出する処理は、相違情報取得部293における処理に依存して決定される。例えば、相違情報取得部293が差分によって相違情報を作成する場合、評価対象値算出部294は、その相違情報と、親ノードに相当する状態における評価対象値との和を算出する。例えば、相違情報取得部293が比によって相違情報を作成する場合、評価対象値算出部294は、その相違情報と、親ノードに相当する状態における評価対象値との積を算出する。
更新後パラメータ値選択部295は、評価対象値算出部294が算出した評価対象値について、更新後パラメータ値の候補毎に、先読み対象の状態のうち子孫に相当する状態における評価対象値の平均値および分散を算出する。図11の例の場合、更新後パラメータ値選択部295は、状態si,1における選択指標値の算出のために、状態si+2,1、si+2,2、および、si+2,3で得られる全ての評価対象値の平均及び分散を算出する。また、更新後パラメータ値選択部295は、状態si,2における選択指標値の算出のために、状態si+2,4および、si+2,5で得られる全ての評価対象値の平均及び分散を算出する。
先読みを行わない場合は、更新後パラメータ値選択部295は、更新後パラメータ値の候補自らにおける全ての評価対象値の平均及び分散を算出する。上記のように、学習モデルを複数用いることで、1つの更新後パラメータ値の候補について複数の評価対象値が得られる。
更新後パラメータ値選択部295は、式(11)を用いて更新後パラメータ値の候補の各々の選択指標値を算出し、選択指標値が最も大きい候補を1つ選択する。
Figure 2020090821
μi,jは、深さL(N)における状態のうち、状態si,jの子孫に相当する状態における評価対象値の平均値を示す。上記のように、深さL(N)は先読み対象の深さである。状態si,jは、更新後の状態の候補(更新後パラメータ値の候補)である。状態si,jの子孫の状態とは、状態si,jからパラメータ値の更新回数が増加する方向に辿っていって到達可能なノードである。
δi,j は、深さL(N)における状態のうち、状態si,jの子孫に相当する状態における評価対象値の分散を示す。
i,jは、先読み対象の深さである深さL(N)で展開されている状態の数(状態si,jの子孫に相当する状態の数)を示す。図11の例では、「n i,1=3」、「n i,2=2」である。
kは、更新後パラメータ値の候補の数を示す。従って、kは、深さL(i)における状態の数を示す。図11の例では、「k=2」である。
式(11)の値(式(11)の演算の結果得られる値)が、選択指標値の例に該当する。
更新後パラメータ値選択部295は、更新後パラメータ値の候補のうち、式(11)の値が最大となる候補を選択する。
更新後パラメータ値の候補の子孫に相当する状態の数n i,jが少ないほど(値が小さいほど)、式(11)の値が大きくなる。更新後パラメータ値の候補の子孫に相当する状態の数n i,jが少ない場合、この候補からの先読みが十分に行われていない可能性があり、さらに探索を行えば、好適な状態(評価対象値による評価が高い状態)に到達できる可能性があると考えらえる。式(11)によれば、この場合の更新後パラメータ値の候補が比較的選ばれ易くなる。
また、分散δi,j の値が大きいほど、式(11)の値が大きくなる。分散δi,j の値が大きい場合、先読み先の状態毎に評価対象値が大きく異なっているか、あるいは、機械学習結果による評価対象値の誤差が比較的大きいことが考えられる。何れの場合も、さらに探索を行えば、好適な状態に到達できる可能性があると考えらえる。式(11)によれば、この場合の更新後パラメータ値の候補が比較的選ばれ易くなる。
あるいは、更新後パラメータ値選択部295が、式(11)に代えて式(12)を用いて更新後パラメータ値の候補の各々の選択指標値を算出し、選択指標値が最も大きい候補を1つ選択するようにしてもよい。
Figure 2020090821
k,Tk(t−1)は、式(11)のδi,j と同様の分散を示す。
εTk(t−1),tは、式(11)のΣj=1,k(n i,j)と同様、先読み対象の深さであるL(N)における状態の数を示す。
(t−1)は、式(11)のn i,jと同様、更新後パラメータ値の候補の子孫に相当する状態の数を示す。
cは、第3項に対する重み付けを行うハイパーパラメータを示す。
bは、予測幅を示す。ここでいう予測幅は、評価対象値の平均値μi,jの値域の大きさである。
なお、初期値取得部291が、更新対象パラメータ値と、その更新対象パラメータ値の場合の評価対象値との組み合わせを複数取得するようにしてもよい点も、第1実施形態の場合と同様である。
解析装置200が、これら複数の更新対象パラメータ値の各々について、その更新対象パラメータ値をパラメータの初期値としてパラメータ値の探索を行うことで、一部の探索で局所解に陥った場合でも、他の探索で、評価対象値による評価がより高い解を得られると期待される。
次に、図12〜図13を参照して第2実施形態に係る解析システム1の動作について説明する。
図12は、機械学習装置100が更新前後のパラメータ値と評価対象値の差分の割合との関係を学習する処理手順の例を示すフローチャートである。
図12の処理で、学習側制御部190は、生成する学習モデルの個数分だけ処理を繰り返すループL41を開始する(ステップS411)。
ステップS412〜ステップS414は、図8のステップS111〜ステップS113と同様である。ステップS413において、機械学習装置100は、図9の処理を行う。
ステップS412〜ステップS414で、機械学習装置100は、学習モデル毎の訓練データを生成する。すなわち、第2実施形態に係る機械学習装置100が学習モデル毎の訓練データを生成する処理手順は、第1実施形態に係る機械学習装置100が訓練データを生成する処理手順と同様である。
ステップS414の後、学習側制御部190は、ループL41の終端処理を行う。具体的には、学習側制御部190は、生成する学習モデルの個数分だけ訓練データセットを生成したか否かを判定する。生成した訓練データセットの個数が学習モデルの個数より少ないと判定した場合、学習側制御部190は、引き続きループL41の処理を繰り返す。一方、生成する学習モデルの個数分だけ訓練データセットを生成したと判定した場合、解析側制御部290は、ループL41を終了する。
ループL41を終了した場合、学習側制御部190は、生成する学習モデルの個数分だけ処理を繰り返すループL43を開始する(ステップS416)。
ステップS417〜ステップS419は、図8のステップS114〜ステップS116と同様である。ステップS417〜ステップS419で、機械学習装置100は、学習モデルを生成する。すなわち、第2実施形態に係る機械学習装置100が個々の学習モデルを生成する処理手順は、第1実施形態に係る機械学習装置100が学習モデルを生成する処理手順と同様である。
ステップS419の後、学習側制御部190は、ループL43の終端処理を行う。具体的には、学習側制御部190は、生成予定の個数分の学習モデルを生成したか否かを判定する。生成した学習モデルの個数が生成予定の個数より少ないと判定した場合、学習側制御部190は、引き続きループL43の処理を繰り返す。一方、生成予定の個数分の学習モデルを生成したと判定した場合、解析側制御部290は、ループL43を終了する。
ループL43を終了した場合、機械学習装置100は、図12の処理を終了する。
図13は、解析装置200がパラメータ値を検索する処理手順の例を示すフローチャートである。
ステップS511〜S513は、図10のステップS311〜S313と同様である。
ステップS513で開始するループL51の処理で、解析側制御部290は、学習モデル毎に処理を行うループL52を開始する(ステップS514)。
ループL52の処理で、相違情報取得部293は、更新対象パラメータ値の場合の評価対象値に対する、更新後パラメータ値の候補の場合の評価対象値の相違の程度を示す情報を取得する(ステップS515)。
さらに評価対象値算出部294は、得られた評価対象値の差分の割合と、更新対象パラメータ値の場合の評価対象値とに基づいて、更新後パラメータ値の候補の評価対象値を算出する(ステップS516)。
ステップS515およびS516は、図10のステップS314およびS315と同様である。すなわち、第2実施形態に係る相違情報取得部293および評価対象値算出部294が、個々の学習モデルについて評価対象値を求める処理は、第1実施形態に係る相違情報取得部293および評価対象値算出部294が評価対象値を求める処理と同様である。
なお、先読み先の状態が複数ある場合、ステップS515で相違情報取得部293は、先読み先の状態毎に、更新対象パラメータ値の場合の評価対象値に対する、先読み先の状態における更新後パラメータ値の場合の評価対象値の相違の程度を示す情報を取得する。そして、ステップS516で評価対象値算出部294は、先読み先の状態毎に評価対象値を算出する。
ステップS516の後、解析側制御部290は、ループL52の終端処理を行う(ステップS517)。具体的には、解析側制御部290は、全ての学習モデルについてループL52の処理を行ったか否かを判定する。未処理の学習モデルがある判定した場合、解析側制御部290は、引き続きループL52の処理を繰り返す。一方、全ての学習モデルについてループL32の処理を実行済であると判定した場合、解析側制御部290は、ループL52を終了する。
ループL52の処理を終了した場合、更新後パラメータ値選択部295は、更新後パラメータ値の候補毎に、評価対象値の平均値及び分散を算出する(ステップS518)。
次に、解析側制御部290は、ループL51の終端処理を行う(ステップS519)。具体的には、解析側制御部290は、更新後パラメータ値の候補全てに対してループL51の処理を行ったか否かを判定する。未処理の候補があると判定した場合、解析側制御部290は、引き続きループL51の処理を繰り返す。一方、全ての候補に対してループL51の処理を実行済であると判定した場合、解析側制御部290は、ループL51を終了する。ステップS519は、図10のステップS316と同様である。
ループL51を終了した場合、更新後パラメータ値選択部295は、更新後パラメータ値の候補のうちいずれかを選択する(ステップS520)。具体的には、更新後パラメータ値選択部295は、更新後パラメータ値の候補毎に算出した評価対象値の平均および分散を用いて、上述した式(11)の値が最も大きい候補を1つ選択する。上記のように、式(11)の値は選択指標値の例に該当し、更新後パラメータ値選択部295は、選択指標値が最も大きい候補を選択する。
次に、終了条件判定部296は、パラメータ値の探索の終了条件が成立しているか否かを判定する(ステップS521)。例えば、解析側制御部290が、第1実施形態の場合と同様、選択されたパラメータ値の場合の評価対象値を算出しておく。終了条件判定部296は、選択されたパラメータ値の場合の評価対象値が目標値を満たすか否かを判定し、目標値を満たすと判定した場合に、パラメータ値の探索の終了条件が成立していると判定する。
パラメータ値の探索の終了条件が成立していないと終了条件判定部296が判定した場合(ステップS521:NO)、処理がステップS512へ遷移する。一方、パラメータ値の探索の終了条件が成立していると終了条件判定部296が判定した場合(ステップS521:YES)、解析装置200は、処理結果を出力する(ステップS522)。ステップS522は、図10のステップS319と同様である。
ステップS522の後、解析装置200は、図13の処理を終了する。
以上のように、相違情報取得部293は、更新パラメータ値に応じて設定される複数の更新後パラメータ値の候補の各々について、更新対象パラメータ値とその更新後パラメータ値の候補とを複数の機械学習結果に適用して、更新対象パラメータ値の場合の評価対象値に対する、その更新後パラメータ値の候補の場合の評価対象値の相違の程度を示す情報を機械学習結果毎に取得する。評価対象値算出部294は、更新後パラメータ値の候補毎、かつ、機械学習結果毎に、評価対象値の相違の程度と、更新対象パラメータ値の場合の評価対象値とに基づいて、その候補の場合の評価対象値を算出する。更新後パラメータ値選択部295は、更新対象パラメータ値の候補毎に複数の評価対象値のばらつきを用いて算出される選択指標値が、所定の選択条件に最も適合する候補を選択し、更新対象パラメータ値、更新対象パラメータ値の場合の評価対象値を、それぞれ、選択した候補、選択した候補の場合の評価対象値に更新する。言い換えると、更新後パラメータ値選択部295は、更新対象パラメータ値の候補毎に複数の評価対象値のばらつきを用いて算出される選択指標値を比較し、比較結果に基づいて候補を選択し、更新対象パラメータ値、更新対象パラメータ値の場合の評価対象値を、それぞれ、選択した候補、選択した候補の場合の評価対象値に更新する。
このように、解析装置200は、複数の機械学習結果を用いて機械学習結果毎に、更新後パラメータ値の候補の場合の評価対象値を算出する。これにより、解析装置200は、1つの更新後パラメータ値の候補について複数の評価対象値を得ることができ、評価値のばらつきを用いた評価が可能になる。
上記のように、解析システム1が評価対象値のばらつきを示す指標として用いる値は、評価対象値の分散に限定されない。例えば、解析システム1が評価対象値のばらつきを示す指標として標準偏差を用いるなど、分散以外の値を用いるようにしてもよい。
また、解析装置200は、パラメータ値の更新時における評価対象値の相違の程度を示す情報を機械学習結果から取得する。解析装置200が、評価対象値の相違の程度という相対的な値を機械学習結果から取得する点で、更新後パラメータ値の候補の場合の評価対象値を算出する際に、更新対象パラメータ値の場合の評価対象値を反映させることができる。パラメータ値の更新前後の評価対象値には比較的強い関係性(例えば、相関性)があると考えられ、解析装置200によれば、この点で、評価対象値をより高精度に算出することができる。
第2実施形態では、更新後候補設定部292の処理およびそれ以降の処理は、以下の処理(1B)〜(6B)を含む。
(1B)更新後候補設定部292が、更新後パラメータ値の候補を複数設定する。
(2B)相違情報取得部293が、更新後パラメータ値の候補毎に、更新対象パラメータ値と、その更新後パラメータ値の候補とを複数の機械学習結果に適用して、更新対象パラメータ値の場合の評価対象値に対する、その更新後パラメータ値の候補の場合の評価対象値の相違の程度を示す情報を機械学習結果毎に取得する。
(3B)評価対象値算出部294が、更新後パラメータ値の候補毎、かつ、機械学習結果毎に、評価対象値の相違の程度と、更新対象パラメータ値の場合の評価対象値とに基づいて、その更新後パラメータ値の候補の場合の評価対象値を算出する。
(4B)更新後パラメータ値選択部295が、更新後パラメータ値の候補の各々に対する、評価対象値の平均値および分散(選択指標値の一例)を用いた評価にて、評価が最も良い候補を選択し、更新対象パラメータ値、更新対象パラメータ値の場合の評価対象値を、それぞれ、選択した候補、選択した候補の場合の評価対象値に更新する。
(5B)終了条件判定部296が、更新対象パラメータ値の場合の評価対象値が所定の終了条件を満たすか否かを判定する。
(6B)解析側制御部290が、上記(5B)で終了条件判定部296が、更新対象パラメータ値の場合の評価対象値が所定の終了条件を満たすと判定するまで(1B)〜(6B)の処理を繰り返し行わせる。
また、更新後パラメータ値選択部295は、評価対象値のばらつき(例えば、分散)が大きい候補ほど評価を高い評価とする。
評価対象値のばらつきが大きい場合、先読み先の状態毎に評価対象値が大きく異なっているか、あるいは、機械学習結果による評価対象値の誤差が比較的大きいことが考えられる。何れの場合も、さらに探索を行えば、好適な状態に到達できる可能性があると考えらえる。解析装置200によれば、この場合の更新後パラメータ値の候補が比較的選ばれ易くなる。
また、更新後パラメータ値選択部295は、評価対象値のばらつきに加えて評価対象値の平均値を用いて算出される選択指標値が、所定の選択条件に最も適合する候補を選択する。
更新後パラメータ値選択部295が、評価対象値の平均値に基づく選択指標値を用いることで、評価対象値の平均値を候補の選択に反映させることができる。更新後パラメータ値選択部295が、この選択指標値を用いて評価対象値の平均値が大きい候補を優先的に選択することで、選択された候補について得られる評価対象値が大きくなる(評価が高くなる)ことが期待される。
また、更新後パラメータ値選択部295は、パラメータ値の更新について先読みを行い、先読みされたパラメータ値が少ない候補ほど評価を高い評価とする。
先読みされたパラメータ値が少ない候補については、先読みによる評価が十分に行われていない可能性があり、さらに探索を行えば、好適な状態に到達できる可能性があると考えらえる。解析装置200によれば、この場合の更新後パラメータ値の候補が比較的選ばれ易くなる。
また、相違情報取得部293は、評価対象値の相違の程度を示す情報として、更新対象パラメータ値の場合の評価対象値に対する更新後パラメータ値の候補の場合の評価対象値の差分を、更新対象パラメータ値の場合の評価対象値で除算する正規化を行った値を取得する。
解析装置200が、正規化された評価対象値の差分を用いて更新後パラメータ値の候補の場合の評価対象値を算出することで、正規化されていないデータを用いる場合よりも、更新対象パラメータ値の場合の評価対象値の大きさを、更新後パラメータ値の候補の場合の評価対象値の大きさに、より強く反映させることができる。パラメータ値の更新前後の評価対象値には比較的強い関係性(例えば、相関性)があると考えられ、解析装置200によれば、この点で、評価対象値をより高精度に算出することができる。
但し、解析システム1が、更新対象パラメータ値の場合の評価対象値に対する、更新後パラメータ値の候補の場合の評価対象値の相違の程度を示す情報として、更新対象パラメータ値の場合の評価対象値に対する更新後パラメータ値の候補の場合の評価対象値の差分を、更新対象パラメータ値の場合の評価対象値で除算する正規化を行った値以外の値を用いるようにしてもよい。
例えば、解析システム1が、更新対象パラメータ値の場合の評価対象値に対する、更新後パラメータ値の候補の場合の評価対象値の相違の程度を示す情報として、更新対象パラメータ値の場合の評価対象値と、更新後パラメータ値の候補の場合の評価対象値との比を用いるようにしてもよい。
あるいは、解析システム1が、更新対象パラメータ値の場合の評価対象値に対する、更新後パラメータ値の候補の場合の評価対象値の相違の程度を示す情報として、更新対象パラメータ値の場合の評価対象値と、更新後パラメータ値の候補の場合の評価対象値との差分を用いるようにしてもよい。
また、パラメータ値取得部191は、更新対象パラメータ値および更新後パラメータ値を取得する。シミュレーション実行部192は、更新対象パラメータ値、更新後パラメータ値それぞれの場合の評価対象値をシミュレーションで算出する。相違算出部193は、更新対象パラメータ値の場合の評価対象値に対する、更新後パラメータ値の場合の評価対象値の相違の程度を算出する。機械学習処理部194は、更新対象パラメータ値、更新後パラメータ値、および、評価対象値の相違の程度を、例えば、複数セット分用いて、更新対象パラメータ値および更新後パラメータ値と、評価対象値の相違の程度との関係の機械学習結果を複数取得する。
このように機械学習装置100が、評価対象値の相違の程度について機械学習を行うことで、評価対象値の相違の程度を出力する機械学習結果を解析装置200に提供できる。
解析装置200は、この機械学習結果を用いて、上記のように解析を行うことができる。
さらに、機械学習装置100複数の機械学習結果を取得することで、解析装置200は、これら複数の機械学習結果を用いて評価対象値を複数取得することができ、評価対象値の分散など、評価対象値のばらつきの大きさを示す指標を取得できる。解析装置200は、評価対象値のばらつきの大きさを示す指標を用いてパラメータ値の評価を行うことができ、評価対象値が大きい(評価が高い)探索領域を検知できると期待される。
機械学習装置100による機械学習にベイジアンニューラルネットワーク(Bayesian Neural Network)を用いるようにしてもよい。ベイジアンニューラルネットワークは、確率分布による出力を行う。解析装置200は、ベイジアンニューラルネットワークの出力から評価対象値の平均値及び分散を得られ、これら平均値及び分散を別途算出する必要がない。
ベイジアンニューラルネットワークについて、式を用いて説明する。
訓練データの数をM個(Mは、正の整数)とし、個々の訓練データをξ(iは、1≦i≦Mの整数)として、訓練データセットを式(13)のように表す。
Figure 2020090821
式(13)では、訓練データを適用する順番を考慮して、訓練データセットをベクトルで表している。
k番目の訓練データξは、式(14)のように示される。
Figure 2020090821
は、k番目の訓練データξにおけるニューラルネットワークの出力値を示す。xは、k番目の訓練データξにおけるニューラルネットワークへの入力値を示す。
における特徴量(feature)の数(要素の数)をn個として、個々の特徴量をx (iは、1≦i≦nの整数)と表記すると、xは式(15)のように示される。
Figure 2020090821
また、尤度関数をLで表して、尤度が式(16)のように示されるものとする。
Figure 2020090821
Lは、尤度関数を示す。θは、ハイパーパラメータであり、式(17)のように分布π(θ)に従うものとする。
Figure 2020090821
π(θ)は、事前確率密度関数を示す。
新たな予測(学習データ以外の予測)を、入力値xM+1から出力値yM+1の予測と表記して、ベイズの定理より、式(18)のように示される。
Figure 2020090821
p、ρは、何れも条件付き確率密度分布(尤度関数)を示す。π(θ|ξ)は、事後確率密度関数を示す。
p(yM+1|xM+1,θ)をニューラルネットワークモデルとして扱う。ハイパーパラメータθは、式(19)に従うものとする。
Figure 2020090821
π(β)として正規分布N(β’,σ’)を仮定し、π(σ)に無情報事前分布を仮定する。β’,σ’は、それぞれ、ある値(実数定数)を示す。
ベイズの定理より、式(20)のように示される。
Figure 2020090821
「∝」は比例を示す。
メトロポリスヘイスティングス法(Metropolis-Hastings Algorithm)を用いて得られるパラメータ集合θ(i)=(β(i),σ2(i))から、事後分布π(θ|ξ,・・・,ξ)を近似する。上付きの「(i)」は、サンプリングタイムを示すインデックスである。
つまり、(メトロポリスヘイスティングス法の収束仮定の部分を除き)θ(i)=(β(i),σ2(i))を得て離散近似する。
また、p(yM+1|xM+1,θ)についても同様に、θ(i)により離散近似する。
式(16)に戻り、上記のようにp(yM+1|xM+1,θ)をニューラルネットワークモデルとして扱うことで、予測値の確率分布(の近似)を得られる。
ここで、第2実施形態に係る解析システム1による処理時間は、式(21)のように示される。
Figure 2020090821
simは、シミュレーション実行の1回あたりの計算時間を示す。
dataは、機械学習装置100が機械学習のための、シミュレータへの入力データ数(従って、シミュレーションの実行回数)を示す。
データ生成に要する時間は、Tsim×Ndataとなる。
Lrnは、機械学習装置100が機械学習を行うのに要する時間を示す。機械学習装置100が機械学習を行うのに要する時間は、データ生成に要する時間に比例する。TLrn∝Tsim×Ndataである。
Dは、解析装置200が行う先読みの深さを示す。
surは、状態1つあたり、かつ、学習モデル1つあたりの計算時間を示す。
modelは、解析装置200が用いる学習モデルの数を示す。
playは、先読みの最大深さに達した時点での子孫に相当する状態の数(プレイアウト数)を示す。
Lは、最終的な深さを示す。
機械学習を行わずにシミュレーションの実行にて同様の処理を行う場合の計算時間は、式(22)のように示される。
Figure 2020090821
同じように先読みし、機械学習を行わずにシミュレーションの実行にて同様の処理を行い、かつ探索する場合の計算時間は式(23)のように示される。
Figure 2020090821
node は、先読みの深さでの、次の配置場所の候補の数を示す。
例えば、Tsim=2.0[秒]、Ndata=3000、Nnode =390、Tsim×Ndata=6112.5[秒]、TLrn=20.0[秒]、Nmodel=10、Tsur=0.0037[秒]、D=3、Nplay=3900、L=15とする。この場合、それぞれの場合に要する計算時間は、
(a)第2実施形態に係る解析システム1の場合(式(21)):約209.5分(b)機械学習を行わずにシミュレーションの実行にて同様の処理を行う場合(式(22)):約5959.7分((a)の場合の約28.5倍)(c)同じように先読みし、機械学習を行わずにシミュレーションの実行にて同様の処理を行い、かつ探索する場合(式(23)):約20983.1日((a)の約144256倍)
となる。
(b)の場合の処理では、解析装置200は、(a)の場合と同様の処理によって複数の候補のうち何れか1つに絞り込みながら探索を進めていく。これに対し、(c)の場合の処理では、解析装置200は、1つの候補までの絞り込みは行わず、Nnode までの数の候補を残す。
これら(a)〜(c)の計算時間を比較すると、第2実施形態に係る解析システム1の場合、計算時間が短くて済む。
<第3実施形態>
第3実施形態では、解析装置の構成の例について説明する。
図14は、第3実施形態に係る解析装置の構成の例を示す図である。図14に示す解析装置310は、相違情報取得部311と、評価対象値算出部312と、更新後パラメータ値選択部313と、を備える。
かかる構成にて、相違情報取得部311は、更新パラメータ値に応じて設定される複数の更新後パラメータ値の候補の各々について、更新対象パラメータ値とその更新後パラメータ値の候補とを複数の機械学習結果に適用して、更新対象パラメータ値の場合の評価対象値に対する、その更新後パラメータ値の候補の場合の評価対象値の相違の程度を示す情報を機械学習結果毎に取得する。評価対象値算出部312は、更新後パラメータ値の候補毎、かつ、機械学習結果毎に、評価対象値の相違の程度と、更新対象パラメータ値の場合の評価対象値とに基づいて、その候補の場合の評価対象値を算出する。更新後パラメータ値選択部313は、更新後パラメータ値の候補毎に複数の評価対象値のばらつきを用いて算出される選択指標値を比較し、比較結果に基づき候補を選択し、更新対象パラメータ値、更新対象パラメータ値の場合の評価対象値を、それぞれ、選択した候補、選択した候補の場合の評価対象値に更新する。
このように、解析装置310は、複数の機械学習結果を用いて機械学習結果毎に、更新後パラメータ値の候補の場合の評価対象値を算出する。これにより、解析装置310は、1つの更新後パラメータ値の候補について複数の評価対象値を得ることができ、評価対象値のばらつきを示す指標(例えば、分散)を用いた評価が可能になる。
また、解析装置310は、パラメータ値の更新時における評価対象値の相違の程度を示す情報を機械学習結果から取得する。解析装置310が、評価対象値の相違の程度という相対的な値を機械学習結果から取得する点で、更新後パラメータ値の候補の場合の評価対象値を算出する際に、更新対象パラメータ値の場合の評価対象値を反映させることができる。パラメータ値の更新前後の評価対象値には比較的強い関係性(例えば、相関性)があると考えられ、解析装置310によれば、この点で、評価対象値をより高精度に算出することができる。
<第4実施形態>
第4実施形態では、機械学習装置の構成の例について説明する。
図15は、第4実施形態に係る機械学習装置の構成の例を示す図である。図15に示す機械学習装置320は、パラメータ値取得部321と、シミュレーション実行部322と、相違算出部323と、機械学習処理部324と、を備える。
かかる構成にて、パラメータ値取得部321は、更新対象パラメータ値および更新後パラメータ値を取得する。シミュレーション実行部322は、更新対象パラメータ値、更新後パラメータ値それぞれの場合の評価対象値をシミュレーションで算出する。相違算出部323は、更新対象パラメータ値の場合の評価対象値に対する、更新後パラメータ値の場合の評価対象値の相違の程度を算出する。機械学習処理部324は、更新対象パラメータ値および更新後パラメータ値と、評価対象値の相違の程度との関係を機械学習する。
このように機械学習装置320が、評価対象値の相違の程度について機械学習を行うことで、評価対象値の相違の程度を出力する機械学習結果を解析装置に提供できる。解析装置は、この機械学習結果を用いて解析を行うことができる。
<第5実施形態>
第5実施形態では、解析システムの構成の例について説明する。
図16は、第5実施形態に係る解析システムの構成の例を示す図である。図16に示す解析システム330は、機械学習装置340と、解析装置350とを備える。機械学習装置340は、パラメータ値取得部341と、シミュレーション実行部342と、相違算出部343と、機械学習処理部344と、を備える。解析装置350は、相違情報取得部351と、評価対象値算出部352と、更新後パラメータ値選択部353と、を備える。
かかる構成にて、パラメータ値取得部341は、更新対象パラメータ値および更新後パラメータ値を取得する。シミュレーション実行部342は、更新対象パラメータ値、更新後パラメータ値それぞれの場合の評価対象値をシミュレーションで算出する。相違算出部343は、更新対象パラメータ値の場合の評価対象値に対する、更新後パラメータ値の場合の評価対象値の相違の程度を算出する。機械学習処理部344は、更新対象パラメータ値、更新後パラメータ値、および、評価対象値の相違の程度を複数セット分用いて、更新対象パラメータ値および更新後パラメータ値と、評価対象値の相違の程度との関係の機械学習結果を複数取得する。
また、相違情報取得部351は、更新パラメータ値に応じて設定される複数の更新後パラメータ値の候補の各々について、更新対象パラメータ値とその更新後パラメータ値の候補とを複数の機械学習結果に適用して、更新対象パラメータ値の場合の評価対象値に対する、その更新後パラメータ値の候補の場合の評価対象値の相違の程度を示す情報を機械学習結果毎に取得する。評価対象値算出部352は、更新後パラメータ値の候補毎、かつ、機械学習結果毎に、評価対象値の相違の程度と、更新対象パラメータ値の場合の評価対象値とに基づいて、その候補の場合の評価対象値を算出する。更新後パラメータ値選択部353は、更新後パラメータ値の候補毎に複数の評価対象値のばらつきを用いて算出される選択指標値を比較し、比較結果に基づき候補を選択し、更新対象パラメータ値、更新対象パラメータ値の場合の評価対象値を、それぞれ、選択した候補、選択した候補の場合の評価対象値に更新する。
このように機械学習装置340が、評価対象値の相違の程度について機械学習を行うことで、評価対象値の相違の程度を出力する機械学習結果を解析装置350に提供できる。
解析装置350は、この機械学習結果を用いて解析を行うことができる。さらに、機械学習装置340が複数の機械学習結果を取得することで、解析装置350は、これら複数の機械学習結果を用いて評価対象値を複数取得することができ、評価対象値の分散など、評価対象値のばらつきの大きさを示す指標を取得できる。解析装置350は、評価対象値のばらつきの大きさを示す指標を用いてパラメータ値の評価を行うことができ、評価対象値が大きい(評価が高い)探索領域を検知できると期待される。
解析装置350は、複数の機械学習結果を用いて機械学習結果毎に、更新後パラメータ値の候補の場合の評価対象値を算出する。これにより、解析装置350は、1つの更新後パラメータ値の候補について複数の評価対象値を得ることができ、評価対象値のばらつきを示す指標(例えば、分散)を用いた評価が可能になる。
また、解析装置350は、パラメータ値の更新時における評価対象値の相違の程度を示す情報を機械学習結果から取得する。解析装置350が、評価対象値の相違の程度という相対的な値を機械学習結果から取得する点で、更新後パラメータ値の候補の場合の評価対象値を算出する際に、更新対象パラメータ値の場合の評価対象値を反映させることができる。パラメータ値の更新前後の評価対象値には比較的強い関係性(例えば、相関性)があると考えられ、解析装置350によれば、この点で、評価対象値をより高精度に算出することができる。
なお、学習側制御部190、および、探索側制御部290が行う処理の全部または一部を実行するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
この出願は、2018年10月30日に出願された日本国特願2018−204015を基礎とする優先権を主張し、その開示の全てをここに取り込む。
本発明は、解析装置、機械学習装置、解析システム、解析方法および記録媒体に適用してもよい。
1、330 解析システム
100、320、340 機械学習装置
110 学習側通信部
180 学習側記憶部
190 学習側制御部
191、321、341 パラメータ値取得部
192、322、342 シミュレーション実行部
193、323、343 相違算出部
194、324、344 機械学習処理部
200、310、350 解析装置
210 解析側通信部
280 解析側記憶部
290 解析側制御部
291 初期値取得部
292 更新後候補設定部
293、311、351 相違情報取得部
294、312、352 評価対象値算出部
295、313、353 更新後パラメータ値選択部
296 終了条件判定部
本発明は、解析装置、機械学習装置、解析システム、解析方法およびプログラムに関する。
本発明の第1の態様によれば、解析装置は、更新対象パラメータ値に応じて設定される更新後パラメータ値の複数の候補の各々について、前記更新対象パラメータ値とその候補とを複数の機械学習結果に適用して、前記更新対象パラメータ値の場合の評価対象値に対する、その候補の場合の評価対象値の相違の程度を示す情報を機械学習結果毎に取得する相違情報取得手段と、前記候補毎、かつ、前記機械学習結果毎に、前記評価対象値の相違の程度と、前記更新対象パラメータ値の場合の前記評価対象値とに基づいて、その候補の場合の評価対象値を算出する評価対象値算出手段と、前記候補毎に、前記機械学習結果毎の前記評価対象値のばらつきを用いて選択指標値を算出し、前記複数の候補各々の前記選択指標値を比較し、前記比較の結果に基づき前記複数の候補から候補を選択し、前記更新対象パラメータ値、前記更新対象パラメータ値の場合の評価対象値を、それぞれ、前記選択した候補、前記選択した候補の場合の評価対象値に更新する、更新後パラメータ値選択手段と、を備える。
本発明の第3の態様によれば、解析システムは、機械学習装置と解析装置とを備える。前記機械学習装置は、更新対象パラメータ値および更新後パラメータ値とのセットを複数取得するパラメータ値取得手段と、前記複数のセット毎に、前記更新対象パラメータ値の場合の評価対象値と、前記更新後パラメータ値の場合の評価対象値とをシミュレーションで算出するシミュレーション実行手段と、前記複数のセット毎に、前記更新対象パラメータ値の場合の評価対象値に対する、前記更新後パラメータ値の場合の評価対象値の相違の程度を算出する相違算出手段と、前記複数のセットの前記更新対象パラメータ値、前記更新後パラメータ値、および、前記評価対象値の相違の程度を用いて、前記更新対象パラメータ値および前記更新後パラメータ値と、前記評価対象値の相違の程度との関係の機械学習結果を複数取得する機械学習処理手段と、を備える。前記解析装置は、更新対象パラメータ値に応じて設定される更新後パラメータ値の複数の候補の各々について、前記更新対象パラメータ値とその候補とを複数の機械学習結果に適用して、前記更新対象パラメータ値の場合の評価対象値に対する、その候補の場合の評価対象値の相違の程度を示す情報を機械学習結果毎に取得する相違情報取得手段と、前記候補毎、かつ、前記機械学習結果毎に、前記評価対象値の相違の程度と、前記更新対象パラメータ値の場合の前記評価対象値とに基づいて、その候補の場合の評価対象値を算出する評価対象値算出手段と、前記候補毎に、前記機械学習結果毎の前記評価対象値のばらつきを用いて選択指標値を算出し、前記複数の候補各々の前記選択指標値を比較し、前記比較の結果に基づき前記複数の候補から候補を選択し、前記更新対象パラメータ値、前記更新対象パラメータ値の場合の評価対象値を、それぞれ、前記選択した候補、前記選択した候補の場合の評価対象値に更新する、更新後パラメータ値選択手段と、を備える。
本発明の第4の態様によれば、解析方法は、コンピュータによって実施され、更新対象パラメータ値に応じて設定される更新後パラメータ値の複数の候補の各々について、前記更新対象パラメータ値とその候補とを複数の機械学習結果に適用して、前記更新対象パラメータ値の場合の評価対象値に対する、その候補の場合の評価対象値の相違の程度を示す情報を機械学習結果毎に取得し、前記候補毎、かつ、前記機械学習結果毎に、前記評価対象値の相違の程度と、前記更新対象パラメータ値の場合の前記評価対象値とに基づいて、その候補の場合の評価対象値を算出し、前記候補毎に、前記機械学習結果毎の前記評価対象値のばらつきを用いて選択指標値を算出し、前記複数の候補各々の前記選択指標値を比較し、前記比較の結果に基づき前記複数の候補から候補を選択し、前記更新対象パラメータ値、前記更新対象パラメータ値の場合の評価対象値を、それぞれ、前記選択した候補、前記選択した候補の場合の評価対象値に更新する、ことを含む。
本発明の第5の態様によれば、プログラムは、コンピュータに、更新対象パラメータ値に応じて設定される更新後パラメータ値の複数の候補の各々について、前記更新対象パラメータ値とその候補とを複数の機械学習結果に適用して、前記更新対象パラメータ値の場合の評価対象値に対する、その候補の場合の評価対象値の相違の程度を示す情報を機械学習結果毎に取得し、前記候補毎、かつ、前記機械学習結果毎に、前記評価対象値の相違の程度と、前記更新対象パラメータ値の場合の前記評価対象値とに基づいて、その候補の場合の評価対象値を算出し、前記候補毎に、前記機械学習結果毎の前記評価対象値のばらつきを用いて選択指標値を算出し、前記複数の候補各々の前記選択指標値を比較し、前記比較の結果に基づき前記複数の候補から候補を選択し、前記更新対象パラメータ値、前記更新対象パラメータ値の場合の評価対象値を、それぞれ、前記選択した候補、前記選択した候補の場合の評価対象値に更新する、ことを実行させるためのプログラムである

Claims (9)

  1. 更新パラメータ値に応じて設定される更新後パラメータ値の複数の候補の各々について、前記更新対象パラメータ値とその候補とを複数の機械学習結果に適用して、前記更新対象パラメータ値の場合の評価対象値に対する、その候補の場合の評価対象値の相違の程度を示す情報を機械学習結果毎に取得する相違情報取得手段と、
    前記候補毎、かつ、前記機械学習結果毎に、前記評価対象値の相違の程度と、前記更新対象パラメータ値の場合の前記評価対象値とに基づいて、その候補の場合の評価対象値を算出する評価対象値算出手段と、
    前記候補毎に、前記機械学習結果毎の前記評価対象値のばらつきを用いて選択指標値を算出し、前記複数の候補各々の前記選択指標値を比較し、前記比較の結果に基づき前記複数の候補から候補を選択し、前記更新対象パラメータ値、前記更新対象パラメータ値の場合の評価対象値を、それぞれ、前記選択した候補、前記選択した候補の場合の評価対象値に更新する、更新後パラメータ値選択手段と、
    を備える解析装置。
  2. 前記更新後パラメータ値選択手段は、前記ばらつきが大きいほど前記選択指標値をより高い値とし、前記複数の候補から、前記選択指標値が最も高い値の候補を選択する
    請求項1に記載の解析装置。
  3. 前記更新後パラメータ値選択手段は、前記候補毎に、前記機械学習結果毎の前記ばらつきと前記複数の候補各々の前記評価対象値の平均値とを用いて、選択指標値を算出する、
    請求項1または請求項2に記載の解析装置。
  4. 前記更新後パラメータ値選択手段は、前記パラメータ値の更新について先読みを行い、先読みされたパラメータ値が数が少ない候補ほど選択指標値をより高い値とし、前記複数の候補から、前記選択指標値が最も高い値の候補を選択する
    請求項1から3の何れか一項に記載の解析装置。
  5. 前記相違情報取得手段は、前記評価対象値の相違の程度を示す情報として、前記複数の候補の各々について、前記更新対象パラメータ値の場合の評価対象値に対する前記候補の場合の評価対象値の差分を、前記更新対象パラメータ値の場合の評価対象値で除算する正規化を行った値を取得する、
    請求項1から4の何れか一項に記載の解析装置。
  6. 更新対象パラメータ値および更新後パラメータ値とのセットを複数取得するパラメータ値取得手段と、
    前記複数のセット毎に、前記更新対象パラメータ値の場合の評価対象値と、前記更新後パラメータ値の場合の評価対象値とをシミュレーションで算出するシミュレーション実行手段と、
    前記複数のセット毎に、前記更新対象パラメータ値の場合の評価対象値に対する、前記更新後パラメータ値の場合の評価対象値の相違の程度を算出する相違算出手段と、
    前記複数のセットの前記更新対象パラメータ値、前記更新後パラメータ値、および、前記評価対象値の相違の程度を用いて、前記更新対象パラメータ値および前記更新後パラメータ値と、前記評価対象値の相違の程度との関係の機械学習結果を複数取得する機械学習処理手段と、
    を備える機械学習装置。
  7. 機械学習装置と解析装置とを備え、
    前記機械学習装置は、
    更新対象パラメータ値および更新後パラメータ値とのセットを複数取得するパラメータ値取得手段と、
    前記複数のセット毎に、前記更新対象パラメータ値の場合の評価対象値と、前記更新後パラメータ値の場合の評価対象値とをシミュレーションで算出するシミュレーション実行手段と、
    前記複数のセット毎に、前記更新対象パラメータ値の場合の評価対象値に対する、前記更新後パラメータ値の場合の評価対象値の相違の程度を算出する相違算出手段と、
    前記複数のセットの前記更新対象パラメータ値、前記更新後パラメータ値、および、前記評価対象値の相違の程度を用いて、前記更新対象パラメータ値および前記更新後パラメータ値と、前記評価対象値の相違の程度との関係の機械学習結果を複数取得する機械学習処理手段と、
    を備え、
    前記解析装置は、
    更新パラメータ値に応じて設定される更新後パラメータ値の複数の候補の各々について、前記更新対象パラメータ値とその候補とを複数の機械学習結果に適用して、前記更新対象パラメータ値の場合の評価対象値に対する、その候補の場合の評価対象値の相違の程度を示す情報を機械学習結果毎に取得する相違情報取得手段と、
    前記候補毎、かつ、前記機械学習結果毎に、前記評価対象値の相違の程度と、前記更新対象パラメータ値の場合の前記評価対象値とに基づいて、その候補の場合の評価対象値を算出する評価対象値算出手段と、
    前記候補毎に、前記機械学習結果毎の前記評価対象値のばらつきを用いて選択指標値を算出し、前記複数の候補各々の前記選択指標値を比較し、前記比較の結果に基づき前記複数の候補から候補を選択し、前記更新対象パラメータ値、前記更新対象パラメータ値の場合の評価対象値を、それぞれ、前記選択した候補、前記選択した候補の場合の評価対象値に更新する、更新後パラメータ値選択手段と、
    を備える、
    解析システム。
  8. コンピュータによって実施される解析方法であって、
    更新パラメータ値に応じて設定される更新後パラメータ値の複数の候補の各々について、前記更新対象パラメータ値とその候補とを複数の機械学習結果に適用して、前記更新対象パラメータ値の場合の評価対象値に対する、その候補の場合の評価対象値の相違の程度を示す情報を機械学習結果毎に取得し、
    前記候補毎、かつ、前記機械学習結果毎に、前記評価対象値の相違の程度と、前記更新対象パラメータ値の場合の前記評価対象値とに基づいて、その候補の場合の評価対象値を算出し、
    前記候補毎に、前記機械学習結果毎の前記評価対象値のばらつきを用いて選択指標値を算出し、前記複数の候補各々の前記選択指標値を比較し、
    前記比較の結果に基づき前記複数の候補から候補を選択し、
    前記更新対象パラメータ値、前記更新対象パラメータ値の場合の評価対象値を、それぞれ、前記選択した候補、前記選択した候補の場合の評価対象値に更新する、
    ことを含む解析方法。
  9. コンピュータに、
    更新パラメータ値に応じて設定される更新後パラメータ値の複数の候補の各々について、前記更新対象パラメータ値とその候補とを複数の機械学習結果に適用して、前記更新対象パラメータ値の場合の評価対象値に対する、その候補の場合の評価対象値の相違の程度を示す情報を機械学習結果毎に取得し、
    前記候補毎、かつ、前記機械学習結果毎に、前記評価対象値の相違の程度と、前記更新対象パラメータ値の場合の前記評価対象値とに基づいて、その候補の場合の評価対象値を算出し、
    前記候補毎に、前記機械学習結果毎の前記評価対象値のばらつきを用いて選択指標値を算出し、前記複数の候補各々の前記選択指標値を比較し、
    前記比較の結果に基づき前記複数の候補から候補を選択し、
    前記更新対象パラメータ値、前記更新対象パラメータ値の場合の評価対象値を、それぞれ、前記選択した候補、前記選択した候補の場合の評価対象値に更新する、
    ことを実行させるためのプログラムを記憶した記録媒体。
JP2020553941A 2018-10-30 2019-10-29 解析装置、解析システム、解析方法およびプログラム Active JP7117686B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018204015 2018-10-30
JP2018204015 2018-10-30
PCT/JP2019/042388 WO2020090821A1 (ja) 2018-10-30 2019-10-29 解析装置、機械学習装置、解析システム、解析方法および記録媒体

Publications (2)

Publication Number Publication Date
JPWO2020090821A1 true JPWO2020090821A1 (ja) 2021-09-16
JP7117686B2 JP7117686B2 (ja) 2022-08-15

Family

ID=70463713

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020553941A Active JP7117686B2 (ja) 2018-10-30 2019-10-29 解析装置、解析システム、解析方法およびプログラム

Country Status (3)

Country Link
US (1) US20210383157A1 (ja)
JP (1) JP7117686B2 (ja)
WO (1) WO2020090821A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023067666A1 (ja) * 2021-10-18 2023-04-27 日本電信電話株式会社 算出装置、算出方法及び算出プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007018490A (ja) * 2005-02-23 2007-01-25 Sony Corp 行動制御装置および行動制御方法、並びに、プログラム
JP2016006587A (ja) * 2014-06-20 2016-01-14 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 解析装置、解析方法及びプログラム
WO2018143019A1 (ja) * 2017-01-31 2018-08-09 日本電気株式会社 情報処理装置、情報処理方法およびプログラム記録媒体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007018490A (ja) * 2005-02-23 2007-01-25 Sony Corp 行動制御装置および行動制御方法、並びに、プログラム
JP2016006587A (ja) * 2014-06-20 2016-01-14 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 解析装置、解析方法及びプログラム
WO2018143019A1 (ja) * 2017-01-31 2018-08-09 日本電気株式会社 情報処理装置、情報処理方法およびプログラム記録媒体

Also Published As

Publication number Publication date
JP7117686B2 (ja) 2022-08-15
WO2020090821A1 (ja) 2020-05-07
US20210383157A1 (en) 2021-12-09

Similar Documents

Publication Publication Date Title
Bouthillier et al. Accounting for variance in machine learning benchmarks
US11887696B2 (en) Systems and methods for classifying, prioritizing and interpreting genetic variants and therapies using a deep neural network
Kundu et al. AltWOA: Altruistic Whale Optimization Algorithm for feature selection on microarray datasets
JP7117687B2 (ja) 解析装置、解析システム、解析方法およびプログラム
CA2894317A1 (en) Systems and methods for classifying, prioritizing and interpreting genetic variants and therapies using a deep neural network
Thevenoux et al. Image based species identification of Globodera quarantine nematodes using computer vision and deep learning
Balakrishnan et al. A novel control factor and Brownian motion-based improved Harris Hawks Optimization for feature selection
JP7117686B2 (ja) 解析装置、解析システム、解析方法およびプログラム
US11954859B2 (en) Methods of assessing diseases using image classifiers
CN114758771A (zh) 一种基于约束型鲸鱼优化算法的肝癌生存预测方法
Boige et al. Gradient-informed quality diversity for the illumination of discrete spaces
Akutekwe et al. Particle swarm optimization-based bio-network discovery method for the diagnosis of colorectal cancer
Gower et al. Inference of population genetics parameters using discriminator neural networks: an adversarial Monte Carlo approach
Li et al. ctP 2 ISP: Protein–Protein Interaction Sites Prediction Using Convolution and Transformer With Data Augmentation
Davies et al. Sparse Bayesian variable selection for the identification of antigenic variability in the foot-and-mouth disease virus
Liu et al. Self-supervised learning enhanced ultrasound video thyroid nodule tracking
Oh Bayesian learning for earthquake engineering applications and structural health monitoring
JP7185853B2 (ja) 探索装置、探索システム、探索方法およびプログラム
Hassan et al. A novel approach of features selection by using slime mould algorithm
Serafimova et al. Using machine learning in accuracy assessment of knowledge-based energy and frequency base likelihood in protein structures
Shiri et al. A NEW HYBRID FILTER-WRAPPER FEATURE SELECTION USING EQUILIBRIUM OPTIMIZER AND SIMULATED ANNEALING.
Preeti et al. A Modified Lévy Flight Grey Wolf Optimizer Feature Selection Approach to Breast Cancer Dataset
Ling et al. Survival analysis of high-dimensional data with graph convolutional networks and geometric graphs
Farzana et al. Radiogenomic prediction of MGMT using deep learning with Bayesian optimized hyperparameters
Zou et al. BDSCyto: an automated approach for identifying cytokines based on best dimension searching

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210416

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220714

R150 Certificate of patent or registration of utility model

Ref document number: 7117686

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350