JP7283065B2 - 推定装置、最適化装置、推定方法、最適化方法、及びプログラム - Google Patents

推定装置、最適化装置、推定方法、最適化方法、及びプログラム Download PDF

Info

Publication number
JP7283065B2
JP7283065B2 JP2018229988A JP2018229988A JP7283065B2 JP 7283065 B2 JP7283065 B2 JP 7283065B2 JP 2018229988 A JP2018229988 A JP 2018229988A JP 2018229988 A JP2018229988 A JP 2018229988A JP 7283065 B2 JP7283065 B2 JP 7283065B2
Authority
JP
Japan
Prior art keywords
function
optimization
parameter
model
estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018229988A
Other languages
English (en)
Other versions
JP2020091791A (ja
Inventor
具治 岩田
琢馬 大塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2018229988A priority Critical patent/JP7283065B2/ja
Priority to PCT/JP2019/045849 priority patent/WO2020116211A1/ja
Priority to US17/299,712 priority patent/US20220058312A1/en
Publication of JP2020091791A publication Critical patent/JP2020091791A/ja
Application granted granted Critical
Publication of JP7283065B2 publication Critical patent/JP7283065B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/11Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2111/00Details relating to CAD techniques
    • G06F2111/10Numerical modelling

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Algebra (AREA)
  • Artificial Intelligence (AREA)
  • Computer Hardware Design (AREA)
  • Databases & Information Systems (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Operations Research (AREA)
  • Probability & Statistics with Applications (AREA)
  • Complex Calculations (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、推定装置、最適化装置、推定方法、最適化方法、及びプログラムに関する。
最適化問題とは、或る関数の最大値をとる点又は最小値をとる点を見つける問題である。ここで、複数の関連する最適化問題が与えられる場合がある。例えば、複数のデータセットのそれぞれで最適な機械学習器を見つける問題や、異なる状況のそれぞれで最適な人流の誘導を見つける問題、異なる状況のそれぞれでシミュレータの最適なパラメータを見つける問題等である。
また、最適化問題を解くための最適化手法の1つとしてベイズ最適化が知られている(例えば非特許文献1参照)。ベイズ最適化とは、形状がわからない関数(ブラックボックス関数)の最大値をとる点又は最小値を取る点を見つけるための最適化手法である。
Jasper Snoek, Hugo Larochelle, and Ryan P. Adams. "Practical Bayesian optimization of machine learning algorithms." Advances in Neural Information Processing Systems. 2012.
しかしながら、複数の関連する最適化問題が与えられている場合に、ベイズ最適化では、他の関連する最適化問題の知見を活用することができなかった。言い換えると、或る最適化問題をベイズ最適化により解く場合に、他の最適化問題に関する情報を活用することができなかった。このため、これらの最適化問題を効率的に解くことができない場合があった。
本発明は、上記の点に鑑みてなされたもので、複数の最適化問題を効率的に解くことを目的とする。
上記目的を達成するため、本発明の実施の形態における推定装置は、複数の最適化問題に関するデータを入力する入力手段と、前記複数の最適化問題のそれぞれで最適化対象となる関数をモデル化した関数モデルのパラメータを推定する推定手段と、を有することを特徴とする。
また、本発明の実施の形態における最適化装置は、複数の最適化問題のそれぞれで最適化対象となる関数をモデル化した関数モデルを入力する入力手段と、前記関数モデルを用いて、前記複数の最適化問題のそれぞれとは異なる最適化問題で最適化対象となる目標関数を繰り返し評価することで、前記目標関数を最適化する最適化手段と、を有することを特徴とする。
複数の最適化問題を効率的に解くことができる。
本発明の実施の形態における推定装置及び最適化装置の機能構成の一例を示す図である。 本発明の実施の形態における推定装置及び最適化装置のハードウェア構成の一例を示す図である。 本発明の実施の形態におけるパラメータ推定処理の一例を示すフローチャートである。 本発明の実施の形態における最適化処理の一例を示すフローチャートである。
以下、本発明の実施の形態について説明する。本発明の実施の形態では、複数の最適化問題が与えられた場合に、これらの最適化問題を効率的に解くための推定装置10及び最適化装置20について説明する。
本発明の実施の形態では、D個の最適化問題に関するデータ
Figure 0007283065000001
が与えられたとする。以降では、これらD個の最適化問題を「元問題」とも表す。また、元問題の各々を「問題d」(d=1,・・・,D)、元問題に関するデータを「元問題データ」とも表す。ここで、
Figure 0007283065000002
は問題dのn番目の入力ベクトル、
Figure 0007283065000003
はその出力値、fd(・)は問題dで最適化したい関数、εは観測ノイズ、Ndは問題dの観測データ数、
Figure 0007283065000004
は問題dの特徴量を表す。なお、以降では、便宜上、明細書のテキストでは、ベクトルを太字ではなく、通常の書体で表す。例えば、上記の数4に示す特徴量は、明細書のテキストでは「rd」と表す。
このとき、元問題の各々とは異なる最適化問題(この最適化問題を「目標問題d*」とも表す。)の特徴量rd*が与えられた場合に、ベイズ最適化の枠組みに基づいて、より少ない評価回数で、目標問題d*の関数fd*(x)の最大値を求めること、すなわち、この最大値を取る点(ベクトル)
Figure 0007283065000005
を求めることである。なお、以降では、ベイズ最適化の枠組みにおいて評価対象となる関数(つまり、上記の関数fd*)を「目標関数」と表す。
本発明の実施の形態では、元問題データを用いて、最適化したい関数fdのモデル(以降、「関数モデル」とも表す。)のパラメータを推定装置10により推定する。そして、このパラメータを設定した関数モデルを用いて、ベイズ推定の枠組みに基づき、目標問題を最適化装置20により最適化する。これにより、より少ない評価回数で目標問題を最適化することができ、元問題及び目標問題、すなわち複数の最適化問題を効率的に解くことができる。
なお、本発明の実施の形態では、主に、最適化問題の特徴量(上記のrdやrd*)が与えられる場合について説明するが、特徴量は与えられないこともある。また、本発明の実施の形態では、元問題が与えられている状況で目標問題を最適化する場合について説明するが、例えば、与えられた複数の最適化問題を同時に最適化する場合についても同様に適用することができる。
また、本発明の実施の形態では、目標関数fd*の最大値を求める場合(つまり、目標問題が最大化問題である場合)について説明するが、目標関数fd*の最小値を求める場合(つまり、目標問題が最小化問題である場合)についても同様に適用することができる。
<推定装置10及び最適化装置20の機能構成>
まず、本発明の実施の形態における推定装置10及び最適化装置20の機能構成について、図1を参照しながら説明する。図1は、本発明の実施の形態における推定装置10及び最適化装置20の機能構成の一例を示す図である。
《推定装置10》
図1に示すように、本発明の実施の形態における推定装置10は、パラメータ推定処理部101と、記憶部102とを有する。
パラメータ推定処理部101は、関数モデルのパラメータを推定するための処理(以降、「パラメータ推定処理」とも表す。)を実行する。記憶部102は、パラメータ推定処理に用いられる各種データ(例えば、元問題データ等)やパラメータ推定処理の処理結果(例えば、関数モデルのパラメータ等)を記憶する。
ここで、パラメータ推定処理部101は、各問題dの関数fd(・)をそれぞれ以下の式(1)に示すニューラルガウス過程でモデル化する(つまり、以下の式(1)に示すニューラルガウス過程を関数モデルとする。)。
Figure 0007283065000006
ここで、
Figure 0007283065000007
は平均関数m、カーネル関数kのガウス過程、m(・;ξ)はパラメータξを持つニューラルネットワークで定義される平均関数、k(・,・;θ)はパラメータθを持つカーネル関数、g(・;ψ)はパラメータψを持つニューラルネットワークを表す。パラメータξ,θ,ψはそれぞれベクトルで表現され、全ての問題dの間で共有される。なお、ガウス過程の代わりに、例えば、スチューデントt過程等、関数を生成する任意のモデルを利用してもよい。
ニューラルネットワークとしては、例えば、フィードフォワード型、畳み込み型、再帰型等、任意のニューラルネットワークを利用することができる。また、ニューラルネットワークの代わりに、他のモデルが用いられてもよい。
このとき、パラメータ推定処理部101は、上記の式(1)に示す関数モデルによって元問題データが説明できるようにパラメータξ,θ,ψを推定する。パラメータ推定処理部101は、例えば、以下の式(2)に示す尤度を目的関数として、この目的関数を最大することによってパラメータξ,θ,ψを推定する。
Figure 0007283065000008
ここで、
Figure 0007283065000009
は問題dのNd次元の出力値のベクトル、
Figure 0007283065000010
は問題dのNd次元の平均関数値のベクトル、KdはNd×Ndの問題dのカーネル行列であり、その(n,n')要素が
Figure 0007283065000011
で与えられる行列である。
なお、各問題dに特徴量rdが与えられない場合は、ニューラルネットワークの入力として特徴量rdをとらないものを用いればよい。すなわち、m(x, rd;ξ)の代わりにm(x;ξ)、g(x, rd;ψ)の代わりにg(x,;ψ)を用いればよい。
ここで、図1に示すように、パラメータ推定処理部101には、入力部111と、初期化部112と、勾配計算部113と、パラメータ更新部114と、終了条件判定部115と、出力部116とが含まれる。
入力部111は、元問題データを入力する。なお、入力部111は、記憶部102に記憶されている元問題データを入力してもよいし、通信ネットワークを介して接続される他の装置から元問題データを受信及び入力してもよい。
初期化部112は、関数モデルのパラメータ(例えば、上記のパラメータξ,θ,ψ)を初期化する。勾配計算部113は、目的関数(例えば、上記の式(2)に示す尤度)の勾配を計算する。パラメータ更新部114は、勾配計算部113により計算された勾配を用いて、目的関数の値が高くなるように、関数モデルのパラメータを更新する。
勾配計算部113による勾配の計算と、パラメータ更新部114によるパラメータの更新とは、所定の終了条件を満たすまで繰り返し実行される。なお、以降では、この所定の終了条件を「第1の終了条件」と表す。
終了条件判定部115は、第1の終了条件を満たすか否かを判定する。第1の終了条件としては、例えば、上記の繰り返し回数が所定の回数に達したこと、目的関数値の変化量が所定の閾値以下になったこと、更新の前後でパラメータの変化量が所定の閾値以下になったこと等が挙げられる。
出力部116は、終了条件判定部115により第1の終了条件を満たすと判定された場合、関数モデルのパラメータを出力する。なお、出力部116は、関数モデルのパラメータを記憶部102に出力(保存)してもよいし、通信ネットワークを介して接続される他の装置(例えば、最適化装置20等)に出力してもよい。以降では、出力部116により出力されるパラメータを「推定済パラメータ」とも表す。
《最適化装置20》
図1に示すように、本発明の実施の形態における最適化装置20は、最適化処理部201と、記憶部202とを有する。
最適化処理部201は、ベイズ最適化の枠組みに基づいて、目標問題を最適化するための処理(以降、「最適化処理」とも表す。)を実行する。記憶部202は、目標問題の最適化処理に用いられる各種データ(例えば、推定済パラメータが設定された関数モデル等)や目標問題の最適化処理の処理結果(例えば、目標関数の最大値やこの最大値を与える点等)を記憶する。
ここで、ベイズ最適化では、次の評価に用いられる入力を獲得関数によって選択する。そこで、最適化処理部201は、例えば、以下の式(3)に示す期待改善量を獲得関数として用いる。
Figure 0007283065000012
ここで、φ(・)及びΦ(・)はそれぞれ標準正規分布の密度関数及び累積密度関数、yはこれまでに得られている最大値(つまり、これまで評価した目標関数値のうちの最大の目標関数値)、μ(x)は平均、σ(x)は標準偏差を表す。なお、最適化処理部201は、期待改善量以外の任意の獲得関数を用いてもよい。
これまでにNd*回の目標関数fd*の評価を行っているとした場合に、これまでの入力を
Figure 0007283065000013
、これまでの評価値(つまり、目標関数値)を
Figure 0007283065000014
とする。このとき、上記の式(1)に示すニューラルガウス過程を関数モデルとして用いた場合、最適化処理部201は、目標関数の分布を以下の式(4)~(5)により計算することができる。
Figure 0007283065000015
ここで、
Figure 0007283065000016
はxでのカーネル関数値、
Figure 0007283065000017
はxとX*との間のカーネル関数値のNd*次元ベクトル、
Figure 0007283065000018
はX*のカーネル行列、
Figure 0007283065000019
はパラメータ推定処理部101によって推定された関数モデルのパラメータ(つまり、推定済パラメータ)である。
ここで、図1に示すように、最適化処理部201には、入力部211と、分布推定部212と、獲得関数計算部213と、関数評価部214と、終了条件判定部215と、出力部216とが含まれる。
入力部211は、推定済パラメータが設定された関数モデルを入力する。なお、入力部211は、記憶部202に記憶されている関数モデルを入力してもよいし、通信ネットワークを介して接続される他の装置から関数モデルを受信及び入力してもよい。
分布推定部212は、例えば上記の式(4)により、目標関数の分布を推定する。獲得関数計算部213は、分布推定部212により推定された分布を用いて、獲得関数(例えば、上記の式(3)に示す期待改善量)を計算する。関数評価部214は、獲得関数計算部213により計算された獲得関数の値が最大となる点で目標関数を評価する(つまり、当該点における目標関数値を得る。)。
分布推定部212による分布の推定と、獲得関数計算部213による獲得関数の計算と、関数評価部214による関数の評価とは、所定の終了条件を満たすまで繰り返し実行される。なお、以降では、この所定の終了条件を「第2の終了条件」と表す。
終了条件判定部215は、第2の終了条件を満たすか否かを判定する。第2の終了条件としては、例えば、上記の繰り返し回数が所定の回数に達したこと、目標関数の最大値が所定の閾値以上になったこと、目標関数の最大値の変化量が所定の閾値以下になったこと等が挙げられる。
出力部216は、終了条件判定部215により第2の終了条件を満たすと判定された場合、最適化処理の処理結果(例えば、評価値(目標関数値)の最大値やこの最大値を与える点)を出力する。なお、出力部216は、最適化処理の処理結果を記憶部202に出力(保存)してもよいし、通信ネットワークを介して接続される他の装置に出力してもよい。
ここで、本発明の実施の形態では、推定装置10と最適化装置20とが異なる装置である場合について説明するが、推定装置10と最適化装置20とが1台の装置で実現されていてもよい。この場合、当該装置は、パラメータ推定処理部101と、最適化処理部201と、記憶部とを有するように構成されていればよい。
<推定装置10及び最適化装置20のハードウェア構成>
次に、本発明の実施の形態における推定装置10及び最適化装置20のハードウェア構成について、図2を参照しながら説明する。図2は、本発明の実施の形態における推定装置10及び最適化装置20のハードウェア構成の一例を示す図である。なお、推定装置10及び最適化装置20は同様のハードウェア構成で実現可能であるため、以降では、主に、推定装置10のハードウェア構成について説明する。
図2に示すように、本発明の実施の形態における推定装置10は、入力装置301と、表示装置302と、外部I/F303と、RAM(Random Access Memory)304と、ROM(Read Only Memory)305と、プロセッサ306と、通信I/F307と、補助記憶装置308とを有する。これら各ハードウェアは、それぞれがバスBを介して通信可能に接続されている。
入力装置301は、例えばキーボードやマウス、タッチパネル等であり、ユーザが各種操作を入力するのに用いられる。表示装置302は、例えばディスプレイ等であり、推定装置10の処理結果等を表示する。なお、推定装置10及び最適化装置20は、入力装置301及び表示装置302の少なくとも一方を有していなくてもよい。
外部I/F303は、外部装置とのインタフェースである。外部装置には、記録媒体303a等がある。推定装置10は、外部I/F303を介して、記録媒体303aの読み取りや書き込み等を行うことができる。記録媒体303aには、例えば、パラメータ推定処理部101を実現する1以上のプログラムや最適化処理部201を実現する1以上のプログラム等が記録されていてもよい。
記録媒体303aとしては、例えば、フレキシブルディスク、CD(Compact Disc)、DVD(Digital Versatile Disk)、SDメモリカード(Secure Digital memory card)、USB(Universal Serial Bus)メモリカード等がある。
RAM304は、プログラムやデータを一時保持する揮発性の半導体メモリである。ROM305は、電源を切ってもプログラムやデータを保持することができる不揮発性の半導体メモリである。ROM305には、例えば、OS(Operating System)に関する設定情報や通信ネットワークに関する設定情報等が格納されている。
プロセッサ306は、例えばCPU(Central Processing Unit)やGPU(Graphics Processing Unit)等であり、ROM305や補助記憶装置308等からプログラムやデータをRAM304上に読み出して処理を実行する演算装置である。パラメータ推定処理部101は、ROM305や補助記憶装置308等に格納されている1以上のプログラムをRAM304上に読み出してプロセッサ306が処理を実行することで実現される。同様に、最適化処理部201は、ROM305や補助記憶装置308等に格納されている1以上のプログラムをRAM304上に読み出してプロセッサ306が処理を実行することで実現される。
通信I/F307は、推定装置10を通信ネットワークに接続するためのインタフェースである。パラメータ推定処理部101を実現する1以上のプログラムや最適化処理部201を実現する1以上のプログラムは、通信I/F307を介して、所定のサーバ装置等から取得(ダウンロード)されてもよい。
補助記憶装置308は、例えばHDD(Hard Disk Drive)やSSD(Solid State Drive)等であり、プログラムやデータを格納している不揮発性の記憶装置である。補助記憶装置308に格納されているプログラムやデータには、例えば、OS、当該OS上で各種機能を実現するアプリケーションプログラム等がある。また、推定装置10の補助記憶装置308にはパラメータ推定処理部101を実現する1以上のプログラムが格納されている。同様に、最適化装置20の補助記憶装置308には最適化処理部201を実現する1以上のプログラムが格納されている。
また、推定装置10が有する記憶部102は、例えば補助記憶装置308を用いて実現可能である。同様に、最適化装置20が有する記憶部202は、例えば補助記憶装置308を用いて実現可能である。
本発明の実施の形態における推定装置10は、図2に示すハードウェア構成を有することにより、後述する各種処理を実現することができる。同様に、本発明の実施の形態における最適化装置20は、図2に示すハードウェア構成を有することにより、後述する各種処理を実現することができる。
なお、図2に示す例では、本発明の実施の形態における推定装置10及び最適化装置20がそれぞれ1台の装置(コンピュータ)で実現されている場合を示したが、これに限られない。本発明の実施の形態における推定装置10及び最適化装置20の少なくとも一方が、複数台の装置(コンピュータ)で実現されていてもよい。また、1台の装置(コンピュータ)には、複数のプロセッサ306や複数のメモリ(RAM304やROM305、補助記憶装置308等)が含まれていてもよい。
<パラメータ推定処理>
次に、本発明の実施の形態におけるパラメータ推定処理について、図3を参照しながら説明する。図3は、本発明の実施の形態におけるパラメータ推定処理の一例を示すフローチャートである。
まず、入力部111は、元問題データを入力する(ステップS101)。
次に、初期化部112は、関数モデルのパラメータ(例えば、上記のパラメータξ,θ,ψ)を初期化する(ステップS102)。なお、初期化部112は、最適化の対象となる問題dに応じて、上記のパラメータを適切な値に初期化する。
次に、勾配計算部113は、目的関数(例えば、上記の式(2)に示す尤度)の勾配を計算する(ステップS103)。
次に、パラメータ更新部114は、勾配計算部113により計算された勾配を用いて、目的関数の値が高くなるように、関数モデルのパラメータを更新する(ステップS104)。
次に、終了条件判定部115は、第1の終了条件を満たすか否かを判定する(ステップS105)。
ステップS105で第1の終了条件を満たさないと判定された場合、パラメータ推定処理部101は、ステップS103に戻る。これにより、第1の終了条件を満たすまで、ステップS103~ステップS104が繰り返し実行される。
一方で、ステップS105で第1の終了条件を満たすと判定された場合、出力部116は、関数モデルのパラメータ(つまり、推定済パラメータ)を出力する(ステップS106)。
<最適化処理>
次に、本発明の実施の形態における最適化処理(目標問題の最適化処理)について、図4を参照しながら説明する。図4は、本発明の実施の形態における最適化処理の一例を示すフローチャートである。
まず、入力部211は、推定済パラメータが設定された関数モデルを入力する(ステップS201)。
次に、分布推定部212は、目標関数の分布を推定する(ステップS202)。なお、例えば、上記の式(1)に示すニューラルガウス過程を関数モデルとして用いた場合、分布推定部212は、上記の式(4)~(5)により目標関数の分布を推定する。
次に、獲得関数計算部213は、分布推定部212により推定された分布を用いて、獲得関数(例えば、上記の式(3)に示す期待改善量)を計算する(ステップS203)。
次に、関数評価部214は、獲得関数計算部213により計算された獲得関数の値が最大となる点で目標関数を評価する(ステップS204)。
次に、終了条件判定部215は、第2の終了条件を満たすか否かを判定する(ステップS205)。
ステップS205で第2の終了条件を満たさないと判定された場合、最適化処理部201は、ステップS202に戻る。これにより、第2の終了条件を満たすまで、ステップS202~ステップS204が繰り返し実行される。
一方で、ステップS205で第2の終了条件を満たすと判定された場合、出力部216は、最適化処理の処理結果(例えば、目標関数の最大値やこの最大値を与える点)を出力する(ステップS206)。なお、出力部216は、評価値の最大値のみを出力してもよいし、この最大値を与える点のみを出力してもよいし、これらの両方を出力してもよい。
<従来技術との比較結果>
次に、本発明と従来技術との比較結果について説明する。ここで、比較に用いる最適化問題としては、「人工最適化問題」、「最適人流誘導探索」、「最適機械学習器探索」の3種類を用いた。この3種類の最適化問題を解いた場合に、最適値(最大値又は最小値)を見つけるまでの平均評価回数と標準誤差とを以下の表1に示す。
Figure 0007283065000020
ここで、本発明としては、RMK、RM、RK、MKの4種類のバージョンを用いた。Rは特徴量を利用したもの(つまり、各最適化問題に特徴量が与えられており、その特徴量を利用したもの)、Mは平均関数でニューラルネットワークを用いたもの、Kはカーネル関数でニューラルネットワークを用いたものを表す。
例えば、「本発明-RMK」は、特徴量を利用し、かつ、平均関数mとしてニューラルネットワーク、カーネル関数kの入力としてニューラルネットワークを用いて、本発明の手法により最適化問題を解いた場合を示す。同様に、例えば、「本発明-RM」は、特徴量を利用し、かつ、平均関数mとしてニューラルネットワーク、カーネル関数kとしてニューラルネットワーク以外の関数を用いて、本発明の手法により最適化問題を解いた場合を示す。「本発明-RK」や「本発明-MK」についても同様である。
また、従来技術としては、ガウス過程(GP)、元問題でカーネルパラメータを学習するガウス過程(TGP)、ニューラル過程(NP)、ニューラルネットワーク(NN)、特徴量を利用するニューラルネットワーク(NN-R)、次の評価に用いる点をランダムに選ぶ手法(Random)を用いた。
上記の表1に示すように、本発明の手法が他の従来技術よりも少ない評価回数で(すなわち、従来技術よりも効率的に)最適値を見つけることができていることがわかる。なお、上記の表1では、平均評価回数が最も良い手法(つまり、本発明-RMK)を太字としている。また、最も良い手法と統計的有意差がなかったものにはアスタリスク「*」を付与している。
本発明は、具体的に開示された上記の実施形態に限定されるものではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。
10 推定装置
20 最適化装置
101 パラメータ推定処理部
111 入力部
112 初期化部
113 勾配計算部
114 パラメータ更新部
115 終了条件判定部
116 出力部
102 記憶部
201 最適化処理部
202 記憶部
211 入力部
212 分布推定部
213 獲得関数計算部
214 関数評価部
215 終了条件判定部
216 出力部

Claims (7)

  1. 複数の最適化問題に関するデータを入力する入力手段と、
    前記複数の最適化問題のそれぞれで最適化対象となる関数をモデル化した関数モデルのパラメータを推定する推定手段と、
    を有し、
    前記関数モデルは、
    前記複数の最適化問題で共通のパラメータξを持つニューラルネットワークで定義される平均関数mと、前記複数の最適化問題で共通のパラメータψを持つニューラルネットワークの出力を入力として取り、かつ、前記複数の最適化問題で共通のパラメータθを持つカーネル関数kとを用いたガウス過程GP(m,k)であり、
    前記推定手段は、
    前記関数モデルGP(m,k)のパラメータξ,θ,ψを推定する、ことを特徴とする推定装置。
  2. 前記推定手段は、
    前記関数モデルと前記データとに応じた目的関数の勾配を計算し、該勾配を用いて、前記目的関数の値が最大又は最小となるように、前記関数モデルのパラメータを推定する、ことを特徴とする請求項1に記載の推定装置。
  3. 複数の最適化問題に関するデータを入力する入力手段と、
    前記複数の最適化問題のそれぞれで最適化対象となる関数をモデル化した関数モデルのパラメータを推定する推定手段と、
    前記推定したパラメータが設定された関数モデルを用いて、前記複数の最適化問題のそれぞれとは異なる最適化問題で最適化対象となる目標関数を繰り返し評価することで、前記目標関数を最適化する最適化手段と、
    を有し、
    前記関数モデルは、
    前記複数の最適化問題で共通のパラメータξを持つニューラルネットワークで定義される平均関数mと、前記複数の最適化問題で共通のパラメータψを持つニューラルネットワークの出力を入力として取り、かつ、前記複数の最適化問題で共通のパラメータθを持つカーネル関数kとを用いたガウス過程GP(m,k)であり、
    前記推定手段は、
    前記関数モデルGP(m,k)のパラメータξ,θ,ψを推定する、ことを特徴とする最適化装置。
  4. 前記最適化手段は、
    前記関数モデルのパラメータを用いて、前記目標関数の分布を計算し、
    前記分布を用いて、所定の獲得関数により決定される値で前記目標関数を評価する、ことを特徴とする請求項3に記載の最適化装置。
  5. 複数の最適化問題に関するデータを入力する入力手順と、
    前記複数の最適化問題のそれぞれで最適化対象となる関数をモデル化した関数モデルのパラメータを推定する推定手順と、
    をコンピュータが実行し、
    前記関数モデルは、
    前記複数の最適化問題で共通のパラメータξを持つニューラルネットワークで定義される平均関数mと、前記複数の最適化問題で共通のパラメータψを持つニューラルネットワークの出力を入力として取り、かつ、前記複数の最適化問題で共通のパラメータθを持つカーネル関数kとを用いたガウス過程GP(m,k)であり、
    前記推定手順は、
    前記関数モデルGP(m,k)のパラメータξ,θ,ψを推定する、ことを特徴とする推定方法。
  6. 複数の最適化問題に関するデータを入力する入力手順と、
    前記複数の最適化問題のそれぞれで最適化対象となる関数をモデル化した関数モデルのパラメータを推定する推定手順と、
    前記推定したパラメータが設定された関数モデルを用いて、前記複数の最適化問題のそれぞれとは異なる最適化問題で最適化対象となる目標関数を繰り返し評価することで、前記目標関数を最適化する最適化手順と、
    をコンピュータが実行し、
    前記関数モデルは、
    前記複数の最適化問題で共通のパラメータξを持つニューラルネットワークで定義される平均関数mと、前記複数の最適化問題で共通のパラメータψを持つニューラルネットワークの出力を入力として取り、かつ、前記複数の最適化問題で共通のパラメータθを持つカーネル関数kとを用いたガウス過程GP(m,k)であり、
    前記推定手順は、
    前記関数モデルGP(m,k)のパラメータξ,θ,ψを推定する、ことを特徴とする最適化方法。
  7. コンピュータを、請求項1又は2に記載の推定装置、又は、請求項3又は4に記載の最適化装置として機能させるためのプログラム。
JP2018229988A 2018-12-07 2018-12-07 推定装置、最適化装置、推定方法、最適化方法、及びプログラム Active JP7283065B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018229988A JP7283065B2 (ja) 2018-12-07 2018-12-07 推定装置、最適化装置、推定方法、最適化方法、及びプログラム
PCT/JP2019/045849 WO2020116211A1 (ja) 2018-12-07 2019-11-22 推定装置、最適化装置、推定方法、最適化方法、及びプログラム
US17/299,712 US20220058312A1 (en) 2018-12-07 2019-11-22 Estimation apparatus, optimization apparatus, estimation method, optimization method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018229988A JP7283065B2 (ja) 2018-12-07 2018-12-07 推定装置、最適化装置、推定方法、最適化方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2020091791A JP2020091791A (ja) 2020-06-11
JP7283065B2 true JP7283065B2 (ja) 2023-05-30

Family

ID=70975452

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018229988A Active JP7283065B2 (ja) 2018-12-07 2018-12-07 推定装置、最適化装置、推定方法、最適化方法、及びプログラム

Country Status (3)

Country Link
US (1) US20220058312A1 (ja)
JP (1) JP7283065B2 (ja)
WO (1) WO2020116211A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7508798B2 (ja) * 2020-02-10 2024-07-02 富士通株式会社 最適化装置、最適化プログラム、及び最適化方法
WO2022097230A1 (ja) * 2020-11-05 2022-05-12 日本電信電話株式会社 予測方法、予測装置及びプログラム
KR20230015100A (ko) * 2021-07-22 2023-01-31 재단법인대구경북과학기술원 입출력 데이터 기반 제어 시스템 외란 추정 방법 및 장치
CN116029409A (zh) * 2022-09-21 2023-04-28 中广核研究院有限公司 核反应堆多参数优化方法、装置、计算机设备和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5197705B2 (ja) 2010-09-24 2013-05-15 ヤフー株式会社 情報を表示する端末、方法及びプログラム
WO2017136802A1 (en) 2016-02-05 2017-08-10 Nec Laboratories America, Inc. Accelerating deep neural network training with inconsistent stochastic gradient descent

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05197705A (ja) * 1991-07-09 1993-08-06 Fujitsu Ltd ニューラルネットワークの学習システム
US6233310B1 (en) * 1999-07-12 2001-05-15 General Electric Company Exposure management and control system and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5197705B2 (ja) 2010-09-24 2013-05-15 ヤフー株式会社 情報を表示する端末、方法及びプログラム
WO2017136802A1 (en) 2016-02-05 2017-08-10 Nec Laboratories America, Inc. Accelerating deep neural network training with inconsistent stochastic gradient descent
JP2019509550A (ja) 2016-02-05 2019-04-04 エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. 非一貫性確率的勾配降下を使用した深層ニューラルネットワークのトレーニングの高速化

Non-Patent Citations (9)

* Cited by examiner, † Cited by third party
Title
ARIIZUMI, Ryo, et al.,"Multiobjective Optimization Based on Expensive Robotic Experiments under Heteroscedastic Noise",IEEE TRANSACTIONS ON ROBOTICS,2016年12月28日,Vol.33, No.2,Pages 468-483,ISSN: 1552-3098, <DOI: 10.1109/TRO.2016.2632739>.
Cha Zhang, et al.,"Improving Multiview Face Detection with Multi-Task Deep Convolutional Neural Networks",Proceedings of IEEE Winter Conference on Applications of Computer Vision,IEEE,2014年03月26日,Pages 1036-1041,ISBN: 978-1-4799-4985-4, <DOI: 10.1109/WACV.2014.6835990>.
NAKAYAMA, Hirotaka,"Sequential Approximate Multiobjective Optimization using Computational Intelligence",Proceedings of the Ninth International Symposium on Operations Research and Its Applications (ISORA'10),[online],2010年08月23日,Pages 1-12,[令和2年1月16日検索], インターネット, <URL: http://www.aporc.org/LNOR/12/ISORA2010F01.pdf> and <URL: http://www.aporc.org/LNOR/12/> and <URL: http://www.aporc.org/LNOR/>,ISBN: 978-7-5100-2406-1, (Also published as "Lecture Notes in Operations Research 12").
ZHONG-HUA HAN, et al.,"Surrogate-Based Optimization",In: Real-World Applications of Genetic Algorithms,[online],2012年03月07日,Pages 343-362,[令和2年1月16日検索], インターネット, <URL: https://api.intechopen.com/chapter/pdf-download/30305>,ISBN 978-953-51-0146-8.
和田 尭(外1名),「多目的最適化と多点探索のためのベイズ最適化」,電子情報通信学会技術研究報告,日本,一般社団法人 電子情報通信学会,2018年10月29日,Vol.118, No.284,第111~118頁,ISSN: 2432-6380.
尹 禮分,「メタモデルと多目的最適化手法」,システム/制御/情報,日本,2011年09月15日,Vol.55, No.9,Pages 367-373,ISSN: 0916-1600.
有泉 亮(外3名),「入力依存ノイズを考慮した応答曲面法に基づく多目的最適化」,計測自動制御学会論文集,日本,公益社団法人 計測自動制御学会,2014年11月30日,Vol.50, No.11,第792~800頁,ISSN: 0453-4654.
涌井 良幸(外1名),「Excelでわかる ディープラーニング超入門」,初版,日本,株式会社技術評論社,2018年01月05日,第23~38,79~99頁,ISBN: 978-4-7741-9474-5.
米津 智弘(外4名),「コスト考慮型ベイズ最適化による複数目的関数最適化とその材料分野への応用」,電子情報通信学会技術研究報告,日本,一般社団法人 電子情報通信学会,2017年06月16日,Vol.117, No.110,第207~213頁,ISSN: 0913-5685.

Also Published As

Publication number Publication date
JP2020091791A (ja) 2020-06-11
WO2020116211A1 (ja) 2020-06-11
US20220058312A1 (en) 2022-02-24

Similar Documents

Publication Publication Date Title
JP7283065B2 (ja) 推定装置、最適化装置、推定方法、最適化方法、及びプログラム
Doran et al. A Permutation-Based Kernel Conditional Independence Test.
Hoefling A path algorithm for the fused lasso signal approximator
Maggiar et al. A derivative-free trust-region algorithm for the optimization of functions smoothed via gaussian convolution using adaptive multiple importance sampling
Kartal Koc et al. Model selection in multivariate adaptive regression splines (MARS) using information complexity as the fitness function
WO2018039011A1 (en) Asychronous training of machine learning model
Zanger Convergence of a least‐squares Monte Carlo algorithm for American option pricing with dependent sample data
WO2021198292A1 (en) Efficient computational inference using gaussian processes
US11295050B2 (en) Structural analysis method and structural analysis apparatus
JP7542821B2 (ja) 学習方法、系列解析方法、学習装置、系列解析装置、及びプログラム
Giribone et al. Option pricing via radial basis functions: Performance comparison with traditional numerical integration scheme and parameters choice for a reliable pricing
JP2017220001A (ja) 予測装置、予測方法及びプログラム
JP6954346B2 (ja) パラメータ推定装置、パラメータ推定方法、及びプログラム
JP7163977B2 (ja) 推定装置、学習装置、それらの方法、およびプログラム
JP7310884B2 (ja) パラメータ推定装置、パラメータ推定方法、及びパラメータ推定プログラム
He et al. Dual order-reduced Gaussian process emulators (DORGP) for quantifying high-dimensional uncertain crack growth using limited and noisy data
JP6831307B2 (ja) 解算出装置、解算出方法及び解算出プログラム
Park et al. A hybrid parallel solver for systems of multivariate polynomials using CPUs and GPUs
JP7070051B2 (ja) 計算装置、計算方法及びプログラム
JP7176371B2 (ja) 推定装置、推定方法及びプログラム
JP7472998B2 (ja) パラメータ推定装置、秘密パラメータ推定システム、秘密計算装置、それらの方法、およびプログラム
WO2020240770A1 (ja) 学習装置、推定装置、学習方法、推定方法及びプログラム
WO2023281579A1 (ja) 最適化方法、最適化装置、及びプログラム
WO2024157481A1 (ja) メタ学習方法、メタ学習装置及びプログラム
WO2024214153A1 (ja) 情報処理装置、情報処理方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230501

R150 Certificate of patent or registration of utility model

Ref document number: 7283065

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150